28.10.2020   

DE

Amtsblatt der Europäischen Union

C 364/87


Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses zum „Weißbuch zur Künstlichen Intelligenz — ein europäisches Konzept für Exzellenz und Vertrauen“

(COM(2020) 65 final)

(2020/C 364/12)

Berichterstatterin:

Catelijne MULLER

Befassung

Kommission, 9.3.2020

Rechtsgrundlage

Artikel 304 des Vertrags über die Arbeitsweise der Europäischen Union

Zuständige Fachgruppe

Fachgruppe Binnenmarkt, Produktion, Verbrauch

Annahme in der Fachgruppe

25.6.2020

Verabschiedung im Plenum

16.7.2020

Plenartagung Nr.

553

Ergebnis der Abstimmung

(Ja-Stimmen/Nein-Stimmen/Enthaltungen)

207/0/6

1.   Schlussfolgerungen und Empfehlungen

1.1.

Der Europäische Wirtschafts- und Sozialausschuss (EWSA) gratuliert der Kommission zu ihrer im Weißbuch zur Künstlichen Intelligenz (KI) dargelegten Strategie, mit der die Nutzung von KI-Technologien gefördert und gleichzeitig dafür gesorgt werden soll, dass sie den europäischen ethischen Normen, rechtlichen Anforderungen und sozialen Werten entsprechen.

1.2.

Der EWSA begrüßt auch das Ziel, die Stärken Europas auf den industriellen und gewerblichen Absatzmärkten zu nutzen, und betont, wie wichtig es ist‚ Investitionen, Infrastruktur, Innovation und Kompetenzen zu verbessern, damit Unternehmen — einschließlich KMU — und die Gesellschaft insgesamt die Chancen der KI nutzen können. KI-Innovationen sollten gefördert werden, um den Nutzen von KI-Systemen zu maximieren und zugleich ihren Gefahren aus dem Weg zu gehen bzw. diese zu minimieren.

1.3.

Er ist jedoch der Ansicht, dass der Fokus auf rein datengesteuerte KI zu eng gefasst ist, um die EU zu einem echten Vorreiter bei modernster, vertrauenswürdiger und wettbewerbsfähiger KI zu machen. Der EWSA fordert die Kommission auf, auch eine neue Generation von KI-Systemen zu fördern, die sich auf Wissen und Schlussfolgerungen stützen und durch die menschliche Werte und Grundsätze gewahrt werden.

1.4.

Der EWSA ruft die Kommission auf, a) die Multidisziplinarität in der Forschung durch Einbeziehung anderer Disziplinen wie Recht, Ethik, Philosophie, Psychologie, Arbeitswissenschaften, Geisteswissenschaften, Wirtschaft usw. zu fördern, b) relevante Interessenträger (Gewerkschaften, Berufs- und Unternehmensverbände, Verbraucherorganisationen, NRO) in die Debatte über KI und als gleichberechtigte Partner in von der EU finanzierte Forschungsprojekte und andere Projekte wie die öffentlich-private Partnerschaft für KI, sektorale Dialoge, das Adopt-AI-Programm im öffentlichen Sektor und das Leitzentrum einzubeziehen und c) die breitere Öffentlichkeit über die Chancen und Herausforderungen der KI weiter aufzuklären und zu informieren.

1.5.

Der EWSA fordert die Kommission nachdrücklich auf, die Auswirkungen der KI auf das gesamte Spektrum der Grundrechte und -freiheiten eingehender zu prüfen, u. a. auf das Recht auf ein faires Verfahren, auf faire und offene Wahlen, auf die Versammlungs- und Demonstrationsfreiheit sowie auf Nichtdiskriminierung.

1.6.

Der EWSA spricht sich nach wie vor gegen die Einführung jeglicher Formen der Rechtspersönlichkeit für KI aus. Dies würde die präventive Wirkung des Haftungsrechts aushöhlen, ein erhebliches Risiko der Schaffung von Fehlanreizen sowohl bei der Entwicklung als auch bei der Nutzung von KI bergen und Missbrauch ermöglichen.

1.7.

Der EWSA fordert einen kontinuierlichen, systematischen soziotechnischen Ansatz‚ bei dem die Technologie aus allen Blickwinkeln und vor diversen Hintergründen betrachtet wird, anstatt dass es zu einer einmaligen (oder sogar regelmäßig wiederholten) vorherigen Konformitätsbewertung von KI-Anwendungen mit hohem Risiko kommt.

1.8.

Der EWSA gibt zu bedenken, dass die Kriterien für die Einstufung als Anwendung mit „hohem Risiko“ zahlreiche KI-Anwendungen und Nutzungen, die an sich risikoreich sind (wie biometrische Identifikation und KI bei Einstellungsverfahren), nicht erfassen. Der EWSA empfiehlt der Kommission die Erstellung einer Liste gemeinsamer Merkmale von KI-Anwendungen, die unabhängig vom Anwendungsbereich als inhärent mit einem hohen Risiko behaftet eingestuft werden.

1.9.

Der EWSA plädiert nachdrücklich dafür, die biometrische Identifikation ausschließlich dann zu erlauben, wenn a) die Wirkung wissenschaftlich nachgewiesen ist, b) die Anwendung in kontrollierten Umgebungen stattfindet und c) die Anwendung strengen Bedingungen unterliegt. Die weitverbreitete Verwendung KI-gestützter biometrischer Erkennung zur Überwachung oder zur Verfolgung, Bewertung oder Kategorisierung von Menschen oder menschlichem Verhalten bzw. menschlichen Emotionen sollte verboten werden.

1.10.

Der EWSA spricht sich für eine den geltenden nationalen Vorschriften und Verfahren entsprechende, frühzeitige und enge Einbeziehung der Sozialpartner bei der Einführung von KI-Systemen am Arbeitsplatz aus, um sicherzustellen, dass die Systeme eingesetzt werden können und den Arbeitnehmerrechten und Arbeitsbedingungen entsprechen.

1.11.

Der EWSA spricht sich auch für eine frühzeitige und enge Einbeziehung der Arbeitnehmer, die am Ende mit den KI-Systemen arbeiten werden, sowie von Beschäftigten mit Fachwissen im juristischen, ethischen und geisteswissenschaftlichen Bereich bei der Einführung von KI-Systemen aus, um sicherzustellen, dass die Systeme den Gesetzen und den ethischen Anforderungen sowie den Bedürfnissen der Arbeitnehmer entsprechen, so dass diese weiterhin die Kontrolle über ihre Arbeit und KI Systeme haben, die ihre Fähigkeiten und ihre Arbeitszufriedenheit verbessern.

1.12.

KI-Techniken und -Konzepte zur Bekämpfung der Coronavirus-Pandemie sollten robust, wirksam, transparent und nachvollziehbar sein. Bei ihrem Einsatz müssen außerdem die Menschenrechte, ethische Grundsätze und die geltenden Rechtsvorschriften gewahrt werden, und sie müssen fair, inklusiv und freiwillig sein.

1.13.

Der EWSA fordert die Kommission auf, eine Führungsrolle zu übernehmen, um eine bessere Koordinierung der KI-Lösungen und -Konzepte sicherzustellen, die zur Bekämpfung der Coronavirus-Pandemie in Europa eingesetzt werden.

2.   Das EU-Weißbuch zur Künstlichen Intelligenz

2.1.

Der EWSA nimmt erfreut zur Kenntnis, dass die Europäische Kommission viele der Empfehlungen aus früheren Stellungnahmen des EWSA und der Hochrangigen Expertengruppe für KI aufgreift, indem sie sich für die Nutzung von KI-Technologien einsetzt und gleichzeitig dafür sorgt, dass diese den europäischen ethischen Normen, rechtlichen Anforderungen und sozialen Werten entsprechen. Dies bezeichnet sie als „Ökosystem für Exzellenz und Vertrauen“.

2.2.

Der EWSA begrüßt die Vorschläge, die darauf ausgerichtet sind, dass die Unternehmen (einschließlich KMU) und die Gesellschaft insgesamt die Möglichkeiten der Entwicklung und des Einsatzes von KI nutzen können. Der EWSA betont, dass Investitionen, Infrastruktur, Innovation und Kompetenzen gefördert werden müssen, um den Erfolg der EU im Wettbewerb auf globaler Ebene zu verbessern.

Ansatz der Steuerung durch den Menschen

2.3.

Das Weißbuch klingt jedoch stellenweise auch etwas „fatalistisch“, wenn der Eindruck erweckt wird, dass die KI „über uns hineinbricht“ und uns lediglich die Möglichkeit bleibt, ihren Einsatz zu regulieren. Der EWSA ist fest davon überzeugt, dass die EU alles daran setzen wird, um sicherzustellen, dass Europa nur vertrauenswürdige KI akzeptiert, weshalb sie sich trauen sollte, hier einen viel stärkeren Standpunkt einzunehmen. Er fordert die Kommission daher nachdrücklich auf, stets die Option offenzuhalten, eine bestimmte Art von KI (bzw. deren Nutzung) überhaupt nicht zu akzeptieren. Dies hat der EWSA als Ansatz der Steuerung durch den Menschen („Human-in-command“) für KI bezeichnet, den wir verfolgen müssen.

Nutzung von KI in Europa — eine zukunftsorientierte Definition

2.4.

Laut der im Weißbuch enthaltenen Arbeitsdefinition ist KI ein „Bestand an Technologien, die Daten, Algorithmen und Rechenleistung kombinieren“. Später im Text werden Daten und Algorithmen als Hauptelemente der KI definiert. Diese Definition würde jedoch jede Art von Software erfassen, die jemals geschrieben wurde, und nicht nur KI. Es gibt nach wie vor keine allgemein anerkannte Definition künstlicher Intelligenz — es handelt sich hierbei um einen Gattungsbegriff für eine Reihe von Computeranwendungen.

2.5.

Der Fokus des Weißbuchs auf rein datengesteuerte KI ist zu eng gefasst, um die EU zu einem echten Vorreiter bei modernster, vertrauenswürdiger und wettbewerbsfähiger KI zu machen. Das Weißbuch schließt viele vielversprechende KI-Systeme von der Betrachtung und damit von einer Steuerung und Regulierung aus. Der EWSA fordert die Kommission auf, auch eine neue Generation von KI-Systemen zu fördern, die datengesteuerte Ansätze mit auf Wissen und Schlussfolgerungen gestützten Konzepten‚ so genannten Hybridsystemen, kombinieren. In dem Weißbuch wird die Notwendigkeit hybrider Systeme im Sinne der Erklärbarkeit anerkannt, aber die Vorteile hybrider Systeme gehen darüber hinaus: sie können das Lernen beschleunigen und/oder einschränken und das maschinelle Lernmodell validieren und überprüfen.

2.6.

Das Weißbuch konzentriert sich nur auf Verzerrungen in Bezug auf Daten, aber nicht alle Verzerrungen sind das Ergebnis schlechter oder begrenzter Datensätze. Die Gestaltung aller KI-Produkte ist an sich eine Häufung voreingenommener Entscheidungen‚ die von den eingespeisten Daten bis hin zu den angestrebten Zielen reichen. All diese Entscheidungen werden auf die eine oder andere Weise durch die inhärente Voreingenommenheit der Person bzw. der Personen beeinflusst, die sie getroffen hat bzw. haben.

2.7.

Vor allem aber sind KI-Systeme mehr als nur die Summe ihrer Softwarekomponenten. KI-Systeme umfassen auch das sie umgebende soziotechnische System. Bei den Überlegungen zur KI-Governance und -Regulierung sollte der Schwerpunkt daher auch auf den umliegenden sozialen Strukturen liegen: den Organisationen und Unternehmen, den verschiedenen Berufen sowie den Menschen und Institutionen, die KI erzeugen, entwickeln, einsetzen, nutzen und kontrollieren, und den von ihr betroffenen Menschen, etwa den Bürgern in ihren Beziehungen zu den Behörden, Unternehmen, Verbraucher, Arbeitnehmer und sogar der Gesellschaft als Ganzes.

2.8.

Es sollte auch darauf hingewiesen werden, dass sich rechtliche Definitionen (für die Zwecke der Governance und Regulierung) von rein wissenschaftlichen Definitionen unterscheiden‚ da eine Reihe unterschiedlicher Anforderungen erfüllt werden muss, etwa Inklusivität, Präzision, Dauerhaftigkeit, Vollständigkeit und Praktikabilität. Einige sind rechtsverbindliche Anforderungen, und andere gelten als gute Regulierungspraxis.

Bündelung aller Kräfte

2.9.

Der EWSA begrüßt die Bemühungen, etwas gegen die Fragmentierung der KI-Landschaft in Europa zu tun, indem KI-Forscher zusammengebracht werden, wobei der Schwerpunkt auf KMU und Partnerschaften mit dem privaten und dem öffentlichen Sektor liegt. Zusätzlich empfiehlt der EWSA, a) die Multidisziplinarität in der Forschung durch Einbeziehung anderer Disziplinen wie Recht, Ethik, Philosophie, Psychologie, Arbeitswissenschaften, Geisteswissenschaften, Wirtschaft zu fördern, b) relevante Interessenträger (Gewerkschaften, Unternehmensverbände, Verbraucherorganisationen, NRO) in die Debatte über KI, aber auch als gleichberechtigte Partner in von der EU finanzierte Forschungsprojekte und andere Projekte wie die öffentlich-private Partnerschaft für KI, sektorale Dialoge, das Adopt-AI-Programm im öffentlichen Sektor und das Leitzentrum einzubeziehen und c) die breitere Öffentlichkeit über die Chancen und Herausforderungen der KI weiter aufzuklären und zu informieren.

KI und Recht

2.10.

Im Weißbuch wird die Tatsache anerkannt, dass die KI sich nicht in einem rechtsfreien Raum bewegt. Der EWSA begrüßt insbesondere die Betonung der Auswirkungen der KI auf die Grundrechte und empfiehlt der Kommission, die Auswirkungen der KI auf ein breites Spektrum von Grundrechten und -freiheiten wie das Recht auf freie Meinungsäußerung, auf Achtung des Privatlebens (das weit über den Schutz personenbezogener Daten hinausgeht), auf ein faires Verfahren, auf faire und offene Wahlen, auf Versammlungs- und Demonstrationsfreiheit und auf Nichtdiskriminierung eingehender zu prüfen.

2.11.

Der EWSA begrüßt die im Weißbuch zum Ausdruck gebrachte klare Haltung, dass die bestehenden Haftungsregelungen auf KI anzuwenden sind, sowie die Bemühungen, auf diesen Regelungen aufzubauen, wenn es um die neuen Risiken geht, die KI hervorrufen kann, um das Schließen von Lücken bei der Durchsetzung, wenn es schwierig ist, den tatsächlich verantwortlichen Wirtschaftsakteur zu bestimmen, und um die Anpassung der Regelungen an die sich wandelnden Funktionalitäten der KI-Systeme.

2.12.

Die Kommission sollte auch anerkennen, dass KI keine Grenzen kennt. Die Anstrengungen können und sollten nicht auf Europa beschränkt sein. Im Sinne der Schaffung eines gemeinsamen internationalen Rechtsrahmens sollte ein allgemeiner internationaler Konsens erzielt werden, der sich auf Debatten und Forschungsarbeiten von Rechtsexperten stützt.

2.13.

Der EWSA spricht sich in jedem Fall nach wie vor entschieden gegen die Einführung jeglicher Form der Rechtspersönlichkeit für KI aus. Dies würde die präventive Wirkung des Haftungsrechts aushöhlen, ein erhebliches Risiko der Schaffung von Fehlanreizen sowohl bei der Entwicklung als auch bei der Nutzung von KI bergen und Missbrauch ermöglichen.

Regulierung von KI-Anwendungen mit hohem Risiko

2.14.

Der EWSA begrüßt den risikobasierten Ansatz zur Steuerung der Auswirkungen von KI. Die Kommission kündigt einen Rechtsrahmen für „KI-Anwendungen mit hohem Risiko“ an, der die Anforderungen in Bezug auf Robustheit, Genauigkeit, Reproduzierbarkeit, Transparenz, menschliche Aufsicht und Datenverwaltung erfüllen soll. Dem Weißbuch zufolge werden KI-Anwendungen als risikoreich eingestuft, wenn sie die beiden folgenden Kriterien erfüllen: a) es handelt sich um einen Sektor, in dem mit erheblichen Risiken zu rechnen ist, und b) die Nutzung der KI-Anwendung ist mit erheblichen Risiken verbunden. Im Weißbuch werden zwei Beispiele für KI-Anwendungen hinzugefügt, die als von Natur aus risikoreich angesehen werden könnten, d. h. unabhängig vom betreffenden Sektor. Darüber hinaus wird die biometrische Erkennung als Anwendung eingestuft, die von Natur aus mit einem hohen Risiko behaftet ist. Die erschöpfende Liste der Sektoren mit hohem Risiko (die regelmäßig überprüft wird) umfasst derzeit die folgenden potenziell hochriskanten Sektoren: Gesundheitswesen, Verkehr, Energie und Teile des öffentlichen Sektors.

2.15.

Das zweite Kriterium — dass der Einsatz von KI mit Risiken verbunden ist — ist umfassender und legt den Schluss nahe, dass von unterschiedlichen Risikoniveaus ausgegangen werden könnte. Der EWSA schlägt vor, hier auch die Gesellschaft und die Umwelt als betroffene Bereiche hinzuzufügen.

2.16.

Nach der Logik des Weißbuchs wird eine KI-Anwendung mit hohem Risiko‚ die in einem Sektor mit geringem Risiko eingesetzt wird, grundsätzlich nicht dem Rechtsrahmen unterliegen. Der EWSA betont, dass unerwünschte nachteilige Auswirkungen von KI mit hohem Risiko in einem Sektor mit geringem Risiko KI-Anwendungen von der Regulierung ausnehmen und eine Möglichkeit für die Umgehung von Vorschriften bieten könnten: So kann z. B. gezielte Werbung (ein Sektor mit geringem Risiko) nachweislich zu Segregation, Diskriminierung und einer Spaltung der Bevölkerung führen, z. B. bei Wahlen oder durch personalisierte Preisgestaltung (eine Nutzung bzw. Wirkung mit hohem Risiko). Der EWSA empfiehlt, gemeinsame Merkmale von KI-Anwendungen zu formulieren, die unabhängig von dem Sektor, in dem sie eingesetzt werden, als mit einem hohen Risiko behaftet zu betrachten sind.

2.17.

Der EWSA erkennt zwar die Notwendigkeit einer Konformitätsprüfung der KI an, befürchtet jedoch, dass eine einmalige (oder sogar eine regelmäßig wiederholte) vorherige Konformitätsbewertung nicht ausreicht, um eine vertrauenswürdige und auf den Menschen ausgerichtete Entwicklung, Einführung und Nutzung von KI auf nachhaltige Weise zu gewährleisten. Vertrauenswürdige KI erfordert einen kontinuierlichen, systematischen soziotechnischen Ansatz‚ bei dem die Technologie aus allen Blickwinkeln und vor diversen Hintergründen betrachtet wird. Für die Politikgestaltung erfordert dies einen multidisziplinären Ansatz, bei dem politische Entscheidungsträger, Wissenschaftler aus verschiedenen Bereichen, die Sozialpartner, Berufsverbände, Fachleute, Unternehmen und NRO kontinuierlich zusammenarbeiten. Insbesondere in Bezug auf Dienstleistungen von öffentlichem Interesse im Zusammenhang mit Gesundheit, Sicherheit und dem Wohlergehen der Menschen, die auf Vertrauen fußen, muss sichergestellt werden, dass KI-Systeme an praktische Anforderungen angepasst sind und in der Hierarchie der Entscheidungen nicht über der menschlichen Verantwortung stehen können.

Biometrische Erkennung

2.18.

Der EWSA begrüßt die Aufforderung der Kommission, eine öffentliche Debatte über die Nutzung der KI-gestützten biometrischen Erkennung anzustoßen. Die biometrische Erkennung flüchtiger Gesichtsausdrücke, der Gangart, der Stimme bzw. des Tonfalls, der Herzfrequenz, der Körpertemperatur usw. wird bereits eingesetzt, um unser Verhalten, unseren psychischen Zustand und unsere Emotionen — etwa in Einstellungsverfahren — zu bewerten oder gar vorherzusagen. Eines muss ganz deutlich sein: Es gibt keine fundierten wissenschaftlichen Nachweise dafür, dass die Emotionen oder die psychische Verfassung einer Person von ihrem Gesichtsausdruck, ihrem Gang, ihrer Herzfrequenz, ihrem Tonfall bzw. ihrer Stimme oder ihrer Körpertemperatur präzise „abgelesen“ werden können, geschweige denn, dass das künftige Verhalten anhand dieser Daten vorhergesehen werden könnte.

2.19.

Es sei auch darauf hingewiesen, dass die Verarbeitung biometrischer Daten durch die Datenschutz-Grundverordnung nur zu einem gewissen Grad eingeschränkt wird. In der DSGVO werden biometrische Daten definiert als „mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen“. Viele Techniken zur biometrischen Erkennung sind jedoch nicht darauf ausgelegt, eine Person eindeutig zu identifizieren, sondern nur darauf, das Verhalten oder die Emotionen einer Person zu bewerten. Diese Anwendungen fallen möglicherweise nicht unter die Definition biometrischer Daten (Verarbeitung) gemäß DSGVO.

2.20.

Durch die KI-gestützte biometrische Erkennung wird auch unser Recht auf Achtung des Privatlebens, der Identität, der Autonomie und der psychischen Integrität im weiteren Sinne beeinträchtigt, indem eine Situation geschaffen wird, in der wir (ständig) beobachtet, verfolgt und identifiziert werden. Dies könnte psychologisch gesehen eine „abschreckende Wirkung“ haben, d. h. die Menschen könnten sich genötigt fühlen, ihr Verhalten einer bestimmten Norm anzupassen. Dies ist ein Eingriff in unser Grundrecht auf Privatsphäre (moralische und psychische Integrität). Darüber hinaus könnte die KI-gestützte biometrische Erkennung andere Grundrechte und -freiheiten wie die Versammlungsfreiheit und das Recht auf Diskriminierungsfreiheit beeinträchtigen.

2.21.

Der EWSA empfiehlt, die biometrische Erkennung nur dann zu erlauben, wenn die Wirkung wissenschaftlich nachgewiesen ist und die Verwendung in kontrollierten Umgebungen stattfindet sowie strengen Bedingungen unterliegt. Eine weitverbreitete Verwendung KI-gestützter biometrischer Erkennung zur Überwachung oder zur Verfolgung, Bewertung oder Kategorisierung von Menschen oder menschlichem Verhalten bzw. menschlichen Emotionen sollte nicht zulässig sein.

Auswirkungen der KI auf Arbeit und Kompetenzen

2.22.

Der EWSA stellt fest, dass es in dem Weißbuch an einer Strategie für den Umgang mit den Auswirkungen der KI auf die Arbeit mangelt, obwohl dies ein ausdrückliches Element der Europäischen Strategie für künstliche Intelligenz aus dem Jahr 2018 war.

2.23.

Der EWSA plädiert für eine frühzeitige und enge Einbeziehung von Arbeitnehmern und Dienstleistern aller Art, einschließlich Freiberuflern, Selbstständigen und Beschäftigten in der Gig-Economy — nicht nur derjenigen, die KI konzipieren oder entwickeln, sondern auch derjenigen, die KI-Systeme kaufen, umsetzen, mit ihnen arbeiten oder von KI-Systemen betroffen sind. Der soziale Dialog muss stattfinden‚ bevor KI-Technik im Einklang mit den geltenden nationalen Vorschriften und Verfahren am Arbeitsplatz eingeführt wird. Am Arbeitsplatz sollten der Zugriff auf und die Verwaltung von Arbeitnehmerdaten Grundsätzen und Vorschriften entsprechen, die von den Sozialpartnern ausgehandelt wurden.

2.24.

Der EWSA möchte besonders auf KI aufmerksam machen, die bei der Einstellung, Entlassung und Bewertung von Arbeitnehmern und bei Beurteilungsverfahren eingesetzt wird. Im Weißbuch wird KI, die bei der Einstellung von Personal eingesetzt wird, als Beispiel für eine Anwendung mit hohem Risiko genannt, die unabhängig vom Sektor reguliert werden soll. Der EWSA empfiehlt, diesen Anwendungsbereich auf KI auszuweiten, die bei der Entlassung und Bewertung von Arbeitnehmern sowie bei Beurteilungsverfahren eingesetzt wird, aber auch die gemeinsamen Merkmale der KI-Anwendungen zu untersuchen, deren Einsatz am Arbeitsplatz unabhängig vom Sektor als mit einem hohen Risiko behaftet einzustufen wäre. KI-Anwendungen ohne wissenschaftliche Grundlage — wie die Erkennung von Emotionen mittels Biometrie — sollten im Umfeld des Arbeitsplatzes nicht zugelassen werden.

2.25.

Damit sich die Menschen an die rasche Entwicklung im Bereich der KI anpassen können, sind die Pflege bzw. der Erwerb von KI-Kompetenzen erforderlich. Politische Maßnahmen und Finanzmittel müssen jedoch auch auf Bildung und Entwicklung von Kompetenzen in Bereichen ausgerichtet werden, die nicht durch KI-Systeme bedroht werden (z. B. Tätigkeiten, bei denen die menschliche Interaktion im Vordergrund steht, etwa Dienstleistungen von öffentlichem Interesse im Zusammenhang mit Gesundheit, Sicherheit und dem Wohlergehen der Menschen, die auf Vertrauen fußen, sowie Tätigkeiten, bei denen Menschen und Maschinen zusammenarbeiten oder die weiterhin von Menschen ausgeführt werden sollen).

3.   KI und Coronavirus

3.1.

KI kann dazu beitragen, das Coronavirus und Covid-19 besser zu verstehen, Menschen vor einer Exposition zu schützen, einen Impfstoff zu finden und Behandlungsmöglichkeiten zu erkunden. Es muss jedoch nach wie vor offen und klar gesagt werden, was KI leisten kann und was nicht.

3.2.

Robustheit und Wirksamkeit: Datengesteuerte KI zur Vorhersage der Ausbreitung des Coronavirus ist potenziell problematisch, da es zu wenige Daten über das Coronavirus gibt, um zuverlässige Ergebnisse zu erzielen. Darüber hinaus sind die wenigen Daten, die verfügbar sind, unvollständig und nicht repräsentativ. Die Verwendung dieser Daten für maschinelles Lernen könnte zu vielen falsch negativen bzw. falsch positiven Ergebnissen führen.

3.3.

Die Transparenz bezüglich der Daten und der verwendeten Modelle sowie die Erklärbarkeit der Ergebnisse sind von größter Bedeutung. Gerade jetzt kann es sich die Welt nicht leisten, Entscheidungen anhand einer „Black Box“ zu treffen.

3.4.

Wenn KI zur Bekämpfung dieser Pandemie eingesetzt wird, ist die Einhaltung der Menschenrechte, ethischer Grundsätze und geltender Rechtsvorschriften wichtiger denn je zuvor. Insbesondere wenn KI-Werkzeuge potenziell gegen die Menschenrechte verstoßen, muss ein berechtigtes Interesse an ihrer Verwendung bestehen, die unbedingt notwendig, verhältnismäßig und vor allem zeitlich begrenzt sein muss.

3.5.

Schließlich müssen wir für Fairness und Inklusion sorgen. Die KI-Systeme, die zur Bekämpfung der Pandemie entwickelt werden, sollten frei von Voreingenommenheit und nicht diskriminierend sein. Darüber hinaus sollten sie allen zugänglich sein und den gesellschaftlichen und kulturellen Unterschieden der verschiedenen betroffenen Länder Rechnung tragen.

Apps für die Rückverfolgung und Gesundheitsüberwachung

3.6.

Nach Ansicht von Virologen und Epidemiologen erfordert die Öffnung der Gesellschaft und der Wirtschaft eine wirksame Rückverfolgung und Überwachung sowie effiziente Maßnahmen zum Schutz der Gesundheit der Menschen. Derzeit werden viele Apps für die Rückverfolgung und Durchführung von Gesundheitsscreenings entwickelt. Diese Tätigkeiten waren bisher üblicherweise Fachleuten vorbehalten. Weltweit setzen viele Regierungen große Hoffnungen in Rückverfolgungs-Apps, um das öffentliche Leben wieder in Gang zu bringen.

3.7.

Die Einführung solcher Apps ist ein sehr radikaler Schritt. Daher ist es wichtig, den Nutzen, die Notwendigkeit und die Wirksamkeit der Apps sowie ihre gesellschaftlichen und rechtlichen Auswirkungen kritisch zu prüfen, bevor über ihre Verwendung entschieden wird. Man muss nach wie vor die Möglichkeit haben, die Apps nicht zu nutzen, und weniger invasive Lösungen sollten Vorrang erhalten.

3.8.

Die Wirksamkeit und Zuverlässigkeit der Rückverfolgungs-Apps ist äußerst wichtig, da sonst viele falsch positive bzw. falsch negative Ergebnisse oder ein trügerisches Sicherheitsgefühl und somit eine höhere Ansteckungsgefahr drohen. Erste wissenschaftliche Simulationen lassen ernsthafte Zweifel daran aufkommen, ob sich eine Rückverfolgungs-App überhaupt positiv auf die Bekämpfung des Virus auswirken wird, selbst wenn 80 % oder 90 % der Bevölkerung sie nutzen würden. Außerdem kann eine App keine spezifischen Umstände wie das Vorhandensein von Plexiglas und Fenstern oder das Tragen persönlicher Schutzausrüstung registrieren.

3.9.

Darüber hinaus führen diese Apps dazu, dass Menschenrechte und Freiheiten (teilweise) außer Acht gelassen werden, da sie unsere Vereinigungsfreiheit, unser Recht auf Sicherheit, Nichtdiskriminierung und Privatsphäre betreffen.

3.10.

Beim Schutz der Privatsphäre geht es um sehr viel mehr als nur unsere personenbezogenen Daten und Anonymität, die gewiss sehr wichtig sind, nämlich auch um das Recht, nicht registriert, verfolgt und überwacht zu werden. Es wurde wissenschaftlich nachgewiesen, dass Menschen, die wissen, dass ihre Bewegungen verfolgt werden, zunehmend ihr Verhalten ändern. Nach Auffassung des Europäischen Gerichtshofs für Menschenrechte kommt diese „abschreckende Wirkung“ einem Eingriff in unsere Privatsphäre gleich. Das gleiche weit gefasste Konzept des Schutzes der Privatsphäre sollte auch in der Debatte über KI zugrunde gelegt werden.

3.11.

Es besteht die Gefahr, dass die (jetzt oder in Zukunft) erhobenen Daten nicht nur zur Bekämpfung der derzeitigen Pandemie, sondern auch zur Profilerstellung, Kategorisierung und Bewertung von Personen für unterschiedliche Zwecke verwendet werden. In weiter entfernter Zukunft ist es sogar vorstellbar, dass eine schleichende Ausweitung der Zweckbestimmung („function creep“) zu unerwünschten Formen der Profilerstellung in den Bereichen Aufsicht und Überwachung, Versicherungen oder Sozialleistungen, Einstellung oder Entlassung usw. führen könnte. Die mit solchen Apps erhobenen Daten dürfen daher unter keinen Umständen für die Erstellung von Profilen, Risikobewertungen, Klassifizierungen oder Prognosen verwendet werden.

3.12.

Darüber hinaus wird jede KI-Lösung, die unter diesen außergewöhnlichen Umständen und auch mit den besten Absichten eingesetzt wird, zwangsläufig einen Präzedenzfall schaffen. Frühere Krisen haben gezeigt, dass solche Maßnahmen trotz aller guten Absichten in der Praxis nie wieder abgeschafft werden.

3.13.

Der Einsatz von KI während dieser Pandemie sollte daher stets einem Abwägungsprozess unterzogen werden, bei dem z. B. folgende Fragen zu stellen sind: a) Ist die KI-Lösung wirksam und zuverlässig? b) Gibt es weniger invasive Lösungen? c) Überwiegt der Nutzen gegenüber gesellschaftlichen, ethischen und grundrechtlichen Bedenken? d) Kann ein verantwortungsvoller Kompromiss zwischen Grundrechten und Grundfreiheiten erzielt werden, die im Gegensatz zueinander stehen? Darüber hinaus darf es keinerlei Verpflichtung oder Zwang zum Einsatz dieser Systeme geben.

3.14.

Der EWSA fordert die politischen Entscheidungsträger nachdrücklich auf, nicht vorschnell davon auszugehen, dass die Technologie eine Lösung für alles bietet. Angesichts der ernsten Lage empfehlen wir, dass Anwendungen im Zusammenhang mit Projekten, die zur Eindämmung der Pandemie beitragen sollen, auf fundierten Forschungsarbeiten in den Bereichen Epidemiologie, Soziologie, Psychologie, Recht, Ethik und Systemtheorie fußen. Bevor über den Einsatz dieser Systeme entschieden wird, müssen Wirksamkeits-, Erforderlichkeits- und Sensitivitätsanalysen und -simulationen durchgeführt werden.

Brüssel, den 16. Juli 2020

Der Präsident des Europäischen Wirtschafts- und Sozialausschusses

Luca JAHIER