Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses zur Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen — Schaffung von Vertrauen in eine auf den Menschen ausgerichtete künstliche Intelligenz(COM(2019) 168 final)

    EESC 2019/01830

    ABl. C 47 vom 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    DE

    Amtsblatt der Europäischen Union

    C 47/64


    Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses zur Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen — Schaffung von Vertrauen in eine auf den Menschen ausgerichtete künstliche Intelligenz

    (COM(2019) 168 final)

    (2020/C 47/09)

    Berichterstatterin: Franca SALIS-MADINIER

    Befassung

    Europäische Kommission, 3.6.2019

    Rechtsgrundlage

    Artikel 304 des Vertrags über die Arbeitsweise der Europäischen Union

    Zuständige Fachgruppe

    Fachgruppe Binnenmarkt, Produktion, Verbrauch

    Annahme in der Fachgruppe

    18.10.2019

    Verabschiedung auf der Plenartagung

    30.10.2019

    Plenartagung Nr.

    547

    Ergebnis der Abstimmung

    (Ja-Stimmen/Nein-Stimmen/Enthaltungen)

    198/1/4

    1.   Schlussfolgerungen und Empfehlungen

    1.1.

    Künstliche Intelligenz (KI) ist kein Selbstzweck, sondern ein Instrument, das radikale Verbesserungen bewirken, aber auch Risiken bergen kann. Deshalb muss ihre Nutzung geregelt werden.

    1.2.

    Die Kommission sollte Maßnahmen zur Vorhersage, zur Prävention und zum Verbot böswilliger Nutzung der künstlichen Intelligenz und des maschinellen Lernens ergreifen und das Inverkehrbringen von in böswilliger Absicht hergestellten Produkten besser kontrollieren.

    1.3.

    Die EU muss insbesondere die Entwicklung von KI-Systemen fördern, die auf konkrete Anwendungen ausgerichtet sind, mit denen sich die Öko- und Klimaschutzwende beschleunigen lässt.

    1.4.

    Es sollte ermittelt werden, welche Herausforderungen der KI sich mit Hilfe ethischer Verhaltenskodizes, einer Selbstregulierung und freiwilliger, rechtlich nicht bindender Verpflichtungen bewältigen lassen und welche mit regulatorischen und gesetzlichen Maßnahmen in Verbindung mit einer Überwachung und im Falle eines Verstoßes mit Sanktionen angegangen werden müssen. In jedem Fall müssen die KI-Systeme mit den bestehenden Rechtsvorschriften in Einklang stehen.

    1.5.

    KI erfordert einen Ansatz, der technische, aber auch gesellschaftliche und ethische Aspekte umfasst. Der Europäische Wirtschafts- und Sozialausschuss (EWSA) begrüßt die Bereitschaft der EU, einen KI-Ansatz zu schaffen, der auf den Menschen ausgerichtet ist und den Werten entspricht, auf denen die Union gründet: Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit und Nichtdiskriminierung, Rechtsstaatlichkeit und Wahrung der Menschenrechte.

    1.6.

    Der EWSA bekräftigt (1) das Erfordernis, die Arbeitnehmer und ihre Vertreter bei der Einführung von KI-Systemen, die zu Veränderungen der Arbeitsorganisation, -überwachung und -kontrolle sowie der Bewertungs- und Einstellungssysteme für Arbeitnehmer führen können, zu konsultieren und zu unterrichten. Die Kommission muss den sozialen Dialog fördern, um die Arbeitnehmer in die Nutzung von KI-Systemen einzubeziehen.

    1.7.

    Der EWSA betont (2), dass eine vertrauenswürdige KI die Kontrolle des Menschen über die Maschine und die Information der Bürger über die Nutzung der KI erfordert. Die KI-Systeme müssen erklärbar sein oder, wenn dies nicht möglich ist, müssen den Bürgern und Verbrauchern Informationen über ihre Grenzen und Risiken zur Verfügung gestellt werden.

    1.8.

    Die EU muss sich mit den „aufkommenden Risiken“ (3) für Gesundheit und Sicherheit am Arbeitsplatz befassen. Es sollten Standards festgelegt werden, um zu verhindern, dass autonome Systeme dem Menschen Nachteile bringen oder schaden. Die Arbeitnehmer müssen für die Arbeit mit der Maschine geschult werden und sie im Notfall abschalten können.

    1.9.

    Der EWSA plädiert für die Entwicklung eines robusten Zertifizierungssystems auf der Grundlage von Testverfahren, mit denen die Unternehmen die Zuverlässigkeit und Sicherheit ihrer KI-Systeme feststellen können. Transparente, rückverfolgbare und erklärbare algorithmische Entscheidungsprozesse sind eine technische Herausforderung, für deren Bewältigung EU-Instrumente wie das Programm Horizont Europa notwendig sind.

    1.10.

    Der Schutz der Privatsphäre und der Datenschutz sind für das Maß an Vertrauen der Bürger und Verbraucher in die KI ausschlaggebend. Die Fragen, wem die Daten gehören, wer sie kontrolliert und wie die Unternehmen und Organisationen sie nutzen, sind (insbesondere bezüglich des Internets der Dinge) noch weitgehend offen. Der EWSA ersucht die Kommission, die Datenschutz-Grundverordnung (DSGVO) (4) und die damit verbundenen Regelungen im Lichte der technischen Entwicklungen regelmäßig zu überarbeiten.

    1.11.

    Nach Ansicht des EWSA muss unbedingt darüber nachgedacht werden, welchen Beitrag KI-Systeme zur Reduzierung der Treibhausgasemissionen leisten können, insbesondere in der Industrie, im Verkehr, im Energiebereich, im Bauwesen und in der Landwirtschaft. Er fordert nachdrücklich, die Klimawende und den digitalen Wandel zueinander in Beziehung zu setzen.

    1.12.

    Der EWSA hält die Überwachung von KI-Systemen für möglicherweise unzureichend, um die jeweilige Verantwortlichkeit festzulegen und Vertrauen zu schaffen. Seiner Ansicht nach sollten vorrangig klare Regeln definiert werden, laut denen die Haftung im Fall eines Verstoßes bei den entsprechenden Rechtspersönlichkeiten — natürlichen oder juristischen Personen — liegt. Zudem fordert er die Kommission auf, in erster Linie die grundlegende Frage der Versicherbarkeit von KI-Systemen zu prüfen.

    1.13.

    Der EWSA schlägt vor, für die Unternehmen, die die Normen einhalten, ein „europäisches Zertifikat vertrauenswürdiger KI-Unternehmen“ zu entwickeln, das unter anderem auf der von der hochrangigen Expertengruppe für KI vorgeschlagenen Bewertungsliste beruht.

    1.14.

    Durch die Förderung der entsprechenden Arbeiten im Rahmen der G7, der G20 und der bilateralen Dialoge sollte sich die EU darum bemühen, dass die KI über die europäischen Grenzen hinaus geregelt wird. Es muss ein internationales Übereinkommen über eine vertrauenswürdige KI geschaffen werden, das die Entwicklung internationaler Normen und deren regelmäßige Überprüfung ermöglicht.

    2.   Wesentlicher Inhalt des Vorschlags der Kommission

    2.1.

    Die vorliegende Mitteilung stützt sich auf die Arbeiten der von der Kommission im Juni 2018 eingesetzten hochrangigen Expertengruppe. In dieser Mitteilung legt die Kommission sieben Kernanforderungen an eine vertrauenswürdige KI fest, die in Ziffer 4 aufgeführt sind.

    2.2.

    Die Kommission hat eine Pilotphase eingeleitet, in die eine große Palette von Interessenträgern eingebunden ist. Dabei steht insbesondere die Bewertungsliste im Mittelpunkt, die die hochrangige Expertengruppe für die einzelnen Kernanforderungen erstellt hat. Anfang 2020 wird die Expertengruppe die Bewertungsliste überprüfen und aktualisieren und die Kommission gegebenenfalls nächste Schritte vorschlagen.

    2.3.

    Die Kommission will ihr KI-Konzept auf die internationale Ebene heben und wird weiterhin eine aktive Rolle spielen, auch im Rahmen der G7 und der G20.

    3.   Allgemeine Bemerkungen

    3.1.

    Eine auf den Menschen ausgerichtete KI erfordert einen Ansatz, der technische, aber auch gesellschaftliche und ethische Aspekte umfasst. Der EWSA begrüßt die Bereitschaft der EU-Institutionen, einen KI-Ansatz zu schaffen, der den Werten entspricht, auf denen die Union gründet: Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit und Nichtdiskriminierung, Rechtsstaatlichkeit und Wahrung der Menschenrechte. Wie die Kommission betont (5) ist die KI kein Selbstzweck, sondern ein Instrument, das die Dinge radikal zum Besseren verändern kann. Wie jedes Instrument birgt sie gleichzeitig Chancen und Risiken. Deshalb muss die EU ihre Nutzung regeln und die Verantwortlichkeiten klar festlegen.

    3.2.

    Das Vertrauen in eine auf den Menschen ausgerichtete KI entsteht dank des Bekenntnisses zu Werten und Grundsätzen, eines starken Rechtsrahmens und Kernanforderungen umfassender Ethik-Leitlinien.

    3.3.

    Es sollte gemeinsam mit allen Interessenträgern ermittelt werden, welche der zahlreichen Herausforderungen der KI mit regulatorischen oder gesetzlichen Maßnahmen in Verbindung mit regulatorischen Überwachungsmechanismen und im Falle eines Verstoßes mit Sanktionen angegangen werden müssen und welche sich mit Hilfe ethischer Verhaltenskodizes, einer Selbstregulierung und freiwilliger Verpflichtungen bewältigen lassen. Der EWSA begrüßt, dass die Kommission ursprünglich von ihm angesprochene Grundsätze übernommen hat, bedauert jedoch, dass sie zum jetzigen Zeitpunkt keine spezifischen Maßnahmen vorschlägt, um auf legitime Bedenken hinsichtlich Verbraucherrechte, Sicherheit der Systeme und Haftung zu reagieren.

    3.4.

    Die KI-Systeme müssen den bestehenden Rechtsrahmen einhalten, insbesondere hinsichtlich des Schutzes personenbezogener Daten, der Produkthaftung, des Verbraucherschutzes, der Nichtdiskriminierung, der Berufsqualifikationen sowie der Unterrichtung und Anhörung der Arbeitnehmer am Arbeitsplatz. Es gilt sicherzustellen, dass diese Rechtsvorschriften an die neuen Herausforderungen der Digitalisierung und der KI angepasst sind.

    3.5.

    Wie die Kommission feststellt „sollten Verfahren zur Klärung und Bewertung potenzieller Risiken im Zusammenhang mit dem Einsatz von KI-Systemen in verschiedenen Anwendungsbereichen eingerichtet werden“ (6). Der EWSA misst den künftigen Modalitäten dieser Bewertung sowie der Festlegung von Indikatoren, die für diese Bewertung herangezogen werden könnten, größte Bedeutung bei. Der Entwurf der von der hochrangigen Expertengruppe erstellten Bewertungsliste bildet einen Ausgangspunkt für die Umsetzung solcher Verfahren.

    3.6.

    Dies betrifft auch die Frage einer gerechten Verteilung des von den KI-Systemen erwarteten Mehrwerts. Der EWSA ist der Ansicht, dass die positiven Veränderungen, die KI in puncto wirtschaftliche Entwicklung, Nachhaltigkeit der Produktions- und Verbrauchsmuster (insbesondere bei der Energie) und bessere Ressourcennutzung mit sich bringt, allen Ländern und allen Bürger innerhalb der einzelnen Länder zugutekommen müssen.

    4.   Besondere Bemerkungen

    4.1.   Vorrang menschlichen Handelns und menschlicher Aufsicht

    4.1.1.

    Die Kommission will sicherstellen, dass die Nutzung von KI-Systemen in keinem Fall die menschliche Autonomie beeinträchtigen oder sich nachteilig auswirken kann. Wie bereits in seinen früheren Stellungnahmen pflichtet der EWSA diesem Ansatz der Kontrolle des Menschen über die Maschine bei.

    4.1.2.

    Dazu müssen die Bürger auch angemessen über die Nutzung dieser Systeme informiert werden, diese erklärbar sein oder, wenn dies nicht möglich ist (z. B. im Fall von „Deep Learning“), dem Nutzer Informationen über die Grenzen und Risiken des Systems zur Verfügung gestellt werden. In jedem Fall müssen die Bürger immer die Möglichkeit haben, anders zu entscheiden als das KI-System.

    4.1.3.

    In den Unternehmen und öffentlichen Verwaltungen müssen die Arbeitnehmer und ihre Vertreter bei der Einführung von KI-Systemen, die die Arbeitsorganisation sowie die Kontrolle, Überwachung, Bewertung und Einstellung von Arbeitnehmern verändern könnten, gebührend informiert und konsultiert werden. Die Kommission muss den sozialen Dialog fördern, um die Arbeitnehmer in die Nutzung von KI-Systemen einzubeziehen.

    4.1.4.

    Im Bereich der Humanressourcen muss besonderes Augenmerk auf die Gefahren eines Missbrauchs von KI-Systemen, wie die unbegrenzte Überwachung, die Erhebung personenbezogener Daten und von Gesundheitsdaten oder die Weitergabe dieser Daten an Dritte, sowie neu auftretende Gesundheits- und Sicherheitsrisiken am Arbeitsplatz gelegt werden. (7) Es müssen klare Normen aufgestellt werden, um zu vermeiden, dass die Zusammenarbeit zwischen Mensch und Maschine dem Menschen schadet. Die von der Internationalen Organisation für Normung (ISO) erstellte Norm über kollaborative Roboter (8)‚ die sich an Hersteller, Integratoren und Anwender richtet, gibt Leitlinien für die Konzipierung und die Organisation des Arbeitsplatzes sowie die Reduzierung eventueller Risiken für den Menschen vor. Die Arbeitnehmer müssen im Einsatz von und in der Arbeit mit KI und Robotik geschult werden und sie insbesondere im Notfall stoppen können (Notbremsprinzip).

    4.2.   Technische Robustheit und Sicherheit

    4.2.1.

    Der EWSA plädiert für die Einführung europäischer Sicherheitsstandards und die Entwicklung eines robusten Zertifizierungssystems auf der Grundlage von Testverfahren, mit denen die Unternehmen die Zuverlässigkeit ihrer KI-Systeme feststellen könnten. Zudem weist er darauf hin, wie wichtig die Versicherbarkeit von KI-Systemen ist.

    4.2.2.

    Die Kommission geht kaum auf den Aspekt der Vorhersage, der Verhütung und des Verbots böswilliger KI-Nutzung sowie des maschinellen Lernens ein, vor dem zahlreiche Forscher warnen (9). Deren Empfehlungen sollte Rechnung getragen werden, insbesondere denjenigen in Bezug auf die doppelte Nutzung dieser Technologien, die zu einer Beeinträchtigung der digitalen Sicherheit (Zunahme von Cyberangriffen, Ausnutzung der Schwächen von Menschen und KI, „data poisoning“), der physischen Sicherheit (Hackerangriffe auf autonome Systeme, einschließlich autonomer Fahrzeuge, Dronen, automatischer Waffen) oder der politischen Sicherheit (massenhafte Sammlung personenbezogener Daten, gezielte Propaganda, Videomanipulation usw.) führen kann. Forscher, Ingenieure und Behörden müssen eng zusammenarbeiten, um diesen Risiken vorzubeugen; Fachleute und andere Interessenträger wie Nutzer und Verbraucher müssen in die Diskussionen über diese Herausforderungen einbezogen werden.

    4.3.   Privatsphäre und Datenqualitätsmanagement

    4.3.1.

    Die Kommission plädiert dafür, dass der Datenzugang „angemessen geregelt und kontrolliert“ (10) wird. Nach Ansicht des EWSA gilt es, über allgemeine Erklärungen hinauszugehen. Von dem Vertrauen, das die Bürger den KI-Systemen schenken, wird auch die Weiterentwicklung der KI abhängen. Die Fragen, wem die Daten gehören, wer sie kontrolliert und wie die Unternehmen und Organisationen sie nutzen, sind noch weitgehend offen. Die Datenmenge, die von den Autos an die Kfz-Hersteller übermittelt wird, sowie die Art der übertragenen Daten sind durchaus beunruhigend. (11) Trotz des Konzepts des integrierten Datenschutzes (Privacy by design), dem vernetzte Geräte gemäß der DSGVO entsprechen müssen, ist festzustellen, dass die Verbraucher nur über sehr wenige oder gar überhaupt keine diesbezüglichen Informationen verfügen und keinerlei Kontrolle über diese Daten haben. Daher fordert der EWSA die Kommission dringend auf, die DSGVO und die damit verbundenen Regelungen im Lichte der technischen Entwicklungen zu überarbeiten (12).

    4.4.   Transparenz

    4.4.1.

    Für den EWSA ist die verständliche Erklärung der algorithmischen Entscheidungsprozesse eine wesentliche Voraussetzung dafür, zwar nicht die Mechanismen selbst zu verstehen, aber, welche Logik den Entscheidungsprozessen zugrunde liegt und wie diese von den KI-Systemen beeinflusst werden. Die Entwicklung von Standardprüfverfahren für Systeme des maschinellen Lernens ist nach wie vor eine technische Herausforderung und sollte durch EU-Instrumente wie das Programm Horizont Europa unterstützt werden.

    4.4.2.

    Der EWSA pflichtet der Kommission darin bei, dass KI-Systeme als solche erkennbar sein sollten, „damit die Nutzer stets wissen, dass sie es mit einem KI-System zu tun haben“ (13), auch im Rahmen der Beziehung zwischen Patienten und Gesundheitspersonal und der freiberuflichen Dienstleistungen für Gesundheit und Wohlbefinden der Bürger. Zudem dringt er darauf, dass die Nutzer bzw. Verbraucher auch feststellen können müssen, welche Dienstleistungen von Menschen erbracht wurden. Viele KI-Systeme greifen in Wirklichkeit in großem Maße auf menschliche Arbeit zurück, was den Endnutzern häufig verborgen bleibt. (14) Hinter dieser Frage steht das Problem der mangelnden Transparenz gegenüber den Dienstleistungsnutzern und Verbrauchern, aber auch dasjenige einer versteckten und nicht als solche anerkannten Tätigkeit.

    4.4.3.

    Darüber hinaus muss der Verbraucher nach Ansicht des EWSA stets über die Integration von KI-Systemen in die von ihm gekauften Produkte informiert werden sowie jederzeit Zugang zu seinen Daten haben und diese kontrollieren können.

    4.5.   Vielfalt, Nichtdiskriminierung und Fairness

    4.5.1.

    Das Risiko von Diskriminierung besteht vor allem bei bestimmten KI-Anwendungen, die der Erstellung von Profilen der Bürger, Nutzer und Verbraucher dienen (z. B. für die Personaleinstellung, die Vermietung von Immobilien oder bestimmte personenbezogene Dienstleistungen). In der EU gibt es gesetzliche Regelungen über die Gleichbehandlung und Nichtdiskriminierung (15), die bei den KI-Systemen eingehalten werden müssen. Aber diese Rechtsvorschriften müssen auch angepasst und gegebenenfalls verstärkt werden (einschließlich der Überwachung ihrer Einhaltung), um neuen Praktiken Rechnung zu tragen. Es besteht eindeutig die Gefahr, dass die algorithmische Profilerstellung zu einem weiteren wirkungsvollen Instrument der Diskriminierung wird. Dem muss die EU vorbeugen.

    4.5.2.

    In der Richtlinie gegen Rassismus (16) und der Richtlinie über die Gleichbehandlung der Geschlechter außerhalb der Arbeitswelt (17) ist die Schaffung spezieller, für die Förderung der Gleichstellung von Mann und Frau zuständiger Stellen vorgesehen. Der EWSA spricht sich für eine aktive Rolle dieser Stellen bei der Überwachung und Kontrolle der KI-Systeme im Hinblick auf das Risiko unmittelbarer oder mittelbarer Diskriminierung aus.

    4.6.   Gesellschaftliches und ökologisches Wohlergehen

    4.6.1.

    Die Kommission schlägt keine konkreten Schritte dazu vor, wie sich Klimawende und digitaler Wandel, insbesondere bei der Nutzung von KI-Systemen, miteinander verknüpfen lassen. Es muss unbedingt darüber nachgedacht werden, welchen Beitrag KI-Systeme zur Reduzierung der Treibhausgasemissionen leisten können, insbesondere in der Industrie, im Verkehr, im Energiebereich, im Bauwesen und in der Landwirtschaft.

    4.6.2.

    Die Kommission erklärt, dass KI-Systeme zur Verbesserung sozialer Kompetenzen, aber auch zu ihrer Verschlechterung beitragen können. Der EWSA ist der Auffassung, dass die EU das Ausmaß bestimmter gesellschaftlicher Herausforderungen besser verstehen muss. Untersuchungen haben beispielsweise gezeigt, dass bestimmte Anwendungen, die mit KI-Systemen arbeiten, so gestaltet sind, dass die Nutzer von Online-Diensten (soziale Netze, Spiele, Videos usw.) möglichst lange online bleiben, um möglichst viele Daten über ihr Verhalten sammeln zu können. Die dafür eingesetzten Strategien reichen von algorithmischen Empfehlungssystemen über Spiele bis hin zu Erinnerungen und Nachrichten. In einer Studie (18) wurde untersucht, welche Folgen die übermäßig lange online verbrachte Zeit und die Reizüberflutung für Kinder haben. Nachweislich kommt es dadurch zu einem Anstieg von Angst und Aggressivität, Schlafmangel sowie Auswirkungen auf die Bildung, die sozialen Kontakte, die Gesundheit und das Wohlbefinden. Um eine vertrauenswürdige KI zu schaffen, muss die EU solchen Folgen Rechnung tragen und ihnen vorbeugen.

    4.6.3.

    Einer der Faktoren für gesellschaftliches Wohlergehen ist schließlich das Gefühl der Sicherheit am Arbeitsplatz. Die Auswirkungen der Digitalisierung können jedoch zu Unsicherheit und Stress führen. (19) Daher sollten vor eventuellen Umstrukturierungen Strategien für die Antizipation des Wandels und für die Weiterbildung aller Arbeitnehmer vorgesehen werden. Hierfür ist ein hochwertiger sozialer Dialog zwischen Arbeitgebern und Arbeitnehmervertretern in den Unternehmen notwendig, der namentlich die integrative Einführung neuer Technologien, insbesondere der KI und der Robotik, ermöglicht. Um das Vertrauen zwischen der Führungsebene und den Arbeitnehmern zu stärken, müssen die zur Führung, Bewertung und Überwachung der Arbeitnehmer dienenden KI-Systeme erklärbar, ihre Parameter bekannt und ihre Funktionsweise transparent sein.

    4.7.   Rechenschaftspflicht

    4.7.1.

    Die Entscheidungen, die in den Systemen des maschinellen Lernens getroffen werden, sind nicht einfach zu erklären und werden zudem regelmäßig aktualisiert. Der EWSA hält die Überwachung von KI-Systemen für möglicherweise unzureichend, um die jeweilige Verantwortlichkeit festzulegen und Vertrauen zu schaffen. Deshalb sollten seiner Ansicht nach Regeln festgelegt werden, laut denen die Haftung im Fall eines Verstoßes bei den entsprechenden Rechtspersönlichkeiten — natürlichen oder juristischen Personen — liegt. Der EWSA empfiehlt, sich eher auf vertrauenswürdige Unternehmen oder Fachkräfte als auf Algorithmen zu stützen, und schlägt daher vor, für die Unternehmen, die alle Normen einhalten, ein „europäisches Zertifikat vertrauenswürdiger KI-Unternehmen“ zu entwickeln, das unter anderem auf der von der hochrangigen Expertengruppe für KI vorgeschlagenen Bewertungsliste beruht.

    4.7.2.

    In der Produkthaftungsrichtlinie (20) wird das Prinzip der verschuldensunabhängigen Haftung der europäischen Hersteller eingeführt: Erleidet ein Verbraucher aufgrund eines fehlerhaften Produkts einen Schaden, haftet der Hersteller auch dann, wenn kein Verschulden und keine Fahrlässigkeit seinerseits vorliegen. Die Entwicklung, Einführung und zunehmende Nutzung von KI-Systemen erfordert seitens der EU Haftungsregelungen, die an die Situationen angepasst sind, in denen Produkte mit digitalen Inhalten und Verbrauchern angebotene Dienstleistungen sich als gefährlich und schädlich erweisen können. Die Verbraucher müssen im Falle eines durch ein KI-System verursachten Schadens Zugang zur Justiz haben.

    5.   Erfordernis einer Regulierung über Europa hinaus

    5.1.

    In einer globalisierten Welt muss KI über die Grenzen Europas hinaus reguliert werden. Europa sollte innerhalb der G7 und der G20 eine weitreichende Einigung über KI fördern und die bilateralen Dialoge fortsetzen, damit die Mehrheit der Länder an der Normung der KI mitwirken und regelmäßig deren Eignung überprüfen kann.

    Brüssel, den 30. Oktober 2019

    Der Präsident

    des Europäischen Wirtschafts- und Sozialausschusses

    Luca JAHIER


    (1)  ABl. C 440 vom 6.12.2018, S. 1.

    (2)  ABl. C 288 vom 31.8.2017, S. 1; ABl. C 440 vom 6.12.2018, S. 1.

    (3)  https://osha.europa.eu/de/emerging-risks.

    (4)  Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (ABl. L 119 vom 4.5.2016, S. 1).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, S. 5.

    (7)  Siehe insbesondere „OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces“.

    (8)  ISO/TS 15066, 2016.

    (9)  Siehe Bericht „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“, Februar 2018.

    (10)  COM(2019) 168 final, S. 6.

    (11)  „Your car knows when you gain weight“, The New York Times (International Edition), 22.5.2019.

    (12)  ABl. C 190 vom 5.6.2019, S. 17.

    (13)  COM(2019) 168 final, S. 6.

    (14)  Siehe beispielsweise: „A white-collar sweatshop: Google Assistant contractors allege wage theft“, The Guardian, 29.5.2019 und „Bot technology impressive, except when it’s not the bot“, The New York Times (International Edition), 24.5.2019.

    (15)  ABl. L 180 vom 19.7.2000, S. 22; ABl. L 303 vom 2.12.2000, S. 16; ABl. L 373 vom 21.12.2004, S. 37; ABl. L 204 vom 26.7.2006, S. 23.

    (16)  Richtlinie 2000/43/EG des Rates vom 29. Juni 2000 zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft (ABl. L 180 vom 19.7.2000, S. 22).

    (17)  Richtlinie 2004/113/EG des Rates vom 13. Dezember 2004 zur Verwirklichung des Grundsatzes der Gleichbehandlung von Männern und Frauen beim Zugang zu und bei der Versorgung mit Gütern und Dienstleistungen (ABl. L 373 vom 21.12.2004, S. 37).

    (18)  Siehe insbesondere Kidron, Evans, Afia (2018), „Disrupted Childhood — The Cost of Persuasive Design“, 5Rights Foundation.

    (19)  Bericht der hochrangigen Expertengruppe über die Auswirkungen des digitalen Wandels auf den EU-Arbeitsmärkten, 2019.

    (20)  Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte (ABl. L 210 vom 7.8.1985, S. 29).


    Top