Brüssel, den 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Vorschlag für eine

RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES

zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz
(Richtlinie über KI-Haftung)

(Text von Bedeutung für den EWR)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


BEGRÜNDUNG

1.KONTEXT DES VORSCHLAGS

·Gründe und Ziele des Vorschlags

Diese Begründung begleitet den Vorschlag für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (KI). Einer repräsentativen Umfrage aus dem Jahr 2020 1 zufolge zählt die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen. Sie wurde als wichtigstes externes Hindernis (43 %) für Unternehmen genannt, die den Einsatz von KI planen, aber dies bisher nicht getan haben.

In ihren politischen Leitlinien hat Kommissionspräsidentin Ursula von der Leyen ein koordiniertes europäisches Konzept für KI vorgestellt. 2 Im Weißbuch zur KI vom 19. Februar 2020 3 hat sich die Kommission verpflichtet, die Einführung von KI zu fördern und die mit einigen ihrer Anwendungen verbundenen Risiken durch die Förderung von Exzellenz und Vertrauen zu bewältigen. In dem Bericht über die Haftung für KI 4 , der dem Weißbuch beigefügt ist, hat die Kommission die besonderen Herausforderungen aufgezeigt, die KI für die bestehenden Haftungsvorschriften darstellt. In seinen Schlussfolgerungen zur Digitalstrategie vom 9. Juni 2020 begrüßte der Rat die Konsultation zu den politischen Vorschlägen im Weißbuch zur KI und forderte die Kommission auf, konkrete Vorschläge zu unterbreiten. Am 20. Oktober 2020 nahm das Europäische Parlament eine legislative Initiativentschließung gemäß Artikel 225 des Vertrags über die Arbeitsweise der EU (AEUV) an, in der es die Kommission aufforderte, einen Vorschlag für eine Regelung der zivilrechtlichen Haftung für KI auf der Grundlage von Artikel 114 AEUV anzunehmen. 5

Die derzeitigen nationalen Haftungsvorschriften, insbesondere die Vorschriften über die verschuldensabhängige Haftung, sind für die Bearbeitung von Haftungsansprüchen für Schäden, die durch KI-gestützte Produkte und Dienstleistungen verursacht werden, nicht geeignet. Nach diesen Vorschriften müssen die Opfer eine unrechtmäßige Handlung oder Unterlassung einer Person nachweisen, die den Schaden verursacht hat. Die besonderen Merkmale der KI, darunter Komplexität, Autonomie und Undurchsichtigkeit (der sogenannte „Blackbox“-Effekt), können die Ermittlung der haftbaren Person und die Erfüllung der Voraussetzungen für eine erfolgreiche Haftungsklage für die Opfer erschweren oder unerschwinglich machen. Insbesondere bei der Geltendmachung von Schadensersatzansprüchen könnten den Opfern sehr hohe Vorlaufkosten entstehen und die Gerichtsverfahren könnten erheblich länger dauern als in Fällen, in denen keine KI eingesetzt wird. Dies könnte die Opfer davon abhalten, überhaupt Schadensersatzansprüche geltend zu machen. Diese Bedenken hat auch das Europäische Parlament in seiner Entschließung vom 3. Mai 2022 zu künstlicher Intelligenz im digitalen Zeitalter geäußert.  6

Erhebt ein Opfer eine Klage, können die nationalen Gerichte, die mit den besonderen Merkmalen der KI konfrontiert sind, ihre Auslegung der bestehenden Vorschriften ad hoc anpassen, um zu einem gerechten Ergebnis für das Opfer zu gelangen. Dies wird zu Rechtsunsicherheit führen. Den Unternehmen wird es schwerfallen, vorherzusagen, wie die bestehenden Haftungsvorschriften angewandt werden, und somit eigenes Haftungsrisiko zu bewerten und zu versichern. Für grenzüberschreitend tätige Unternehmen werden sich die Auswirkungen noch verstärken, da die Ungewissheit sich auf verschiedene Rechtsordnungen erstrecken wird. Besonders betroffen werden die kleinen und mittleren Unternehmen (KMU) sein, die sich nicht auf internes juristisches Fachwissen oder Kapitalreserven verlassen können.

Die nationalen KI-Strategien zeigen, dass mehrere Mitgliedstaaten Legislativmaßnahmen zur zivilrechtlichen Haftung für KI in Betracht ziehen oder sogar konkret planen. Es ist daher zu erwarten, dass die Mitgliedstaaten ihre nationalen Haftungsvorschriften an die Herausforderungen der KI anpassen werden, wenn die EU nicht tätig wird. Dies wird zu einer weiteren Fragmentierung und zu erhöhten Kosten für EU-weit tätige Unternehmen führen.

In der öffentlichen Konsultation, die der Folgenabschätzung zu diesem Vorschlag zugrunde lag, wurden die oben erläuterten Probleme bestätigt. Aus Sicht der Öffentlichkeit kann der „Blackbox“-Effekt es dem Opfer erschweren, Verschulden und Kausalität nachzuweisen, und es kann Unsicherheit darüber bestehen, wie die Gerichte die bestehenden nationalen Haftungsvorschriften in KI betreffenden Fällen auslegen und anwenden werden. Darüber hinaus zeigte sich die Öffentlichkeit besorgt darüber, wie sich die von einzelnen Mitgliedstaaten eingeleiteten Legislativmaßnahmen zur Anpassung der Haftungsvorschriften und die daraus resultierende Fragmentierung auf die Kosten für Unternehmen, insbesondere KMU, auswirken und die Einführung von KI EU-weit verhindern würden.

Ziel dieses Vorschlags ist es daher, die Einführung vertrauenswürdiger KI zu fördern, um ihre Vorteile für den Binnenmarkt voll auszuschöpfen. Damit soll sichergestellt werden, dass Opfer von durch KI verursachten Schäden den gleichen Schutz erhalten wie Opfer von Schäden, die durch Produkte im Allgemeinen verursacht wurden. Zudem wird die Rechtsunsicherheit von Unternehmen, die KI entwickeln oder nutzen, in Bezug auf ihr mögliches Haftungsrisiko verringert und das Entstehen fragmentierter KI-spezifischer Anpassungen der nationalen Vorschriften über die zivilrechtliche Haftung verhindert.

·Kohärenz mit den bestehenden Vorschriften in diesem Bereich

Dieser Vorschlag ist Teil eines Maßnahmenpakets zur Unterstützung der Einführung von KI in Europa durch die Förderung von Exzellenz und Vertrauen. Dieses Paket umfasst drei sich ergänzende Arbeitsansätze:

einen Legislativvorschlag zur Festlegung horizontaler Vorschriften für Systeme der künstlichen Intelligenz (Gesetz über künstliche Intelligenz), 7  

eine Überarbeitung der sektoralen und horizontalen Produktsicherheitsvorschriften,

EU-Vorschriften zur Regelung von Haftungsfragen im Zusammenhang mit KI-Systemen.

In ihrem Vorschlag für das Gesetz über künstliche Intelligenz hat die Kommission Vorschriften zur Verringerung der Risiken für die Sicherheit und zum Schutz der Grundrechte vorgelegt. Sicherheit und Haftung gehören zusammen: Sie gelten zu unterschiedlichen Zeitpunkten und verstärken sich gegenseitig. Vorschriften zur Gewährleistung der Sicherheit und zum Schutz der Grundrechte verringern zwar die Risiken, beseitigen sie aber nicht vollständig. 8 Und wenn der Risikofall eintritt, kann ein Schaden entstehen. In solchen Fällen gelten die Haftungsvorschriften dieses Vorschlags.

Durch wirksame Haftungsvorschriften wird auch ein wirtschaftlicher Anreiz zur Einhaltung der Sicherheitsvorschriften geschaffen, was wiederum dazu beiträgt, das Auftreten von Schäden zu verhindern. 9 Darüber hinaus trägt dieser Vorschlag zur Durchsetzung der im Gesetz über künstliche Intelligenz festgelegten Anforderungen an Hochrisiko-KI-Systeme bei, da im Falle der Nichteinhaltung dieser Anforderungen ein wichtiger Faktor für die Erleichterung der Beweislast gegeben ist. Dieser Vorschlag steht auch im Einklang mit den vorgeschlagenen allgemeinen 10 und sektoralen Produktsicherheitsvorschriften, die für KI-gestützte Maschinenprodukte 11 und Funkanlagen 12 gelten.

In Bezug auf die Haftung verfolgt die Kommission in ihrer KI-Politik einen ganzheitlichen Ansatz, indem sie sowohl Anpassungen der Herstellerhaftung für fehlerhafte Produkte im Rahmen der Produkthaftungsrichtlinie als auch die gezielte Harmonisierung im Rahmen dieses Vorschlags vorsieht. Diese beiden politischen Initiativen sind eng miteinander verknüpft und bilden ein Paket, da die in ihren Anwendungsbereich fallenden Forderungen verschiedene Arten der Haftung betreffen. Die Produkthaftungsrichtlinie regelt die verschuldensunabhängige Haftung des Herstellers für fehlerhafte Produkte, wodurch bestimmte Arten von Schäden, die hauptsächlich von Einzelpersonen erlitten werden, ersetzt werden können. Dieser Vorschlag deckt nationale Haftungsansprüche ab, die hauptsächlich auf dem Verschulden einer natürlichen oder juristischen Person gründen, um jede Art von Schaden zu ersetzen und jede Art von Opfer zu entschädigen. Die Initiativen ergänzen sich zu einem insgesamt wirksamen zivilrechtlichen Haftungssystem.

Zusammen werden diese Vorschriften das Vertrauen in KI (und andere digitale Technologien) fördern, indem sie sicherstellen, dass die Opfer wirksam entschädigt werden, wenn trotz der vorbeugenden Anforderungen des Gesetzes über künstliche Intelligenz und anderer Sicherheitsvorschriften ein Schaden entsteht.

·Kohärenz mit der Politik der Union in anderen Bereichen

Der Vorschlag steht in Einklang mit der von der Union insgesamt verfolgten Digitalstrategie, indem er dazu beiträgt, Technologie im Dienste der Menschen – eines der drei Hauptziele, die in der Mitteilung zur „Gestaltung der digitalen Zukunft Europas“ genannt werden – zu fördern. 13

In diesem Zusammenhang zielt dieser Vorschlag darauf ab, Vertrauen in die KI aufzubauen und ihre Akzeptanz zu erhöhen. Der Vorschlag ermöglicht Synergien mit dem komplementären [Gesetz über Cyberabwehrfähigkeit] 14 , dessen Ziele ebenfalls darin bestehen, das Vertrauen in Produkte mit digitalen Bestandteilen zu stärken, indem es Angriffsflächen für Cyberangriffe verringert, und Unternehmen sowie Verbraucher besser zu schützen.

Der Vorschlag lässt die Vorschriften des [Gesetzes über digitale Dienste (DSG)] unberührt, die einen umfassenden und vollständig harmonisierten Rahmen für die Sorgfaltspflichten bei algorithmischen Entscheidungen von Online-Plattformen vorsehen, einschließlich der Haftungsbefreiung für Anbieter von Vermittlungsdiensten.

Indem er die Einführung von KI fördert, ist der Vorschlag zudem mit den Initiativen im Rahmen der EU-Datenstrategie 15 verknüpft. Mit dem Vorschlag wird zudem die Position der Union bei der Formulierung weltweiter Normen und Standards sowie der Förderung vertrauenswürdiger KI, die mit den Werten und Interessen der Union in Einklang stehen, gestärkt.

Der Vorschlag steht auch in indirektem Zusammenhang mit dem europäischen Grünen Deal. 16 So sind insbesondere digitale Technologien, einschließlich KI, ein entscheidender Faktor für die Verwirklichung der Nachhaltigkeitsziele des Grünen Deals in vielen unterschiedlichen Sektoren (einschließlich Gesundheitswesen, Verkehr, Umwelt und Landwirtschaft).

·Wichtigste wirtschaftliche, soziale und umweltbezogene Auswirkungen

Die Richtlinie wird zur Einführung von KI beitragen. Die Bedingungen für die Einführung und Entwicklung von KI-Technologien im Binnenmarkt können erheblich verbessert werden, indem eine Fragmentierung verhindert und die Rechtssicherheit durch harmonisierte Maßnahmen auf EU-Ebene – im Gegensatz zu möglichen Anpassungen der Haftungsvorschriften auf nationaler Ebene – erhöht wird. Nach der Wirtschaftsstudie 17 , die der Folgenabschätzung zu diesem Vorschlag zugrunde liegt, hätten gezielte Harmonisierungsmaßnahmen im Bereich der zivilrechtlichen Haftung für KI im Vergleich zum Basisszenario eine positive Auswirkung von 5 bis 7 % auf den Produktionswert des einschlägigen grenzüberschreitenden Handels (vorsichtige Schätzung). Dieser Mehrwert würde insbesondere durch eine geringere Fragmentierung und eine größere Rechtssicherheit in Bezug auf das Haftungsrisiko der Interessenträger entstehen. Dies würde die Kosten der Interessenträger für die rechtliche Information/Vertretung, das interne Risikomanagement und die Einhaltung der Vorschriften senken, die Finanzplanung sowie Risikoabschätzungen für Versicherungszwecke erleichtern und Unternehmen – insbesondere KMU – in die Lage versetzen, grenzüberschreitend neue Märkte zu erschließen. Ausgehend vom Gesamtwert des KI-Marktes in der EU, der von den in dieser Richtlinie behandelten haftungsbezogenen Problemen betroffen ist, wird geschätzt, dass dieser einen zusätzlichen Marktwert zwischen ca. 500 Mio. EUR und ca. 1,1 Mrd. EUR erzielen wird.

Im Hinblick auf die sozialen Auswirkungen wird die Richtlinie das Vertrauen der Gesellschaft in KI-Technologien und den Zugang zu einem wirksamen Rechtssystem stärken. Sie wird zu einer wirksamen, an die Besonderheiten der KI angepassten Regelung der zivilrechtlichen Haftung mit berechtigten Schadensersatzansprüchen beitragen. Die Stärkung des gesellschaftlichen Vertrauens käme auch allen Unternehmen in der KI-Wertschöpfungskette zugute, denn die Stärkung des Vertrauens der Bürgerinnen und Bürger wird zu einer schnelleren Verbreitung von KI beitragen. Aufgrund der Anreizwirkung von Haftungsvorschriften käme die Vermeidung von Haftungslücken indirekt auch allen Bürgerinnen und Bürgern zugute, da der Schutz von Gesundheit und Sicherheit erhöht (Artikel 114 Absatz 3 AEUV) und die Ursachen von Gesundheitsgefahren beseitigt würden (Artikel 168 Absatz 1 AEUV).

Im Hinblick auf die Auswirkungen auf die Umwelt wird erwartet, dass die Richtlinie auch zur Erreichung der damit verbundenen Ziele für nachhaltige Entwicklung (sustainable development goals, im Folgenden „SDG“) und der entsprechenden Zielvorgaben beitragen wird. Die Einführung von KI-Anwendungen bringt Vorteile für die Umwelt mit sich. So tragen KI-Systeme, die zur Verfahrensoptimierung eingesetzt werden, dazu bei, dass Verfahren weniger ressourcenintensiv sind (z. B. durch Verringerung des Düngemittel- und Pestizidbedarfs, Senkung des Wasserverbrauchs bei gleichem Ertrag usw.). Die Richtlinie hätte auch positive Auswirkungen auf die SDG, da mit wirksamen Rechtsvorschriften über Transparenz, Rechenschaftspflicht und Grundrechte das Potenzial der KI zum Nutzen des Einzelnen und der Gesellschaft auf die Verwirklichung der SDG ausgerichtet wird.

2.RECHTSGRUNDLAGE, SUBSIDIARITÄT UND VERHÄLTNISMÄẞIGKEIT

·    Rechtsgrundlage

Rechtsgrundlage für den Vorschlag ist Artikel 114 AEUV, in dem die Annahme von Maßnahmen für die Errichtung und das Funktionieren des Binnenmarktes vorgesehen ist.

Mit diesem Vorschlag sollen Probleme angegangen werden, insbesondere Rechtsunsicherheit und Rechtsfragmentierung, die die Entwicklung des Binnenmarktes behindern und somit erhebliche Hindernisse für den grenzüberschreitenden Handel mit KI-gestützten Produkten und Dienstleistungen darstellen.

Der Vorschlag behandelt die Hindernisse, die sich aus der Unsicherheit der Unternehmen, die KI-gestützte Produkte und Dienstleistungen herstellen, verbreiten und grenzüberschreitend betreiben wollen, ergeben, ob und wie die bestehenden Haftungsregelungen für durch KI verursachte Schäden gelten. Diese Unsicherheit betrifft vor allem die Mitgliedstaaten, in die die Unternehmen ihre Produkte und Dienstleistungen ausführen oder betreiben werden. In einem grenzüberschreitenden Kontext ist auf die außervertragliche Haftung aus unerlaubter Handlung standardmäßig das Recht des Landes anwendbar, in dem der Schaden eintritt. Für diese Unternehmen ist es wichtig, die entsprechenden Haftungsrisiken zu kennen und sich dagegen versichern zu können.

Darüber hinaus gibt es konkrete Anzeichen dafür, dass eine Reihe von Mitgliedstaaten einseitige Legislativmaßnahmen in Erwägung ziehen, um die besonderen Herausforderungen der KI in Bezug auf die Haftung zu bewältigen. So werden Initiativen zur Klärung der Haftungsfrage in den KI-Strategien Tschechiens 18 , Italiens 19 , Maltas 20 , Polens 21 und Portugals 22 erwähnt. Angesichts der großen Unterschiede zwischen den bestehenden Vorschriften der Mitgliedstaaten über die zivilrechtliche Haftung ist es wahrscheinlich, dass jede nationale KI-spezifische Haftungsvorschrift den bestehenden unterschiedlichen nationalen Ansätzen folgen und somit die Fragmentierung verstärken würde.

Daher würden Anpassungen der Haftungsvorschriften auf rein nationaler Basis die Hindernisse für die Einführung von KI-gestützten Produkten und Dienstleistungen im gesamten Binnenmarkt erhöhen und zu einer weiteren Fragmentierung beitragen.

·Subsidiarität

Die Ziele dieses Vorschlags können auf nationaler Ebene nicht angemessen erreicht werden, da die aufkommenden abweichenden nationalen Vorschriften die Rechtsunsicherheit und Fragmentierung erhöhen würden, was wiederum zu Hindernissen für die Einführung von KI-gestützten Produkten und Dienstleistungen im gesamten Binnenmarkt führen würde. Die Rechtsunsicherheit würde sich vor allem auf grenzüberschreitend tätige Unternehmen auswirken, da sie zusätzliche rechtliche Informationen/Vertretungen benötigen, Kosten für das Risikomanagement tragen und auf Einnahmen verzichten müssten. Gleichzeitig würden unterschiedliche nationale Vorschriften über Schadensersatzansprüche für durch KI verursachte Schäden die Geschäftskosten für Unternehmen erhöhen, insbesondere für den grenzüberschreitenden Handel, was erhebliche Binnenmarktschranken zur Folge hätte. Darüber hinaus wirken sich Rechtsunsicherheit und Fragmentierung unverhältnismäßig stark auf Start-ups und KMU aus, die die meisten Unternehmen ausmachen und den größten Teil der Investitionen auf den betreffenden Märkten tätigen.

Ohne EU-weit harmonisierte Vorschriften für die Entschädigung von Schäden, die durch KI-Systeme verursacht werden, wären Anbieter, Betreiber und Nutzer von KI-Systemen einerseits und Geschädigte andererseits mit 27 verschiedenen Haftungsregelungen konfrontiert, was zu unterschiedlichen Schutzniveaus und Wettbewerbsverzerrungen zwischen Unternehmen aus verschiedenen Mitgliedstaaten führen würde.

Harmonisierte Maßnahmen auf EU-Ebene würden die Bedingungen für die Einführung und Entwicklung von KI-Technologien im Binnenmarkt erheblich verbessern, da eine Fragmentierung verhindert und die Rechtssicherheit erhöht würde. Dieser Mehrwert würde insbesondere durch eine geringere Fragmentierung und eine größere Rechtssicherheit in Bezug auf das Haftungsrisiko der Interessenträger entstehen. Darüber hinaus kann nur durch Maßnahmen auf EU-Ebene die gewünschte Wirkung erzielt werden, das Vertrauen der Verbraucher in KI-gestützte Produkte und Dienstleistungen zu fördern, indem Haftungslücken im Zusammenhang mit den besonderen Merkmalen der KI im gesamten Binnenmarkt vermieden werden. Dies würde ein einheitliches (Mindest-)Schutzniveau für alle Opfer (Einzelpersonen und Unternehmen) und kohärente Anreize zur Schadensverhütung und zur Gewährleistung der Rechenschaftspflicht gewährleisten.

·Verhältnismäßigkeit

Der Vorschlag beruht auf einem stufenweisen Ansatz. In der ersten Stufe werden die Ziele mit einem minimalinvasiven Ansatz erreicht; in der zweiten Stufe wird erneut geprüft, ob strengere oder umfangreichere Maßnahmen erforderlich sind.

Die erste Stufe beschränkt sich auf die Maßnahmen zur Beweislast, mit denen die ermittelten KI-spezifischen Probleme angegangen werden sollen. Sie baut auf den derzeit in den nationalen Vorschriften bestehenden materiellen Voraussetzungen für eine Haftung wie Kausalität oder Verschulden auf, legt den Schwerpunkt jedoch auf gezielte beweisbezogene Maßnahmen, mit denen sichergestellt wird, dass die Opfer das gleiche Schutzniveau genießen wie in Fällen, in denen keine KI-Systeme zum Einsatz kommen. Von den verschiedenen Instrumenten, die im nationalen Recht zur Erleichterung der Beweislast zur Verfügung stehen, 23 wird in diesem Vorschlag die widerlegbare Vermutung als das am wenigsten einschneidende Instrument gewählt. Solche Vermutungen sind in den nationalen Haftungsregelungen üblich und sorgen für einen Ausgleich der Interessen von Klägern und Beklagten. Zugleich sollen damit Anreize für die Einhaltung bestehender, auf Unions- oder nationaler Ebene festgelegter Sorgfaltspflichten geschaffen werden. Der Vorschlag bewirkt keine Umkehr der Beweislast, damit Anbieter, Betreiber und Nutzer von KI-Systemen nicht höheren Haftungsrisiken, die Innovationen behindern und die Verbreitung von KI-gestützten Produkten und Dienstleistungen verringern könnten, ausgesetzt werden.

In der im Vorschlag vorgesehenen zweiten Stufe wird sichergestellt, dass bei der Bewertung der Auswirkungen der ersten Stufe in Bezug auf den Schutz der Opfer und die Einführung von KI künftige technologische, regulatorische und juristische Entwicklungen berücksichtigt werden, wenn die Notwendigkeit einer Harmonisierung anderer Elemente der Schadensersatzansprüche oder anderer Instrumente im Zusammenhang mit Haftungsansprüchen erneut geprüft wird, auch für Situationen, in denen eine verschuldensunabhängige Haftung angemessener wäre, wie vom Europäischen Parlament gefordert. Bei einer solchen Bewertung würde wahrscheinlich auch geprüft, ob eine solche Harmonisierung mit einer Pflichtversicherung gekoppelt werden müsste, um die Wirksamkeit zu gewährleisten.

·Wahl des Instruments

Eine Richtlinie ist das am besten geeignete Instrument für diesen Vorschlag, da sie den gewünschten Harmonisierungseffekt und die Rechtssicherheit gewährleistet und gleichzeitig genügend Flexibilität bietet, damit die Mitgliedstaaten die harmonisierten Maßnahmen reibungslos in ihre nationalen Haftungsregelungen einbinden können.

Ein verbindliches Instrument würde Schutzlücken verhindern, die sich aus einer teilweisen oder fehlenden Umsetzung ergeben. Ein nicht verbindliches Instrument wäre zwar weniger einschneidend, dürfte aber die festgestellten Probleme nicht wirksam angehen. Die Umsetzungsrate nicht verbindlicher Instrumente lässt sich nur schwer vorhersagen, und es gibt keine ausreichenden Anhaltspunkte dafür, dass die Überzeugungswirkung einer Empfehlung stark genug wäre, um eine konsequente Anpassung der nationalen Rechtsvorschriften zu bewirken.

Noch unwahrscheinlicher ist dieser Effekt bei Maßnahmen im Bereich des Privatrechts, zu dem auch außervertragliche Haftungsvorschriften gehören. Dieser Bereich ist durch langjährige Rechtstraditionen gekennzeichnet, was die Mitgliedstaaten zögern lässt, eine koordinierte Reform durchzuführen, es sei denn, es besteht die klare Aussicht auf Vorteile für den Binnenmarkt im Rahmen eines verbindlichen EU-Instruments oder die Notwendigkeit, sich an neue Technologien in der digitalen Wirtschaft anzupassen.

Die bestehenden erheblichen Unterschiede zwischen den Haftungsvorschriften der Mitgliedstaaten sind ein weiterer Faktor, der eine einheitliche Umsetzung einer Empfehlung unwahrscheinlich macht.

1.ERGEBNISSE DER EX-POST-BEWERTUNG, DER KONSULTATION DER INTERESSENTRÄGER UND DER FOLGENABSCHÄTZUNG

·Konsultation der Interessenträger

Es wurde eine umfassende Konsultationsstrategie umgesetzt, um eine breite Beteiligung der Interessenträger während des gesamten Politikzyklus dieses Vorschlags zu gewährleisten. Die Konsultationsstrategie umfasste sowohl öffentliche als auch mehrere gezielte Konsultationen (Webinare, bilaterale Gespräche mit Unternehmen und verschiedenen Organisationen).

Nach den ersten Fragen zur Haftung, die Teil der öffentlichen Konsultation zum Weißbuch zur KI und zum Bericht der Kommission über Sicherheit und Haftung waren, wurde vom 18. Oktober 2021 bis zum 10. Januar 2022 eine gezielte öffentliche Online-Konsultation durchgeführt, um die Meinungen einer Vielzahl von Interessenträgern, darunter Verbraucher, Organisationen der Zivilgesellschaft, Industrieverbände, Unternehmen, einschließlich KMU, und Behörden, einzuholen. Nach Auswertung der eingegangenen Antworten veröffentlichte die Kommission auf ihrer Website eine Zusammenfassung der Ergebnisse sowie die einzelnen Antworten. 24

Insgesamt gingen 233 Antworten von Befragten aus 21 Mitgliedstaaten sowie aus Drittländern ein. Die meisten Interessenträger bestätigten die Probleme mit der Beweislast, der Rechtsunsicherheit und der Fragmentierung und sprachen sich für Maßnahmen auf EU-Ebene aus.

EU-Bürgerinnen und -Bürger, Verbraucherverbände und akademische Einrichtungen bestätigten mit überwältigender Mehrheit die Notwendigkeit von EU-Maßnahmen, um die Probleme der Opfer im Zusammenhang mit der Beweislast zu mildern. Die Unternehmen erkannten zwar die negativen Auswirkungen der Unsicherheit bei der Anwendung der Haftungsvorschriften an, waren jedoch vorsichtiger und forderten gezielte Maßnahmen, um Innovationen nicht zu behindern.

Ein ähnliches Bild ergab sich in Bezug auf Optionen. EU-Bürgerinnen und -Bürger, Verbraucherverbände und akademische Einrichtungen sprachen sich nachdrücklich für Maßnahmen in Bezug auf die Beweislast und die Harmonisierung der verschuldensunabhängigen Haftung (bezeichnet als „Gefährdungshaftung“) in Verbindung mit einer Pflichtversicherung aus. Die Unternehmen waren in Bezug auf die Optionen geteilter Meinung, wobei die Unterschiede zum Teil von ihrer Größe abhingen. Eine Gefährdungshaftung wurde von den meisten befragten Unternehmen als unverhältnismäßig erachtet. Die Harmonisierung der Erleichterung der Beweislast fand mehr Unterstützung, insbesondere bei den KMU. Die Unternehmen warnten jedoch vor einer vollständigen Verlagerung der Beweislast.

Daher wurde die bevorzugte Option unter Berücksichtigung der Rückmeldungen der Interessenträger während der gesamten Folgenabschätzung entwickelt und verfeinert, um ein Gleichgewicht zwischen den von allen einschlägigen Gruppen der Interessenträger geäußerten Bedürfnissen und Bedenken herzustellen.

·Einholung und Nutzung von Expertenwissen

Der Vorschlag beruht auf in einem Zeitraum von vier Jahren durchgeführten Analysen und der engen Einbeziehung von Interessenträgern, auch von Hochschulen, Unternehmen, Verbraucherverbänden, Mitgliedstaaten, Bürgerinnen und Bürgern. Die vorbereitenden Arbeiten begannen im Jahr 2018 mit der Einsetzung der Untergruppe für neue Technologien der Expertengruppe für Haftung und neue Technologien. Die Expertengruppe erstellte im November 2019 einen Bericht 25 mit einer Bewertung der Herausforderungen, die einige Merkmale der KI für die nationalen Vorschriften über die zivilrechtliche Haftung darstellen.

Die Beiträge der Expertengruppe in dem Bericht wurden durch drei zusätzliche externe Studien ergänzt:

eine rechtsvergleichende Studie anhand einer rechtsvergleichenden Analyse des europäischen Deliktsrechts, mit Schwerpunkt auf Schlüsselfragen im Zusammenhang mit KI, 26

eine verhaltensökonomische Studie über die Auswirkungen gezielter Anpassungen der Haftungsregelung auf die Entscheidungsfindung der Verbraucher, insbesondere auf ihr Vertrauen und ihre Bereitschaft, KI-gestützte Produkte und Dienstleistungen in Anspruch zu nehmen, 27

eine Wirtschaftsstudie 28 , die mehrere Themen behandelt: die Herausforderungen, denen sich Opfer von KI-Anwendungen im Vergleich zu Opfern von Nicht-KI-Geräten gegenübersehen, wenn sie versuchen, Schadensersatz zu erhalten, die Frage, ob und inwieweit Unternehmen hinsichtlich der Anwendung der geltenden Haftungsvorschriften auf ihre Tätigkeiten im Zusammenhang mit KI unsicher sind, und ob die Auswirkungen der Rechtsunsicherheit Investitionen in KI behindern können, die Frage, ob eine weitere Fragmentierung nationaler Haftungsvorschriften die Wirksamkeit des Binnenmarktes für KI-Anwendungen und -Dienstleistungen beeinträchtigen würde und ob und inwieweit eine Harmonisierung bestimmter Aspekte der nationalen zivilrechtlichen Haftung durch EU-Rechtsvorschriften diese Probleme verringern und die allgemeine Einführung der KI-Technologie durch EU-Unternehmen erleichtern würde.

·Folgenabschätzung

Entsprechend ihrer Strategie für eine bessere Rechtsetzung führte die Kommission eine Folgenabschätzung für diesen Vorschlag durch, die vom Ausschuss für Regulierungskontrolle der Kommission geprüft wurde. Die Sitzung des Ausschusses für Regulierungskontrolle am 6. April 2022 führte zu einer positiven Stellungnahme mit Anmerkungen.

Es wurden drei Optionen bewertet:

Option 1:    drei Maßnahmen zur Erleichterung der Beweislast für Opfer, die ihre Haftungsansprüche nachweisen wollen.

Option 2:    die Maßnahmen im Rahmen von Option 1 + Harmonisierung verschuldensunabhängiger Haftungsvorschriften für KI-Anwendungsfälle mit einem besonderen Risikoprofil, gekoppelt mit einer Pflichtversicherung.

Option 3:    ein stufenweiser Ansatz, bestehend aus:

einer ersten Stufe: den Maßnahmen gemäß Option 1,

einer zweiten Stufe: einem Überprüfungsmechanismus, um insbesondere die Notwendigkeit einer Harmonisierung der verschuldensunabhängigen Haftung für KI-Anwendungsfälle mit einem besonderen Risikoprofil (möglicherweise gekoppelt mit einer Pflichtversicherung) neu zu bewerten.

Die Optionen wurden im Rahmen einer Mehrkriterienanalyse verglichen, wobei ihre Wirksamkeit, Effizienz, Kohärenz und Verhältnismäßigkeit berücksichtigt wurden. Aus den Ergebnissen der Mehrkriterien- und der Sensitivitätsanalyse geht hervor, dass die Option 3, d. h. die Erleichterung der Beweislast für KI-bezogene Ansprüche und eine gezielte Überprüfung der verschuldensunabhängigen Haftung, möglicherweise gekoppelt mit einer Pflichtversicherung, am besten geeignet ist und daher die bevorzugte Option für diesen Vorschlag darstellt.

Mit der bevorzugten Option würde sichergestellt, dass die Opfer von KI-gestützten Produkten und Dienstleistungen (natürliche Personen, Unternehmen und andere öffentliche oder private Einrichtungen) nicht weniger geschützt sind als die Opfer herkömmlicher Technologien. Dadurch würde das Vertrauen in KI gestärkt und ihre Akzeptanz gefördert.

Darüber hinaus würde die Rechtsunsicherheit verringert und eine Fragmentierung verhindert. Dies käme Unternehmen, vor allem KMU, zugute, die das Potenzial des EU-Binnenmarktes durch die grenzüberschreitende Einführung von KI-gestützten Produkten und Dienstleistungen voll ausschöpfen wollen. Die bevorzugte Option schafft auch bessere Bedingungen für Versicherer, um die Deckung von KI-bezogenen Tätigkeiten anzubieten, was für Unternehmen, insbesondere KMU, für das Risikomanagement von entscheidender Bedeutung ist. Schätzungen zufolge würde die bevorzugte Option zu einem Anstieg des KI-Marktwerts in der EU-27 zwischen ca. 500 Mio. EUR und ca. 1,1 Mrd. EUR im Jahr 2025 führen.

·Grundrechte

Mit den Vorschriften über die zivilrechtliche Haftung soll vor allem sichergestellt werden, dass die Opfer Schadensersatz beanspruchen können. Durch die Gewährleistung einer wirksamen Entschädigung tragen diese Vorschriften zum Schutz des Rechts auf einen wirksamen Rechtsbehelf und ein faires Verfahren (Artikel 47 der Charta der Grundrechte der Europäischen Union, im Folgenden „Charta“) bei und bieten gleichzeitig potenziell haftenden Personen einen Anreiz, Schäden zu vermeiden, um ihrer Haftung zu entgehen.

Mit diesem Vorschlag will die Kommission sicherstellen, dass Opfer von Schäden, die durch KI verursacht wurden, im Rahmen der Vorschriften über die zivilrechtliche Haftung ein gleichwertiges Schutzniveau genießen wie Opfer von Schäden, die ohne den Einsatz von KI verursacht wurden. Der Vorschlag wird eine wirksame private Durchsetzung der Grundrechte ermöglichen und das Recht auf einen wirksamen Rechtsbehelf wahren, wenn sich KI-spezifische Risiken verwirklicht haben. Der Vorschlag wird insbesondere dazu beitragen, Grundrechte zu schützen, wie das Recht auf Leben (Artikel 2 der Charta), das Recht auf körperliche und geistige Unversehrtheit (Artikel 3) und das Eigentumsrecht (Artikel 17). Darüber hinaus können die Opfer je nach dem Zivilrechtssystem und den Rechtstraditionen der einzelnen Mitgliedstaaten eine Entschädigung für die Beeinträchtigung anderer Rechtsgüter wie die Verletzung der persönlichen Würde (Artikel 1 und 4 der Charta), des Rechts auf Achtung des Privat- und Familienlebens (Artikel 7), des Rechts der Gleichheit vor dem Gesetz (Artikel 20) und des Grundsatzes der Nichtdiskriminierung (Artikel 21) verlangen.

Darüber hinaus ergänzt dieser Vorschlag andere Bereiche der KI-Politik der Kommission, die auf präventiven regulatorischen und aufsichtsrechtlichen Anforderungen beruhen, die direkt auf die Vermeidung von Grundrechtsverletzungen (wie Diskriminierung) abzielen. Dabei handelt es sich um das Gesetz über künstliche Intelligenz, die Datenschutz-Grundverordnung, das Gesetz über digitale Dienste und die EU-Rechtsvorschriften über Nichtdiskriminierung und Gleichbehandlung. Gleichzeitig schafft oder harmonisiert dieser Vorschlag nicht die Sorgfaltspflichten oder die Haftung verschiedener Einrichtungen, deren Tätigkeit durch diese Rechtsakte geregelt ist, und schafft daher weder neue Haftungsansprüche noch berührt er die Haftungsbefreiungen nach diesen anderen Rechtsakten. Mit dem vorliegenden Vorschlag werden lediglich Erleichterungen der Beweislast für die Opfer von durch KI-Systeme verursachten Schäden bei Ansprüchen eingeführt, die sich auf nationales Recht oder auf diese anderen EU-Rechtsvorschriften stützen können. Durch die Ergänzung dieser anderen Bereiche schützt dieser Vorschlag das Recht des Opfers auf Entschädigung nach dem Privatrecht, einschließlich der Entschädigung für Grundrechtsverletzungen.

4.AUSWIRKUNGEN AUF DEN HAUSHALT

Der Vorschlag wird keine Auswirkungen auf den Haushalt der Europäischen Union haben.

5.WEITERE ANGABEN

·Durchführungspläne sowie Monitoring- und Bewertungsmodalitäten, Überwachungsprogramm und gezielte Überprüfung

In diesem Vorschlag wird ein stufenweiser Ansatz vorgeschlagen. Um sicherzustellen, dass für die gezielte Überprüfung in der zweiten Stufe genügend Beweismaterial zur Verfügung steht, wird die Kommission ein Überwachungsprogramm aufstellen, in dem genau festgelegt ist, wie und in welchen Zeitabständen die Daten und sonstigen erforderlichen Nachweise erfasst werden.

Der Überwachungsmechanismus könnte sich auf die folgenden Arten von Daten und Nachweisen erstrecken:

Berichterstattung und Informationsaustausch durch die Mitgliedstaaten über die Anwendung von Maßnahmen zur Erleichterung der Beweislast in nationalen gerichtlichen oder außergerichtlichen Streitbeilegungsverfahren,

Informationen, die von der Kommission oder den Marktüberwachungsbehörden im Rahmen des Gesetzes über künstliche Intelligenz (insbesondere Artikel 62) oder anderer einschlägiger Instrumente erhoben werden,

Informationen und Analysen zur Unterstützung der Evaluierung des Gesetzes über künstliche Intelligenz und die von der Kommission zu erstellenden Berichte über die Umsetzung dieses Gesetzes,

Informationen und Analysen zur Unterstützung der Evaluierung einschlägiger künftiger politischer Maßnahmen im Rahmen der Sicherheitsvorschriften nach dem „alten Ansatz“, um sicherzustellen, dass die auf dem Unionsmarkt in Verkehr gebrachten Produkte hohen Gesundheits-, Sicherheits- und Umweltanforderungen genügen,

Informationen und Analysen zur Unterstützung des Berichts der Kommission über die Anwendung der Kraftfahrzeughaftpflicht-Richtlinie auf technologische Entwicklungen (insbesondere autonome und halbautonome Fahrzeuge) gemäß Artikel 28c Absatz 2 Buchstabe a der Richtlinie.

·Ausführliche Erläuterung einzelner Bestimmungen des Vorschlags

1. Gegenstand und Anwendungsbereich (Artikel 1)

Ziel dieser Richtlinie ist es, das Funktionieren des Binnenmarktes zu verbessern, indem einheitliche Anforderungen für bestimmte Aspekte der außervertraglichen zivilrechtlichen Haftung für Schäden festgelegt werden, die beim Einsatz von KI-Systemen verursacht wurden. Sie folgt der Entschließung 2020/2014(INL) des Europäischen Parlaments und dient der Anpassung des Privatrechts an die Erfordernisse des Übergangs zur digitalen Wirtschaft.

Die Auswahl an geeigneten Rechtsinstrumenten ist angesichts der Art der Beweislastfrage und der besonderen Merkmale der KI, die eine Herausforderung für die bestehenden Haftungsvorschriften darstellen, begrenzt. In diesem Sinne wird die Richtlinie die Beweislast mithilfe von Offenlegung und widerlegbaren Vermutungen sehr gezielt und verhältnismäßig erleichtern. Sie schafft für diejenigen, die Schadensersatz fordern, eine Möglichkeit, Informationen über Hochrisiko-KI-Systeme zu erhalten, die gemäß dem Gesetz über künstliche Intelligenz aufzuzeichnen/zu dokumentieren sind. Darüber hinaus werden durch die widerlegbaren Vermutungen diejenigen, die Schadensersatz für durch KI-Systeme verursachte Schäden fordern, eine angemessenere Beweislast tragen und eine Chance erhalten, mit berechtigten Haftungsansprüchen erfolgreich zu sein.

Solche Instrumente sind nicht neu; sie sind in den nationalen Rechtssystemen zu finden. Diese nationalen Instrumente stellen daher hilfreiche Anhaltspunkte dafür dar, wie die durch KI aufgeworfenen Fragen in Bezug auf die bestehenden Haftungsvorschriften in einer Weise behandelt werden können, die möglichst wenig in die verschiedenen nationalen Rechtssysteme eingreift.

Darüber hinaus äußerten sich die Unternehmen in den Konsultationen negativ über weitergehende Änderungen wie die Umkehr der Beweislast oder eine unwiderlegbare Vermutung. Gezielte Maßnahmen zur Erleichterung der Beweislast in Form von widerlegbaren Vermutungen wurden als pragmatische und geeignete Mittel gewählt, um den Opfern zu helfen, ihrer Beweispflicht möglichst gezielt und verhältnismäßig nachzukommen.

In Artikel 1 werden der Gegenstand und der Anwendungsbereich dieser Richtlinie festgelegt: Sie gilt für außervertragliche zivilrechtliche Ansprüche auf Ersatz von Schäden, die durch ein KI-System verursacht wurden, wenn solche Ansprüche im Rahmen der Regelungen über die verschuldensabhängige Haftung geltend gemacht werden. Dies bedeutet insbesondere Regelungen, die eine gesetzliche Haftung für Schäden vorsehen, die vorsätzlich oder durch eine fahrlässige Handlung oder Unterlassung verursacht wurden. Die in dieser Richtlinie vorgesehenen Maßnahmen können reibungslos in die bestehenden zivilrechtlichen Haftungssysteme eingefügt werden, da sie einen Ansatz verfolgen, bei dem die Definition grundlegender Begriffe wie „Verschulden“ oder „Schaden“ nicht berührt wird, zumal die Bedeutung dieser Begriffe in den Mitgliedstaaten sehr unterschiedlich ist. Somit lässt diese Richtlinie – abgesehen von den darin aufgestellten Vermutungen – die Unions- oder nationalen Vorschriften, in denen beispielsweise festgelegt ist, welche Partei die Beweislast trägt, welcher Grad an Gewissheit hinsichtlich des Beweismaßes erforderlich ist oder wie ein Verschulden definiert wird, unberührt.

Darüber hinaus wirkt sich diese Richtlinie nicht auf die bestehenden Vorschriften zur Regelung der Haftungsvoraussetzungen im Verkehrssektor und die Vorschriften des Gesetzes über digitale Dienste aus.

Diese Richtlinie gilt zwar nicht für die strafrechtliche Haftung, kann aber für die Haftung des Staates anwendbar sein. Die Behörden des Staates fallen ebenfalls unter den Anwendungsbereich des Gesetzes über künstliche Intelligenz, da sie den darin festgelegten Pflichten unterliegen.

Diese Richtlinie gilt nicht rückwirkend, sondern nur für Schadensersatzansprüche, die ab dem Zeitpunkt ihrer Umsetzung entstehen.

Der Vorschlag für diese Richtlinie wurde zusammen mit dem Vorschlag für eine Überarbeitung der Produkthaftungsrichtlinie 85/374/EWG in einem Paket angenommen, das darauf abzielt, die Haftungsvorschriften an das digitale Zeitalter und die KI anzupassen und die notwendige Angleichung zwischen diesen beiden sich ergänzenden Rechtsinstrumenten sicherzustellen.

2.Begriffsbestimmungen (Artikel 2)

Die Begriffsbestimmungen in Artikel 2 folgen der Kohärenz halber denen des Gesetzes über künstliche Intelligenz.

Gemäß Artikel 2 Nummer 6 Buchstabe b können Schadensersatzansprüche nicht nur von dem Geschädigten, sondern auch von Personen geltend gemacht werden, die in die Rechte des Geschädigten eingetreten sind oder auf die diese Rechte übergegangen sind. Unter Forderungsübergang ist die Übernahme durch einen Dritten (z. B. eine Versicherungsgesellschaft) des Rechts einer anderen Partei auf Einziehung einer Forderung oder eines Schadensersatzes zu verstehen. Somit ist eine Person berechtigt, die Rechte einer anderen zu ihrem eigenen Vorteil geltend zu machen. Der Forderungsübergang gilt auch für die Erben eines verstorbenen Opfers.

Darüber hinaus ist in Artikel 2 Nummer 6 Buchstabe c vorgesehen, dass ein Schadensersatzanspruch auch von einer Person geltend gemacht werden kann, die im Namen eines oder mehrerer Geschädigter nach Maßgabe des Unionsrechts oder des nationalen Rechts handelt. Ziel dieser Bestimmung ist es, Personen, die durch ein KI-System einen Schaden erlitten haben, weitere Möglichkeiten zu geben, ihre Ansprüche gerichtlich prüfen zu lassen, selbst in Fällen, in denen Einzelklagen zu kostspielig oder zu schwerfällig erscheinen oder in denen gemeinsame Klagen einen Größenvorteil mit sich bringen können. Um den Opfern von durch KI-Systeme verursachten Schäden die Möglichkeit zu geben, ihre Rechte im Zusammenhang mit dieser Richtlinie durch Vertretungsklagen geltend zu machen, wird mit Artikel 6 Anhang I der Richtlinie (EU) 2020/1828 geändert.

3.Offenlegung von Beweismitteln (Artikel 3)

Ziel dieser Richtlinie ist es, Personen, die Schadensersatz für von Hochrisiko-KI-Systemen verursachte Schäden verlangen, wirksame Mittel an die Hand zu geben, um potenziell haftende Personen zu ermitteln und einschlägige Beweismittel für einen Anspruch zu erbringen. Gleichzeitig werden damit irrtümlich ermittelte potenzielle Beschuldigte ausgeschlossen, was Zeit und Kosten für die Parteien spart und die Gerichte entlastet.

Diesbezüglich ist in Artikel 3 Absatz 1 der Richtlinie vorgesehen, dass ein Gericht die Offenlegung einschlägiger Beweismittel für bestimmte Hochrisiko-KI-Systeme anordnen kann, die vermutlich einen Schaden verursacht haben. Beweisanträge werden an den Anbieter eines KI-Systems, an eine Person, der die Pflichten des Anbieters nach Artikel 24 oder Artikel 28 Absatz 1 des Gesetzes über künstliche Intelligenz auferlegt wurden, oder an einen Nutzer nach dem Gesetz über künstliche Intelligenz gerichtet. Die Anträge sollten durch Tatsachen und Beweismittel untermauert werden, die die Plausibilität des in Betracht gezogenen Schadensersatzanspruchs belegen, und die angeforderten Beweismittel sollten den Adressaten zur Verfügung stehen. Anträge können nicht an Parteien gerichtet werden, die nach dem Gesetz über künstliche Intelligenz keinen Pflichten unterliegen und daher keinerlei Zugang zu den Beweismitteln haben.

Gemäß Artikel 3 Absatz 2 kann der Kläger die Offenlegung von Beweismitteln von Anbietern oder Nutzern, die keine Beklagten sind, nur dann beantragen, wenn alle verhältnismäßigen Versuche, die Beweismittel vom Beklagten zu erlangen, erfolglos waren.

Um die Wirksamkeit der gerichtlichen Mittel zu gewährleisten, ist in Artikel 3 Absatz 3 der Richtlinie vorgesehen, dass ein Gericht auch die Sicherung dieser Beweismittel anordnen kann.

Wie in Artikel 3 Absatz 4 Unterabsatz 1 vorgesehen, kann das Gericht eine solche Offenlegung nur insoweit anordnen, als dies für die Geltendmachung des Anspruchs erforderlich ist, da die Informationen bei durch KI-Systeme verursachten Schäden entscheidende Beweismittel für den Anspruch des Geschädigten sein könnten.

Durch die Beschränkung der Verpflichtung zur Offenlegung oder Sicherung auf notwendige und verhältnismäßige Beweismittel soll mit Artikel 3 Absatz 4 Unterabsatz 1 die Verhältnismäßigkeit bei der Offenlegung von Beweismitteln gewährleistet werden, d. h. die Offenlegung soll auf das notwendige Mindestmaß beschränkt und pauschale Anträge sollen verhindert werden.

Mit Artikel 3 Absatz 4 Unterabsätze 2 und 3 soll außerdem ein Gleichgewicht zwischen den Rechten des Klägers und der Notwendigkeit hergestellt werden, sicherzustellen, dass die Offenlegung von Geschäftsgeheimnissen oder vertraulichen Informationen dem Schutz der berechtigten Interessen aller Parteien unterliegt.

In diesem Zusammenhang soll mit Artikel 3 Absatz 4 Unterabsatz 4 sichergestellt werden, dass der Person, die von der Anordnung zur Offenlegung oder Sicherung betroffen ist, Rechtsbehelfe gegen die Anordnung zur Verfügung stehen.

Mit Artikel 3 Absatz 5 wird eine Vermutung für die Nichteinhaltung einer Sorgfaltspflicht eingeführt. Hierbei handelt es sich um ein verfahrensrechtliches Instrument, das nur in Fällen Anwendung findet, in denen der eigentliche Beklagte in einem Schadensersatzverfahren die Folgen der Nichtbefolgung einer Aufforderung zur Offenlegung oder Sicherung von Beweismitteln zu tragen hat. Der Beklagte hat das Recht, diese Vermutung zu widerlegen. Die in diesem Absatz vorgesehene Maßnahme zielt darauf ab, die Offenlegung zu fördern, aber auch die Gerichtsverfahren zu beschleunigen.

4.Vermutung des Kausalzusammenhangs im Falle eines Verschuldens (Artikel 4)

In Bezug auf Schäden, die durch KI-Systeme verursacht werden, soll diese Richtlinie eine wirksame Grundlage für die Geltendmachung von Schadensersatzansprüchen im Zusammenhang mit einem Verschulden schaffen, das in der Nichteinhaltung einer Sorgfaltspflicht nach Unionsrecht oder nationalem Recht besteht.

Der Nachweis eines Kausalzusammenhangs zwischen der Nichteinhaltung der Vorschriften und dem vom KI-System hervorgebrachten Ergebnis oder der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, auf das bzw. die der betreffende Schaden zurückzuführen ist, kann für die Kläger schwierig sein. Daher wurde in Artikel 4 Absatz 1 eine gezielte widerlegbare Kausalitätsvermutung für den Kausalzusammenhang festgelegt. Eine solche Vermutung ist die am wenigsten belastende Maßnahme, um der Notwendigkeit einer angemessenen Entschädigung des Opfers gerecht zu werden.

Das Verschulden des Beklagten muss vom Kläger nach den geltenden unionsrechtlichen oder nationalen Vorschriften nachgewiesen werden. Ein solches Verschulden kann z. B. bei der Nichteinhaltung einer Sorgfaltspflicht nach dem Gesetz über künstliche Intelligenz oder nach anderen auf Unionsebene erlassenen Vorschriften festgestellt werden, wie etwa den Vorschriften über die Nutzung automatisierter Überwachungs- und Entscheidungssysteme für die Plattformarbeit oder den Vorschriften über den Betrieb von unbemannten Luftfahrzeugen. Ein solches Verschulden kann vom Gericht auch vermutet werden, wenn einer gerichtlichen Anordnung zur Offenlegung oder Sicherung von Beweismitteln gemäß Artikel 3 Absatz 5 nicht nachgekommen wird. Eine Kausalitätsvermutung ist jedoch nur dann zulässig, wenn es als wahrscheinlich angesehen werden kann, dass das betreffende Verschulden das einschlägige Ergebnis des KI-Systems oder das Fehlen desselben beeinflusst hat, was auf der Grundlage der Gesamtumstände des Falles beurteilt werden kann. Gleichzeitig muss der Kläger nach wie vor beweisen, dass das KI-System (d. h. sein Ergebnis oder das Fehlen eines Ergebnisses) den Schaden verursacht hat.

In den Absätzen 2 und 3 wird unterschieden zwischen Ansprüchen gegen den Anbieter eines Hochrisiko-KI-Systems oder gegen eine Person, die den Verpflichtungen des Anbieters nach dem Gesetz über künstliche Intelligenz unterliegt, einerseits und Ansprüchen gegen den Nutzer solcher Systeme andererseits. In dieser Hinsicht werden die entsprechenden Bestimmungen und Bedingungen des Gesetzes über künstliche Intelligenz befolgt. Bei Ansprüchen, die sich auf Artikel 4 Absatz 2 stützen, muss die Einhaltung der in diesem Absatz aufgeführten Verpflichtungen durch die Beklagten auch im Hinblick auf das Risikomanagementsystem und seine Ergebnisse, d. h. die Risikomanagementmaßnahmen, gemäß dem Gesetz über künstliche Intelligenz beurteilt werden.

Bei Hochrisiko-KI-Systemen, wie sie im Gesetz über künstliche Intelligenz definiert sind, gilt gemäß Artikel 4 Absatz 4 eine Ausnahme von der Kausalitätsvermutung, wenn der Beklagte nachweist, dass dem Kläger ausreichende Beweismittel und Fachkenntnisse zur Verfügung stehen, um den Kausalzusammenhang nachzuweisen. Mit dieser Möglichkeit können die Beklagten dazu angehalten werden, ihren Offenlegungspflichten nachzukommen und die im Gesetz über künstliche Intelligenz festgelegten Maßnahmen zur Gewährleistung eines hohen Maßes an Transparenz der KI oder die Dokumentations- und Aufzeichnungspflichten zu erfüllen.

Bei KI-Systemen, die kein hohes Risiko darstellen, wird in Artikel 4 Absatz 5 eine Bedingung für die Anwendbarkeit der Kausalitätsvermutung aufgestellt; letztere setzt die Feststellung des Gerichts voraus, dass es für den Kläger übermäßig schwierig ist, den Kausalzusammenhang zu beweisen. Diese Schwierigkeiten sind vor dem Hintergrund der Merkmale bestimmter KI-Systeme wie Autonomie und Undurchsichtigkeit zu bewerten, was in der Praxis die Erklärung der inneren Funktionsweise des KI-Systems sehr schwierig macht und die Fähigkeit des Klägers beeinträchtigt, den Kausalzusammenhang zwischen dem Verschulden des Beklagten und dem KI-Ergebnis nachzuweisen.

Nutzt der Beklagte das KI-System im Rahmen einer persönlichen, nicht beruflichen Tätigkeit, so gilt gemäß Artikel 4 Absatz 6 die Kausalitätsvermutung nur dann, wenn der Beklagte die Betriebsbedingungen des Systems der künstlichen Intelligenz wesentlich beeinträchtigt hat oder wenn der Beklagte die Betriebsbedingungen des Systems der künstlichen Intelligenz festlegen musste und dazu in der Lage war, dies aber nicht getan hat. Diese Bedingung ist durch die Notwendigkeit gerechtfertigt, die Interessen der Geschädigten und der nicht beruflichen Nutzer auszugleichen, indem die Fälle, in denen nicht berufliche Nutzer durch ihr Verhalten kein zusätzliches Risiko darstellen, von der Anwendung der Kausalitätsvermutung ausgenommen werden.

Schließlich ist in Artikel 4 Absatz 7 das Recht des Beklagten vorgesehen, die auf Artikel 4 Absatz 1 beruhende Kausalitätsvermutung zu widerlegen.

Der Zusatznutzen derartiger wirksamer Vorschriften über die zivilrechtliche Haftung besteht darin, dass sie allen an Tätigkeiten im Zusammenhang mit KI-Systemen Beteiligten einen zusätzlichen Anreiz geben, ihren Verpflichtungen in Bezug auf das von ihnen erwartete Verhalten nachzukommen.

5.Evaluierung und gezielte Überprüfung (Artikel 5)

In den einzelnen nationalen Rechtsordnungen gibt es unterschiedliche Regelungen für die verschuldensunabhängige Haftung. Elemente für eine solche Regelung auf Unionsebene wurden auch vom Europäischen Parlament in seiner Initiativentschließung vom 20. Oktober 2020 vorgeschlagen, die eine begrenzte verschuldensunabhängige Haftungsregelung für bestimmte KI-gestützte Technologien und eine erleichterte Beweislast im Rahmen der verschuldensabhängigen Haftungsvorschriften vorsieht. Bei den öffentlichen Konsultationen wurde auch deutlich, dass die Befragten (mit Ausnahme der Nicht-KMU) eine solche Regelung bevorzugen, unabhängig davon, ob sie mit einer Pflichtversicherung gekoppelt ist oder nicht.

Dennoch wird in dem Vorschlag den Unterschieden zwischen den nationalen Rechtstraditionen und der Tatsache Rechnung getragen, dass solche KI-gestützte Produkte und Dienstleistungen, die Auswirkungen auf die breite Öffentlichkeit haben und wichtige Rechtsgüter wie das Recht auf Leben, Gesundheit und Eigentum gefährden könnten und daher einer Regelung der verschuldensunabhängigen Haftung unterliegen könnten, noch nicht auf dem Markt erhältlich sind.

Es wird ein Überwachungsprogramm eingerichtet, damit die Kommission Informationen über Vorfälle mit KI-Systemen erhält. Bei der gezielten Überprüfung wird untersucht, ob zusätzliche Maßnahmen, wie die Einführung einer Regelung der verschuldensunabhängigen Haftung und/oder einer Pflichtversicherung, erforderlich sind.

6.Umsetzung (Artikel 7)

Bei der Mitteilung der nationalen Umsetzungsmaßnahmen zur Einhaltung dieser Richtlinie an die Kommission sollten die Mitgliedstaaten auch erläuternde Dokumente vorlegen, die hinreichend klare und präzise Informationen enthalten und für jede Bestimmung dieser Richtlinie die nationale(n) Bestimmung(en) angeben, die deren Umsetzung gewährleisten. Dies ist erforderlich, damit die Kommission für jede Bestimmung der Richtlinie, die umgesetzt werden muss, den entsprechenden Teil der nationalen Umsetzungsmaßnahmen ermitteln kann, der die entsprechende rechtliche Verpflichtung in der nationalen Rechtsordnung begründet, unabhängig von der von den Mitgliedstaaten gewählten Form.



2022/0303 (COD)

Vorschlag für eine

RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES

zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz
(Richtlinie über KI-Haftung)

(Text von Bedeutung für den EWR)

DAS EUROPÄISCHE PARLAMENT UND DER RAT DER EUROPÄISCHEN UNION —

gestützt auf den Vertrag über die Arbeitsweise der Europäischen Union, insbesondere auf Artikel 114,

auf Vorschlag der Europäischen Kommission,

nach Zuleitung des Entwurfs des Gesetzgebungsakts an die nationalen Parlamente,

nach Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses 29 ,

nach Stellungnahme des Ausschusses der Regionen 30 ,

gemäß dem ordentlichen Gesetzgebungsverfahren,

in Erwägung nachstehender Gründe:

(1)Als Künstliche Intelligenz („KI“) werden verschiedene grundlegende Technologien bezeichnet, die im gesamten Spektrum von Wirtschaft und Gesellschaft zu zahlreichen Vorteilen beitragen können. Sie birgt ein großes Potenzial für den technologischen Fortschritt und ermöglicht neue Geschäftsmodelle in vielen Sektoren der digitalen Wirtschaft.

(2)Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und Interessen und Rechte schädigen, die durch das Unionsrecht oder nationales Recht geschützt sind. Beispielsweise kann der Einsatz von KI eine Reihe von Grundrechten beeinträchtigen, darunter das Recht auf Leben, die körperliche Unversehrtheit sowie Rechte hinsichtlich Nichtdiskriminierung und Gleichbehandlung. Die Verordnung (EU).../... des Europäischen Parlaments und des Rates [KI-Gesetz] 31 enthält Anforderungen zur Verringerung von Risiken für die Sicherheit und die Grundrechte; andere Rechtsinstrumente der Union regeln allgemeine 32 und sektorale Produktsicherheitsvorschriften, die auch für KI-gestützte Maschinenprodukte 33 und Funkanlagen 34 gelten. Diese Anforderungen, mit denen Risiken für die Sicherheit und die Grundrechte verringert werden sollen, sollen zwar zur Vorbeugung, Überwachung und Beseitigung von Risiken beitragen und somit gesellschaftlichen Anliegen Rechnung tragen, sie bieten aber keine individuelle Abhilfe für diejenigen, die durch KI Schaden erlitten haben. Die bestehenden Anforderungen sehen insbesondere Genehmigungen, Kontrollen, Überwachung und verwaltungsrechtliche Sanktionen in Bezug auf KI-Systeme vor, um Schäden vorzubeugen; Sie sehen keine Entschädigung des Geschädigten für Schäden vor, die durch ein vom KI-System hervorgebrachtes Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, verursacht wurden.

(3)Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen. Wenn jedoch zwischen der Handlung oder Unterlassung einer Person und dem Schaden KI zum Einsatz kommt, können die besonderen Merkmale bestimmter KI-Systeme, wie z. B. Undurchsichtigkeit, autonomes Verhalten und Komplexität, es dem Geschädigten übermäßig erschweren, wenn nicht sogar unmöglich machen, dieser Beweislast nachzukommen. Es kann insbesondere außerordentlich schwierig sein, nachzuweisen, dass bestimmte Eingabedaten, für die die potenziell haftbare Person verantwortlich ist, ein bestimmtes Ergebnis des KI-Systems verursacht hat, das zu dem in Rede stehenden Schaden geführt hat.

(4)In solchen Fällen kann der durch die nationalen zivilrechtlichen Haftungsvorschriften gewährte Rechtsschutz geringer sein als in Fällen, in denen andere Technologien als KI an der Schadensverursachung beteiligt sind. Solche Entschädigungslücken können zu einer geringeren gesellschaftlichen Akzeptanz von KI und zu einem geringeren Vertrauen in KI-gestützte Produkte und Dienstleistungen beitragen.

(5)Um die wirtschaftlichen und gesellschaftlichen Vorteile von KI zu nutzen und den digitalen Wandel in der Wirtschaft zu fördern, müssen bestimmte nationale zivilrechtliche Haftungsvorschriften gezielt an diese besonderen Merkmale bestimmter KI-Systeme angepasst werden. Diese Anpassungen sollten das Vertrauen der Gesellschaft und der Verbraucher stärken und damit die Einführung von KI fördern. Sie sollten auch das Vertrauen in das Justizsystem wahren, indem sichergestellt wird, dass Opfer von Schäden infolge der Nutzung von KI die gleiche wirksame Entschädigung erhalten wie Opfer, die durch andere Technologien geschädigt wurden.

(6)Betroffene Interessenträger – Geschädigte, potenziell haftende Personen, Versicherer – sehen sich Rechtsunsicherheit in Bezug darauf gegenüber, wie nationale Gerichte die bestehenden Haftungsvorschriften in Einzelfällen anwenden werden, um gerechte Ergebnisse zu erzielen, wenn sie mit den spezifischen Herausforderungen der KI konfrontiert sind. Ohne ein Tätigwerden der Union dürften zumindest einige Mitgliedstaaten ihre zivilrechtlichen Haftungsvorschriften anpassen, um Entschädigungslücken und Rechtsunsicherheit im Zusammenhang mit den spezifischen Merkmalen bestimmter KI-Systeme zu beenden. Dies würde zu einer rechtlichen Fragmentierung und zu Binnenmarkthindernissen für Unternehmen führen, die innovative KI-gestützte Produkte oder Dienstleistungen entwickeln oder anbieten. Kleine und mittlere Unternehmen wären besonders betroffen.

(7)Zweck dieser Richtlinie ist es, einen Beitrag zum reibungslosen Funktionieren des Binnenmarkts zu leisten, indem bestimmte nationale Vorschriften über die außervertragliche verschuldensabhängige Haftung harmonisiert werden, um sicherzustellen, dass Personen, die Ersatz des ihnen durch ein KI-System entstandenen Schadens verlangen, ein Schutzniveau genießen, das demjenigen von Personen entspricht, die Ersatz für Schäden verlangen, die ohne Beteiligung eines KI-Systems verursacht wurden. Dieses Ziel kann von den Mitgliedstaaten nicht ausreichend verwirklicht werden, da das Risiko einseitiger und fragmentierter Regulierungsmaßnahmen auf nationaler Ebene ein einschlägiges Binnenmarkthindernis darstellt. Angesichts des digitalen Charakters der Produkte und Dienstleistungen, die in den Anwendungsbereich dieser Richtlinie fallen, ist dieses Risiko in einem grenzüberschreitenden Kontext besonders relevant.

(8)Das Ziel der Gewährleistung von Rechtssicherheit und der Vermeidung von Entschädigungslücken in Fällen, in denen KI-Systeme beteiligt sind, kann daher besser auf Unionsebene erreicht werden. Die Union kann folglich im Einklang mit dem in Artikel 5 des Vertrags über die Europäische Union (EUV) verankerten Subsidiaritätsprinzip tätig werden. Entsprechend dem in demselben Artikel genannten Grundsatz der Verhältnismäßigkeit geht diese Richtlinie nicht über das für die Verwirklichung dieser Ziele erforderliche Maß hinaus.

(9)Daher ist es erforderlich, spezifische Aspekte der Vorschriften über die verschuldensabhängige Haftung auf Unionsebene gezielt zu harmonisieren. Dadurch sollten die Rechtssicherheit erhöht und gleiche Wettbewerbsbedingungen für KI-Systeme geschaffen werden, wodurch das Funktionieren des Binnenmarkts im Hinblick auf die Herstellung und Verbreitung KI-gestützter Produkte und Dienstleistungen verbessert würde.

(10)Um die Verhältnismäßigkeit zu gewährleisten, sollten nur Vorschriften über die verschuldensabhängige Haftung, die die Beweislast von Personen regeln, die Schadensersatz für durch KI-Systeme verursachte Schäden verlangen, gezielt harmonisiert werden. Mit dieser Richtlinie sollten allgemeine Aspekte der zivilrechtlichen Haftung, die durch nationale zivilrechtliche Haftungsvorschriften unterschiedlich geregelt werden, wie z. B. die Definition von Verschulden oder Kausalität, die verschiedenen Arten von Schäden, die zu Schadensersatzansprüchen führen, die Aufteilung der Haftung auf mehrere Schadensverursacher, Mitverschulden, die Berechnung von Schadensersatz oder Verjährungsfristen, nicht harmonisiert werden.

(11)Die Rechtsvorschriften der Mitgliedstaaten über die Haftung der Hersteller für Schäden, die durch die Fehlerhaftigkeit ihrer Produkte verursacht wurden, sind bereits durch die Richtlinie 85/374/EWG des Rates 35 auf Unionsebene harmonisiert. Diese Rechtsvorschriften berühren jedoch nicht die Vorschriften der Mitgliedstaaten über die vertragliche oder außervertragliche Haftung, wie Gewährleistung, verschuldensabhängige oder verschuldensunabhängige Haftung, die auf andere Gründe als Produktfehler gestützt sind. Während mit der Überarbeitung der Richtlinie 85/374/EWG des Rates klargestellt und sichergestellt werden soll, dass Geschädigte Schadensersatz für Schäden geltend machen können, die durch fehlerhafte KI-gestützte Produkte verursacht wurden, ist daher festzuhalten, dass die Bestimmungen der vorliegenden Richtlinie keine Rechte berühren, die ein Geschädigter aufgrund der nationalen Vorschriften zur Umsetzung der Richtlinie 85/374/EWG haben kann. Darüber hinaus sollte im Verkehrsbereich das Unionsrecht, das die Haftung von Verkehrsunternehmen regelt, von der vorliegenden Richtlinie unberührt bleiben.

(12)[Das Gesetz über digitale Dienste (DSA) 36 ] harmonisiert die für Anbieter von Vermittlungsdiensten im Binnenmarkt geltenden Vorschriften vollständig, indem es die gesellschaftlichen Risiken, die sich aus den von diesen Anbietern angebotenen Diensten ergeben, auch in Bezug auf die von ihnen genutzten KI-Systeme, abdeckt. Die vorliegende Richtlinie berührt nicht die Bestimmungen des [Gesetzes über digitale Dienste (DSA)], mit denen ein umfassender und vollständig harmonisierter Rahmen für die Sorgfaltspflichten der Hostingdiensteanbieter bei algorithmischen Entscheidungen festgelegt wird, einschließlich des Haftungsausschlusses für die Verbreitung illegaler Inhalte, die von Nutzern ihrer Dienste hochgeladen werden, sofern die Bedingungen der genannten Verordnung erfüllt sind.

(13)Abgesehen von den in ihr festgelegten Vermutungen werden mit der vorliegenden Richtlinie nicht die einzelstaatlichen Rechtsvorschriften darüber harmonisiert, welche Partei die Beweislast trägt oder welches Beweismaß erfüllt werden muss. 

(14)Mit der vorliegenden Richtlinie soll ein Mindestharmonisierungsansatz verfolgt werden. Dies ermöglicht es Klägern im Fall eines durch KI-Systeme verursachten Schadens, sich auf günstigere Vorschriften des nationalen Rechts zu berufen. So könnte beispielsweise die Umkehr der Beweislast, die bereits in zahlreichen nationalen verschuldensabhängigen Regelungen oder nationalen Regelungen für die verschuldensunabhängige Haftung vorgesehen ist, beibehalten und möglicherweise auf durch KI-Systeme verursachte Schäden angewandt werden.

(15)Die Kohärenz mit [dem Gesetz über künstliche Intelligenz] sollte ebenfalls gewährleistet werden. Daher sollten in dieser Richtlinie für KI-Systeme, -Anbieter und -Nutzer dieselben Begriffsbestimmungen verwendet werden. Darüber hinaus sollte diese Richtlinie nur Schadensersatzansprüche für Schäden abdecken, die aufgrund des Verschuldens einer Person, z. B. des Anbieters oder des Nutzers, gemäß dem [Gesetz über künstliche Intelligenz] durch ein vom KI-System hervorgebrachtes Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, verursacht wurden. Es ist nicht notwendig, Haftungsansprüche in Fällen abzudecken, in denen der Schaden durch eine Bewertung durch Personen und eine anschließende Handlung oder Unterlassung dieser Personen verursacht wurde, wenn das KI-System nur Informationen oder Entscheidungsgrundlagen zur Verfügung stellte, die von der betreffenden handelnden Person berücksichtigt wurden. Im letzteren Fall ist es möglich, den Schaden auf eine menschliche Handlung oder Unterlassung zurückzuführen, da die Ergebnisse des KI-Systems nicht zwischen der menschlichen Handlung bzw. Unterlassung und dem Schaden steht, sodass die Feststellung der Kausalität nicht schwieriger ist als in Situationen, in denen kein KI-System beteiligt ist.

(16)Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben. Ferner hinaus sieht das [Gesetz über künstliche Intelligenz] zwar spezifische Anforderungen in Bezug auf Dokumentation, Informationen und Protokollierung für Hochrisiko-KI-Systeme vor, räumt dem Geschädigten jedoch kein Recht auf Zugang zu diesen Informationen ein. Es ist daher angezeigt, Vorschriften für die Offenlegung relevanter Beweismittel durch diejenigen, die in ihrem Besitz sind, festzulegen, um die Haftung festzustellen. Damit sollte auch ein zusätzlicher Anreiz geschaffen werden, die einschlägigen Anforderungen des [Gesetzes über künstliche Intelligenz] hinsichtlich der Dokumentation oder Aufzeichnung der entsprechenden Informationen zu erfüllen.

(17)Die große Zahl von Personen, die in der Regel an der Konzeption, der Entwicklung, dem Einsatz und dem Betrieb von Hochrisiko-KI-Systemen beteiligt sind, erschwert es den Geschädigten, die potenziell für den verursachten Schaden haftende Person zu ermitteln und die Voraussetzungen für einen Schadensersatzanspruch nachzuweisen. Damit Geschädigte feststellen können, ob ein Schadensersatzanspruch begründet ist, sollte potenziellen Klägern das Recht eingeräumt werden, die Anordnung der Offenlegung relevanter Beweismittel durch das Gericht zu beantragen, bevor sie einen Schadensersatzanspruch geltend machen. Eine solche Offenlegung sollte nur angeordnet werden, wenn der potenzielle Kläger Tatsachen und Informationen vorlegt, die die Plausibilität des Schadensersatzanspruchs ausreichend belegen, und wenn er zuvor den Anbieter, die Person, die den Pflichten eines Anbieters unterliegt, oder den Nutzer vergeblich aufgefordert hat, die ihnen vorliegenden Beweismittel über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, offenzulegen. Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen. Die Weigerung des Anbieters, der Person, die den Pflichten eines Anbieters unterliegt, oder des Nutzers, Beweismittel offenzulegen, bevor ein Gericht um eine Offenlegungsanordnung ersucht wird, sollte nicht zu der Vermutung führen, dass die Person, die die Offenlegung verweigert, gegen die einschlägigen Sorgfaltspflichten verstößt.

(18)Die Beschränkung der Offenlegung von Beweismitteln in Bezug auf Hochrisiko-KI-Systeme steht im Einklang mit dem [Gesetz über künstliche Intelligenz], das bestimmte spezifische Dokumentations-, Aufzeichnungs- und Informationspflichten für Betreiber vorsieht, die an der Konzeption, Entwicklung und Einführung von Hochrisiko-KI-Systemen beteiligt sind. Diese Kohärenz gewährleistet auch die notwendige Verhältnismäßigkeit, da dadurch vermieden wird, dass Betreiber von KI-Systemen mit geringerem oder keinem Risiko Informationen auf einem Niveau dokumentieren müssen, das dem im [Gesetz über künstliche Intelligenz] für Hochrisiko-KI-Systeme vorgeschriebenen Niveau entspricht.

(19)Die nationalen Gerichte sollten im Rahmen von Zivilverfahren die Offenlegung oder Sicherung relevanter Beweismittel im Zusammenhang mit dem durch Hochrisiko-KI-Systeme verursachten Schaden durch Personen anordnen können, die bereits nach [dem Gesetz über künstliche Intelligenz] verpflichtet sind, Informationen zu dokumentieren oder aufzuzeichnen, unabhängig davon, ob es sich um Anbieter, Personen, die den Pflichten eines Anbieters unterliegen, oder Nutzer eines KI-Systems handelt, und die entweder als Beklagte oder Dritte an der Klage beteiligt sind. Es könnte Situationen geben, in denen sich die für den Fall relevanten Beweismittel im Besitz von Einrichtungen befinden, die nicht Partei der Klage auf Schadensersatz sind, aber gemäß [dem Gesetz über künstliche Intelligenz] verpflichtet sind, solche Beweismittel zu dokumentieren oder aufzuzeichnen. Es ist daher erforderlich, die Voraussetzungen festzulegen, unter denen diesen an der Klage beteiligten Dritten angeordnet werden kann, die relevanten Beweismittel offenzulegen.

(20)Um das Gleichgewicht zwischen den Interessen der an dem Schadensersatzanspruch beteiligten Parteien und der betroffenen Dritten zu wahren, sollten die Gerichte die Offenlegung von Beweismitteln nur dann anordnen, wenn dies zur Stützung des (potenziellen) Schadensersatzanspruchs erforderlich und verhältnismäßig ist. In diesem Zusammenhang sollte die Offenlegung nur Beweismittel betreffen, die für eine Entscheidung über den jeweiligen Schadensersatzanspruch notwendig sind, zum Beispiel nur diejenigen Teile der einschlägigen Aufzeichnungen oder Datensätze, die erforderlich sind, um die Nichteinhaltung einer Anforderung des [Gesetzes über künstliche Intelligenz] nachzuweisen. Um die Verhältnismäßigkeit solcher Offenlegungs- oder Sicherungsmaßnahmen zu gewährleisten, sollten die nationalen Gerichte über wirksame Mittel verfügen, um die berechtigten Interessen aller Parteien zu schützen, beispielsweise hinsichtlich des Schutzes von Geschäftsgeheimnissen im Sinne der Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates 37 und hinsichtlich vertraulicher Informationen in Bezug auf die öffentliche oder nationale Sicherheit. In Bezug auf Geschäftsgeheimnisse oder mutmaßliche Geschäftsgeheimnisse, die das Gericht als vertraulich im Sinne der Richtlinie (EU) 2016/943 eingestuft hat, sollten die nationalen Gerichte befugt sein, spezifische Maßnahmen zu ergreifen, um die Vertraulichkeit von Geschäftsgeheimnissen während und nach dem Verfahren zu gewährleisten und gleichzeitig ein faires und ausgewogenes Verhältnis zwischen dem Interesse des Inhabers des Geschäftsgeheimnisses an der Wahrung der Geheimhaltung und den Interessen des Geschädigten zu erreichen. Dies sollte Maßnahmen umfassen, mit denen der Zugang zu Dokumenten, die Geschäftsgeheimnisse enthalten, sowie der Zugang zu Anhörungen oder Dokumenten sowie Mit- oder Abschriften davon auf eine begrenzte Zahl von Personen beschränkt wird. Bei der Entscheidung über solche Maßnahmen sollten die nationalen Gerichte die Notwendigkeit, das Recht auf einen wirksamen Rechtsbehelf und ein faires Verfahren zu gewährleisten, die legitimen Interessen der Parteien und etwaiger Dritter sowie den möglichen Schaden, der einer der Parteien oder etwaigen Dritten durch die Gewährung oder Ablehnung dieser Maßnahmen entstehen kann, berücksichtigen. Um eine verhältnismäßige Anwendung einer Offenlegungsmaßnahme gegenüber Dritten bei Schadensersatzansprüchen zu gewährleisten, sollten die nationalen Gerichte die Offenlegung durch Dritte nur anordnen, wenn die Beweismittel nicht vom Beklagten erlangt werden können.

(21)Zwar verfügen die nationalen Gerichte über die Mittel, ihre Offenlegungsanordnungen durch verschiedene Maßnahmen durchzusetzen, doch könnten solche Durchsetzungsmaßnahmen Schadensersatzansprüche verzögern und somit möglicherweise zusätzliche Kosten für die Verfahrensbeteiligten verursachen. Für Geschädigte können solche Verzögerungen und zusätzlichen Kosten die Inanspruchnahme eines wirksamen gerichtlichen Rechtsbehelfs erschweren. Daher ist es angemessen, für den Fall, dass ein Beklagter im Zusammenhang mit einem Schadensersatzanspruch ihm vorliegende Beweismittel entgegen einer entsprechenden Anordnung eines Gerichts nicht offenlegt, eine Vermutung eines Verstoßes gegen die Sorgfaltspflichten festzulegen, der mit diesen Beweismitteln nachgewiesen werden sollte. Diese widerlegbare Vermutung wird die Dauer von Rechtsstreitigkeiten verkürzen und effizientere Gerichtsverfahren ermöglichen. Der Beklagte sollte diese Vermutung durch Vorlage gegenteiliger Beweismittel widerlegen können.

(22)Um den Schwierigkeiten entgegenzuwirken, die beim Nachweis entstehen, dass eine bestimmte Eingabe, für die die potenziell haftbare Person verantwortlich ist, ein bestimmtes Ergebnis des KI-Systems verursacht hat, das zu dem in Rede stehenden Schaden geführt hat, sollte unter bestimmten Bedingungen eine Kausalitätsvermutung vorgesehen werden. Zwar hat der Kläger bei einem verschuldensabhängigen Anspruch in der Regel den Schaden, die menschliche Handlung oder Unterlassung, die das Verschulden des Beklagten darstellt, und den Kausalzusammenhang zwischen beiden nachzuweisen; die vorliegende Richtlinie bewirkt jedoch keine Harmonisierung der Bedingungen, unter denen nationale Gerichte ein Verschulden feststellen. Diese Bedingungen unterliegen weiterhin dem geltenden nationalen Recht und, soweit harmonisiert, dem geltenden Unionsrecht. Ebenso wenig bewirkt die vorliegende Richtlinie eine Harmonisierung der Bedingungen in Bezug auf den Schaden – beispielsweise welche Schäden entschädigungspflichtig sind; diese Bedingungen sind ebenfalls durch geltendes nationales Recht und Unionsrecht geregelt. Damit die Kausalitätsvermutung gemäß dieser Richtlinie gilt, sollte das Verschulden des Beklagten in Form einer menschlichen Handlung oder Unterlassung festgestellt werden, die einer Sorgfaltspflicht nach Unionsrecht oder nationalem Recht nicht genügt, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern. Somit kann diese Vermutung beispielsweise bei einem Schadensersatzanspruch aufgrund von Personenschäden gelten, wenn das Gericht feststellt, das ein Verschulden des Beklagten vorliegt, da dieser eine Gebrauchsanweisung, die eine Schädigung natürlicher Personen verhindern soll, nicht eingehalten hat. Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen. Ebenso wäre es notwendig, festzustellen, dass auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat. Zudem sollte der Kläger dennoch nachweisen müssen, dass das Ergebnis oder das Nichthervorbringen eines Ergebnisses zu dem Schaden geführt hat.

(23)Ein solches Verschulden kann festgestellt werden in Bezug auf die Nichteinhaltung von Unionsvorschriften, die speziell Hochrisiko-KI-Systeme regeln, etwa die Anforderungen, die durch das [Gesetz über künstliche Intelligenz] für bestimmte Hochrisiko-KI-Systeme eingeführt wurden, Anforderungen, die möglicherweise durch künftige sektorspezifische Rechtsvorschriften für andere Hochrisiko-KI-Systeme gemäß [Artikel 2 Absatz 2 des Gesetzes über künstliche Intelligenz] eingeführt werden, oder Sorgfaltspflichten, die mit bestimmten Tätigkeiten verbunden sind und unabhängig davon gelten, ob KI für die betreffende Tätigkeit verwendet wird. Gleichzeitig werden durch die vorliegende Richtlinie die Anforderungen oder die Haftung von Unternehmen, deren Tätigkeit durch die betreffenden Rechtsakte geregelt ist, weder geschaffen noch harmonisiert und somit keine neuen Haftungsansprüche begründet. Die Feststellung der Nichteinhaltung einer solchen Anforderung, die ein Verschulden darstellt, erfolgt gemäß den Bestimmungen der betreffenden geltenden Vorschriften des Unionsrechts, da mit der vorliegenden Richtlinie weder neue Anforderungen eingeführt noch bestehende Anforderungen berührt werden. Beispielsweise werden der Haftungsausschluss für Anbieter von Vermittlungsdiensten und die Sorgfaltspflichten, denen sie nach dem [Gesetz über digitale Dienste] unterliegen, von dieser Richtlinie nicht berührt. Ebenso ist die Einhaltung der Anforderungen, die Online-Plattformen auferlegt werden, um eine unbefugte öffentliche Wiedergabe urheberrechtlich geschützter Werke zu verhindern, gemäß der Richtlinie (EU) 2019/790 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und anderen einschlägigen Urheberrechtsvorschriften der Union festzustellen. 

(24)In Bereichen, die nicht durch das Unionsrecht harmonisiert sind, gelten weiterhin nationale Rechtsvorschriften, und ein Verschulden wird nach dem geltenden nationalen Recht festgestellt. Alle nationalen Haftungsregelungen umfassen Sorgfaltspflichten, wobei als Verhaltensmaßstab unterschiedliche Ausprägungen des Grundsatzes, wie eine vernünftige Person handeln sollte, gelten; diese gewährleisten auch den sicheren Betrieb von KI-Systemen, um eine Schädigung anerkannter Rechtsgüter zu verhindern. Im Rahmen solcher Sorgfaltspflichten könnten beispielsweise Nutzer von KI-Systemen verpflichtet werden, für bestimmte Aufgaben ein bestimmtes KI-System mit konkreten Merkmalen zu wählen oder bestimmte Bevölkerungsgruppen von der Exposition gegenüber einem bestimmten KI-System auszuschließen. Im nationalen Recht können zudem spezifische Verpflichtungen zur Vermeidung von Risiken für bestimmte Tätigkeiten eingeführt werden, die unabhängig davon gelten, ob KI für die betreffende Tätigkeit verwendet wird, beispielsweise Verkehrsvorschriften oder speziell für KI-Systeme konzipierte Verpflichtungen, etwa zusätzliche nationale Anforderungen an Nutzer von Hochrisiko-KI-Systemen gemäß Artikel 29 Absatz 2 des [Gesetzes über künstliche Intelligenz]. Mit der vorliegenden Richtlinie werden weder solche Anforderungen eingeführt noch die Bedingungen für die Feststellung eines Verschuldens im Falle der Nichteinhaltung solcher Anforderungen berührt.

(25)Selbst wenn ein Verschulden festgestellt wird, das in einem Verstoß gegen eine Sorgfaltspflicht besteht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern, sollte nicht jedes Verschulden zur Geltung der widerlegbaren Vermutung führen, die mit dem Ergebnis der KI verknüpft ist. Eine solche Vermutung sollte nur dann gelten, wenn aufgrund der Umstände, unter denen der Schaden eingetreten ist, nach vernünftigem Ermessen davon ausgegangen werden kann, dass ein solches Verschulden das vom KI-System hervorgebrachte Ergebnis oder das Nichthervorbringen eines Ergebnisses beeinflusst und zu dem Schaden geführt hat. Es kann beispielsweise nach vernünftigem Ermessen davon ausgegangen werden, dass das Verschulden das Hervorbringen oder Nichthervorbringen eines Ergebnisses beeinflusst hat, wenn dieses Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist. Im Gegensatz dazu kann bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte, nach vernünftigem Ermessen nicht davon ausgegangen werden, dass er das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat.

(26)Diese Richtlinie deckt das Verschulden ab, das die Nichteinhaltung bestimmter in den Kapiteln 2 und 3 des [Gesetzes über künstliche Intelligenz] festgelegter Anforderungen für Anbieter und Nutzer von Hochrisiko-KI-Systemen darstellt, die unter bestimmten Bedingungen zu einer Kausalitätsvermutung führen kann. Das Gesetz über künstliche Intelligenz sieht eine vollständige Harmonisierung der Anforderungen an KI-Systeme vor, sofern darin nicht ausdrücklich etwas anderes festgelegt ist. Mit dem genannten Gesetz werden die spezifischen Anforderungen an Hochrisiko-KI-Systeme harmonisiert. Daher wird für die Zwecke von Schadensersatzansprüchen, bei denen eine Kausalitätsvermutung gemäß der vorliegenden Richtlinie gilt, das potenzielle Verschulden von Anbietern oder Personen, die den Verpflichtungen eines Anbieters nach [dem Gesetz über künstliche Intelligenz] unterliegen, nur durch die Nichteinhaltung solcher Anforderungen festgestellt. Da es in der Praxis für den Kläger schwierig sein kann, eine solche Nichteinhaltung nachzuweisen, wenn der Beklagte ein Anbieter des KI-Systems ist, sollte die vorliegende Richtlinie im Einklang mit der Logik des [Gesetzes über künstliche Intelligenz] zudem vorsehen, dass die vom Anbieter im Rahmen des Risikomanagementsystems unternommenen Schritte und die Ergebnisse des Risikomanagementsystems, also die Entscheidung, bestimmte Risikomanagementmaßnahmen zu ergreifen oder nicht, bei der Ermittlung, ob der Anbieter die in dieser Richtlinie genannten einschlägigen Anforderungen des Gesetzes über künstliche Intelligenz eingehalten hat, berücksichtigt werden sollten. Das vom Anbieter gemäß [dem Gesetz über künstliche Intelligenz] eingerichtete Risikomanagementsystem ist ein kontinuierlicher iterativer Prozess während des gesamten Lebenszyklus des Hochrisiko-KI-Systems, mit dem der Anbieter die Einhaltung der verbindlichen Anforderungen zur Risikominderung sicherstellt und der daher ein nützliches Element für die Beurteilung dieser Einhaltung sein kann. Des Weiteren deck die vorliegende Richtlinie Fälle von Nutzerverschulden ab, wenn das betreffende Verschulden in der Nichteinhaltung bestimmter spezifischer Anforderungen des [Gesetzes über künstliche Intelligenz] besteht. Darüber hinaus kann das Verschulden der Nutzer von Hochrisiko-KI-Systemen vor dem Hintergrund des Artikels 29 Absatz 2 [des Gesetzes über künstliche Intelligenz] festgestellt werden, wenn gegen andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten verstoßen wurde.

(27)Zwar könnten die besonderen Merkmale bestimmter KI-Systeme wie Autonomie und Undurchsichtigkeit es dem Kläger übermäßig erschweren, die Beweislast zu erfüllen, doch könnte es Situationen geben, in denen solche Schwierigkeiten nicht bestehen, da dem Beschwerdeführer möglicherweise ausreichende Beweismittel und Fachkenntnisse zur Verfügung stehen, um den ursächlichen Zusammenhang nachzuweisen. Dies könnte beispielsweise bei Hochrisiko-KI-Systemen der Fall sein, bei denen der Kläger aufgrund von Dokumentations- und Protokollierungsanforderungen gemäß [dem Gesetz über künstliche Intelligenz] zu vertretbaren Bedingungen auf ausreichende Beweismittel und Fachkenntnisse zugreifen konnte. In solchen Fällen sollte das Gericht die Vermutung nicht anwenden.

(28)Die Kausalitätsvermutung könnte auch für KI-Systeme gelten, bei denen es sich nicht um Hochrisiko-KI-Systeme handelt, da für den Kläger übermäßige Beweisschwierigkeiten auftreten könnten. Solche Schwierigkeiten könnten beispielsweise im Lichte der Merkmale bestimmter KI-Systeme wie Autonomie und Undurchsichtigkeit bewertet werden, die die Erläuterung der inneren Funktionsweise des KI-Systems in der Praxis sehr schwierig machen, was sich negativ auf die Fähigkeit des Klägers auswirkt, den ursächlichen Zusammenhang zwischen dem Verschulden des Beklagten und dem KI-Ergebnis nachzuweisen. Ein nationales Gericht sollte die Vermutung anwenden, wenn es für den Kläger übermäßig schwierig ist, die Kausalität nachzuweisen, da er verpflichtet ist, zu erläutern, wie das KI-System durch die schuldhafte menschliche Handlung oder Unterlassung dazu gebracht wurde, das zu dem Schaden führende Ergebnis hervorzubringen oder ein Ergebnis nicht hervorzubringen, was zu besagtem Schaden geführt hat. Der Kläger sollte jedoch weder dazu verpflichtet werden, die Merkmale des betreffenden KI-Systems zu erläutern, noch darzulegen, inwiefern diese Merkmale die Feststellung des ursächlichen Zusammenhangs erschweren.

(29)Die Geltung der Kausalitätsvermutung soll dem Geschädigten ein ähnliches Schutzniveau gewährleisten wie in Fällen, in denen KI nicht betroffen und die Kausalität daher leichter nachzuweisen ist. Dennoch ist es nach dieser Richtlinie nicht immer angemessen, die Beweislast für die Kausalität zu verringern, wenn es sich bei dem Beklagten nicht um einen gewerblichen Nutzer handelt, sondern um eine Person, die das KI-System für ihre privaten Tätigkeiten nutzt. Unter solchen Umständen muss zum Ausgleich der Interessen zwischen dem Geschädigten und dem nichtgewerblichen Nutzer berücksichtigt werden, ob solche nichtgewerblichen Nutzer das Risiko erhöhen können, dass ein KI-System aufgrund ihres Verhaltens Schaden verursacht. Wenn der Anbieter eines KI-Systems allen seinen Verpflichtungen nachgekommen ist und das betreffende System folglich für eine bestimmte Verwendung durch nichtgewerbliche Nutzer als ausreichend sicher angesehen wurde, und es dann für diese Aufgabe genutzt wird, sollte für die bloße Inbetriebnahme eines solchen Systems durch solche nichtgewerblichen Nutzer keine Kausalitätsvermutung gelten. Ein nichtgewerblicher Nutzer, der ein KI-System kauft und es lediglich entsprechend seinem Zweck in Betrieb nimmt, ohne die Betriebsbedingungen wesentlich zu verändern, sollte nicht unter die in dieser Richtlinie festgelegte Kausalitätsvermutung fallen. Stellt ein nationales Gericht jedoch fest, dass ein nichtgewerblicher Nutzer die Bedingungen für den Betrieb eines KI-Systems wesentlich verändert hat oder dazu verpflichtet und in der Lage war, die Bedingungen für den Betrieb des KI-Systems festzulegen, und dies nicht getan hat, so sollte die Kausalitätsvermutung gelten, wenn alle anderen Voraussetzungen erfüllt sind. Dies könnte beispielsweise der Fall sein, wenn der betreffende nichtgewerbliche Nutzer bei der Wahl des Einsatzgebiets oder bei der Festlegung der Leistungsbedingungen des KI-Systems die Gebrauchsanweisung oder andere geltende Sorgfaltspflichten nicht einhält. Dies gilt unbeschadet der Tatsache, dass der Anbieter die Zweckbestimmung eines KI-Systems, einschließlich des spezifischen Kontexts und der Nutzungsbedingungen, festlegen und die Risiken dieses Systems zum Zeitpunkt der Konzeption und Entwicklung gegebenenfalls ausschließen oder minimieren und dabei die Kenntnisse und das Fachwissen des vorgesehenen Nutzers berücksichtigen sollte.

(30)Da mit dieser Richtlinie eine widerlegbare Vermutung eingeführt wird, sollte der Beklagte diese widerlegen können, insbesondere indem er darlegt, dass sein Verschulden den Schaden nicht hätte verursachen können.

(31)Es ist erforderlich, eine Überprüfung dieser Richtlinie [fünf Jahre] nach Ablauf der Umsetzungsfrist vorzusehen. Bei dieser Überprüfung sollte insbesondere untersucht werden, ob es notwendig ist, Regeln für die verschuldensunabhängige Haftung für Ansprüche gegen den Betreiber – solange diese nicht bereits durch andere Haftungsvorschriften der Union, insbesondere die Richtlinie 85/374/EWG, abgedeckt sind – in Verbindung mit einer obligatorischen Versicherung für den Betrieb bestimmter KI-Systeme festzulegen, wie vom Europäischen Parlament vorgeschlagen 38 . Im Einklang mit dem Grundsatz der Verhältnismäßigkeit ist es angezeigt, eine solche Notwendigkeit vor dem Hintergrund einschlägiger technologischer und regulatorischer Entwicklungen in den kommenden Jahren zu bewerten und dabei die Auswirkungen auf die Einführung und den Einsatz von KI-Systemen, insbesondere für KMU, zu berücksichtigen. Bei einer solchen Überprüfung sollten unter anderem Risiken berücksichtigt werden, die mit der Schädigung wichtiger rechtlicher Werte wie Leben, Gesundheit und Eigentum unwissender Dritter durch den Betrieb KI-gestützter Produkte oder Dienstleistungen verbunden sind. Ferner sollten bei dieser Überprüfung die Wirksamkeit der in dieser Richtlinie vorgesehenen Maßnahmen zur Bewältigung solcher Risiken sowie die Entwicklung geeigneter Lösungen durch den Versicherungsmarkt analysiert werden. Um sicherzustellen, dass die für eine solche Überprüfung erforderlichen Informationen zur Verfügung stehen, müssen Daten und andere erforderliche Nachweise zu den einschlägigen Fragen erhoben werden.

(32)Angesichts der Notwendigkeit, die nationalen Vorschriften über zivilrechtliche Haftung und die nationalen Verfahrensvorschriften anzupassen, um die Einführung KI-gestützter Produkte und Dienstleistungen unter günstigen Binnenmarktbedingungen, die gesellschaftliche Akzeptanz und das Vertrauen der Verbraucher in KI-Technologie und das Justizsystem zu fördern, sollte den Mitgliedstaaten eine Frist von spätestens [zwei Jahren nach Inkrafttreten] dieser Richtlinie für den Erlass der erforderlichen Umsetzungsmaßnahmen gesetzt werden.

(33)Gemäß der Gemeinsamen Politischen Erklärung vom 28. September 2011 der Mitgliedstaaten und der Kommission zu erläuternden Dokumenten 39 haben sich die Mitgliedstaaten verpflichtet, in begründeten Fällen zusätzlich zur Mitteilung ihrer Umsetzungsmaßnahmen ein oder mehrere Dokumente zu übermitteln, in denen der Zusammenhang zwischen den Bestandteilen einer Richtlinie und den entsprechenden Teilen nationaler Umsetzungsinstrumente erläutert wird. Bei dieser Richtlinie hält der Gesetzgeber die Übermittlung derartiger Dokumente für gerechtfertigt —

HABEN FOLGENDE RICHTLINIE ERLASSEN:

Artikel 1

Gegenstand und Anwendungsbereich

(1)Diese Richtlinie enthält gemeinsame Vorschriften über

a)die Offenlegung von Beweismitteln betreffend Hochrisiko-KI-Systeme mit dem Ziel, es einem Kläger zu ermöglichen, einen außervertraglichen verschuldensabhängigen zivilrechtlichen Schadensersatzanspruch zu begründen;

b)die Beweislast bei der Geltendmachung außervertraglicher verschuldensabhängiger zivilrechtlicher Ansprüche vor nationalen Gerichten in Bezug auf Schäden, die durch ein KI-System verursacht wurden.

(2)Diese Richtlinie gilt für außervertragliche verschuldensabhängige zivilrechtliche Schadensersatzansprüche in Bezug auf nach dem [Ende der Umsetzungsfrist] durch ein KI-System verursachte Schäden.

Diese Richtlinie gilt nicht für die strafrechtliche Haftung.

(3)Diese Richtlinie berührt nicht:

a)das Unionsrecht in Bezug auf Haftungsbedingungen im Bereich des Verkehrs;

b)etwaige Rechte eines Geschädigten aufgrund nationaler Vorschriften zur Umsetzung der Richtlinie 85/374/EWG;

c)die Haftungsausschlüsse und die Sorgfaltspflichten gemäß [dem Gesetz über digitale Dienste] und

d)die nationalen Vorschriften darüber, welche Partei die Beweislast trägt, welches Beweismaß erforderlich ist oder wie ein Verschulden definiert wird, mit Ausnahme der Bestimmungen der Artikel 3 und 4.

(4)Die Mitgliedstaaten können nationale Vorschriften erlassen oder beibehalten, die die Begründung eines außervertraglichen zivilrechtlichen Schadensersatzanspruchs bei durch ein KI-System verursachten Schäden durch den Kläger weiter erleichtern, sofern diese Vorschriften mit dem Unionsrecht vereinbar sind.

Artikel 2

Begriffsbestimmungen

Für die Zwecke dieser Richtlinie bezeichnet der Ausdruck

1.„KI-System“ ein KI-System im Sinne des [Artikels 3 Nummer 1 des Gesetzes über künstliche Intelligenz];

2.„Hochrisiko-KI-System“ ein KI-System im Sinne des [Artikels 6 des Gesetzes über künstliche Intelligenz];

3.„Anbieter“ einen Anbieter im Sinne des [Artikels 3 Nummer 2 des Gesetzes über künstliche Intelligenz];

4.„Nutzer“ einen Nutzer im Sinne des [Artikels 3 Nummer 4 des Gesetzes über künstliche Intelligenz];

5.„Schadensersatzanspruch“ einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde;

6.„Kläger“ eine Person, die einen Schadensersatzanspruch geltend macht und die

a)durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, geschädigt wurde;

b) von Rechts wegen oder aufgrund eines Vertrags in die Rechte des Geschädigten eingetreten ist oder

c)gemäß dem Unionsrecht oder dem nationalen Recht im Namen eines oder mehrerer Geschädigter handelt;

7. „potenzieller Kläger“ eine natürliche oder juristische Person, die erwägt, einen Schadensersatzanspruch geltend zu machen, dies aber noch nicht getan hat;

8. „Beklagter“ die Person, gegen die ein Schadensersatzanspruch geltend gemacht wird;

9.„Sorgfaltspflicht“ einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden.

Artikel 3

Offenlegung von Beweismitteln und widerlegbare Vermutung eines Verstoßes

 

(1)Die Mitgliedstaaten stellen sicher, dass die nationalen Gerichte befugt sind, entweder auf Antrag eines potenziellen Klägers, der zuvor einen Anbieter, eine Person, die den Pflichten eines Anbieters [nach Artikel 24 oder Artikel 28 Absatz 1 des Gesetzes über künstliche Intelligenz] unterliegt, oder einen Nutzer vergeblich aufgefordert hat, die ihm beziehungsweise ihr vorliegenden einschlägigen Beweismittel zu einem bestimmten Hochrisiko-KI-System offenzulegen, das im Verdacht steht, einen Schaden verursacht zu haben, oder auf Antrag eines Klägers die Offenlegung dieser Beweismittel durch diese Personen anzuordnen.

Zur Stützung seines Antrags muss der potenzielle Kläger die Plausibilität seines Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen.

(2)Im Zusammenhang mit einem Schadensersatzanspruch ordnet das nationale Gericht die Offenlegung der Beweismittel durch eine der in Absatz 1 aufgeführten Personen nur an, wenn der Kläger alle angemessenen Anstrengungen unternommen hat, die einschlägigen Beweismittel vom Beklagten zu beschaffen.

(3)Die Mitgliedstaaten stellen sicher, dass die nationalen Gerichte befugt sind, auf Antrag eines Klägers spezifische Maßnahmen zur Sicherung der in Absatz 1 genannten Beweismittel anzuordnen.

(4)Die nationalen Gerichte beschränken die Offenlegung von Beweismitteln und die Maßnahmen zu deren Sicherung auf das Maß, das erforderlich und verhältnismäßig ist, um einen Schadensersatzanspruch eines Klägers oder potenziellen Klägers zu stützen.

Bei der Bewertung der Verhältnismäßigkeit einer Anordnung zur Offenlegung oder Sicherung von Beweismitteln berücksichtigen die nationalen Gerichte die berechtigten Interessen aller Parteien, einschließlich der betroffenen Dritten, insbesondere in Bezug auf den Schutz von Geschäftsgeheimnissen im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943 sowie von vertraulichen Informationen wie Informationen in Bezug auf die öffentliche oder nationale Sicherheit.

Die Mitgliedstaaten stellen sicher, dass die nationalen Gerichte in Fällen, in denen die Offenlegung eines Geschäftsgeheimnisses oder eines mutmaßlichen Geschäftsgeheimnisses angeordnet wird, das vom Gericht im Sinne des Artikels 9 Absatz 1 der Richtlinie (EU) 2016/943 als vertraulich eingestuft wurde, befugt sind, auf hinreichend begründeten Antrag einer Partei oder von sich aus die zur Wahrung der Vertraulichkeit erforderlichen spezifischen Maßnahmen zu ergreifen, wenn die betreffenden Beweismittel in Gerichtsverfahren verwendet werden oder dort auf sie Bezug genommen wird.

Die Mitgliedstaaten stellen ferner sicher, dass Personen, an die eine Anordnung zur Offenlegung oder Sicherung von Beweismitteln nach den Absätzen 1 oder 2 ergeht, über angemessene Rechtsbehelfe gegen solche Anordnungen verfügen.

(5)Kommt ein Beklagter im Rahmen eines Schadensersatzanspruchs einer Anordnung eines nationalen Gerichts, die ihm vorliegenden Beweismittel nach den Absätzen 1 oder 2 offenzulegen oder zu sichern, nicht nach, so vermutet das nationale Gericht, dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt, insbesondere in Fällen, in denen die Beweismittel, die für die Zwecke des betreffenden Schadensersatzanspruchs angefordert werden, Umstände nach Artikel 4 Absätze 2 oder 3 belegen sollen.

Der Beklagte hat das Recht, diese Vermutung zu widerlegen.

Artikel 4

Widerlegbare Vermutung eines ursächlichen Zusammenhangs im Fall eines Verschuldens

(1)Vorbehaltlich der in diesem Artikel festgelegten Anforderungen vermuten die nationalen Gerichte für die Zwecke der Anwendung der Haftungsvorschriften auf einen Schadensersatzanspruch einen ursächlichen Zusammenhang zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, wenn alle folgenden Bedingungen erfüllt sind:

a) Der Kläger hat nachgewiesen oder das Gericht vermutet gemäß Artikel 3 Absatz 5, dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen eine im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflicht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern, verstoßen wurde;

b)es kann auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden, dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat;

c)der Kläger hat nachgewiesen, dass das vom KI-System hervorgebrachte Ergebnis oder aber die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, zu dem Schaden geführt hat.

(2)Im Falle eines Schadensersatzanspruchs gegenüber einem Anbieter eines Hochrisiko-KI-Systems, für das die Anforderungen des Titels III, Kapitel 2 und 3 [des Gesetzes über künstliche Intelligenz] gelten, oder gegenüber einer Person, die den Pflichten eines Anbieters [nach Artikel 24 oder Artikel 28 Absatz 1 des Gesetzes über künstliche Intelligenz] unterliegt, ist die Bedingung von Absatz 1 Buchstabe a nur dann erfüllt, wenn der Kläger nachweist, dass der Anbieter oder gegebenenfalls die Person, die den Pflichten eines Anbieters unterliegt, eine der folgenden in den genannten Kapiteln festgelegten Anforderungen nicht erfüllt hat, wobei die im Rahmen des Risikomanagementsystems [nach Artikel 9 und Artikel 16 Buchstabe a des Gesetzes über künstliche Intelligenz] unternommenen Schritte und dessen Ergebnisse zu berücksichtigen sind:

a) Bei dem KI-System werden Techniken eingesetzt, bei denen Modelle mit Daten trainiert werden, und das System wurde nicht anhand von Trainings-, Validierungs- und Testdatensätzen entwickelt, die den in [Artikel 10 Absätze 2 bis 4 des Gesetzes über künstliche Intelligenz] genannten Qualitätskriterien entsprechen;

b) das KI-System wurde nicht so konzipiert und entwickelt, dass es den in [Artikel 13 des Gesetzes über künstliche Intelligenz] festgelegten Transparenzanforderungen entspricht;

c)das KI-System wurde nicht so konzipiert und entwickelt, dass es [gemäß Artikel 14 des Gesetzes über künstliche Intelligenz] während der Dauer seiner Verwendung von natürlichen Personen wirksam beaufsichtigt werden kann;

d)das KI-System wurde nicht so konzipiert und entwickelt, dass es [gemäß Artikel 15 und Artikel 16 Buchstabe a des Gesetzes über künstliche Intelligenz] im Hinblick auf seine Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreicht, oder

e)es wurden nicht unverzüglich die erforderlichen Korrekturmaßnahmen ergriffen, um das KI-System mit den in [Titel III Kapitel 2 des Gesetzes über künstliche Intelligenz] festgelegten Anforderungen in Einklang zu bringen oder das System gegebenenfalls [gemäß Artikel 16 Buchstabe g und Artikel 21 des Gesetzes über künstliche Intelligenz] zurückzunehmen oder zurückzurufen.

(3)Im Falle eines Schadensersatzanspruchs gegenüber einem Nutzer eines Hochrisiko-KI-Systems, für das die Anforderungen des Titels III, Kapitel 2 und 3 [des Gesetzes über künstliche Intelligenz] gelten, ist die Bedingung des Absatzes 1 Buchstabe a erfüllt, wenn der Kläger nachweist, dass der Nutzer

a)seiner Pflicht zur Verwendung oder Überwachung des KI-Systems entsprechend der beigefügten Gebrauchsanweisung oder gegebenenfalls zur Aussetzung oder Unterbrechung seiner Verwendung [nach Artikel 29 des Gesetzes über künstliche Intelligenz] nicht nachgekommen ist, oder

b)Eingabedaten, die seiner Kontrolle unterliegen, auf das KI-System angewandt hat, die der Zweckbestimmung des Systems [nach Artikel 29 Absatz 3 des Gesetzes über künstliche Intelligenz] nicht entsprechen.

(4)Im Falle eines Schadensersatzanspruchs in Bezug auf ein Hochrisiko-KI-System wendet das nationale Gericht die Vermutung nach Absatz 1 nicht an, wenn der Beklagte nachweist, dass der Kläger zu vertretbaren Bedingungen auf ausreichende Beweismittel und Fachkenntnisse zugreifen kann, um den ursächlichen Zusammenhang nach Absatz 1 nachzuweisen.

(5)Im Falle eines Schadensersatzanspruchs in Bezug auf ein KI-System, bei dem es sich nicht um ein Hochrisiko-KI-System handelt, gilt die Vermutung nach Absatz 1 nur, wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist, den ursächlichen Zusammenhang nach Absatz 1 nachzuweisen.

(6)Im Falle eines Schadensersatzanspruchs gegenüber einem Beklagten, der das KI-System im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet, gilt die Vermutung nach Absatz 1 nur, wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat.

(7)Der Beklagte hat das Recht, die Vermutung nach Absatz 1 zu widerlegen.

Artikel 5

Bewertung und gezielte Überprüfung

(1)Bis zum [DATUM fünf Jahre nach Ablauf der Umsetzungsfrist] überprüft die Kommission die Anwendung dieser Richtlinie und legt dem Europäischen Parlament, dem Rat und dem Europäischen Wirtschafts- und Sozialausschuss einen Bericht sowie gegebenenfalls einen Gesetzgebungsvorschlag vor.

(2)In dem Bericht werden die Auswirkungen der Artikel 3 und 4 auf die Verwirklichung der mit dieser Richtlinie verfolgten Ziele untersucht. Insbesondere sollte darin bewertet werden, ob Vorschriften über die verschuldensunabhängige Haftung für Ansprüche gegenüber Betreibern bestimmter KI-Systeme angemessen sind, soweit sie nicht bereits durch andere Haftungsvorschriften der Union abgedeckt sind, und ob ein Versicherungsschutz erforderlich ist, wobei die Auswirkungen auf die Einführung und den Einsatz von KI-Systemen, insbesondere durch KMU, zu berücksichtigen sind.

(3)Zur Vorbereitung des Berichts gemäß den Absätzen 1 und 2 erstellt die Kommission ein Überwachungsprogramm, in dem sie festlegt, wie und in welchen Zeitabständen die Daten und sonstigen erforderlichen Nachweise erfasst werden. In diesem Programm wird festgelegt, welche Maßnahmen bei der Erfassung und Auswertung der Daten und sonstigen Nachweise von der Kommission und von den Mitgliedstaaten zu treffen sind. Für die Zwecke dieses Programms übermitteln die Mitgliedstaaten der Kommission die einschlägigen Daten und Nachweise spätestens am [31. Dezember des zweiten vollen Jahres nach Ablauf der Umsetzungsfrist] und zum Ende jedes folgenden Jahres.

Artikel 6

Änderung der Richtlinie (EU) 2020/1828

In Anhang I der Richtlinie (EU) 2020/1828 40 wird folgende Nummer 67 angefügt:

„67.    Richtlinie (EU).../... des Europäischen Parlaments und des Rates vom ... zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung) (ABl. L ... vom ..., S. ...).“.

Artikel 7

Umsetzung

(1)Die Mitgliedstaaten setzen die Rechts- und Verwaltungsvorschriften in Kraft, die erforderlich sind, um dieser Richtlinie spätestens mit Wirkung vom [zwei Jahre nach Inkrafttreten der Richtlinie] nachzukommen. Sie teilen der Kommission unverzüglich den Wortlaut dieser Vorschriften mit.

Bei Erlass dieser Vorschriften nehmen die Mitgliedstaaten in den Vorschriften selbst oder durch einen Hinweis bei der amtlichen Veröffentlichung auf diese Richtlinie Bezug. Die Mitgliedstaaten regeln die Einzelheiten dieser Bezugnahme.

(2)Die Mitgliedstaaten teilen der Kommission den Wortlaut der wichtigsten nationalen Rechtsvorschriften mit, die sie auf dem unter diese Richtlinie fallenden Gebiet erlassen.

Artikel 8

Inkrafttreten

Diese Richtlinie tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft.

Artikel 9

Adressaten

Diese Richtlinie ist an die Mitgliedstaaten gerichtet.

Geschehen zu Brüssel am […]

Im Namen des Europäischen Parlaments    Im Namen des Rates

Die Präsidentin     Die Präsidentin///Der Präsident 

(1)    Umfrage unter europäischen Unternehmen zum Einsatz von KI-gestützten Technologien, Ipsos 2020, Abschlussbericht, S. 58 ( https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_de.pdf
(3)    Weißbuch zur künstlichen Intelligenz – Ein europäisches Konzept für Exzellenz und Vertrauen vom 19.2.2020, COM(2020) 65 final.
(4)    Bericht der Kommission an das Europäische Parlament, den Rat und den Europäischen Wirtschafts- und Sozialausschuss über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung, vom 19.2.2020 (COM(2020) 64 final).
(5)    Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz (2020/2014(INL)).
(6)    Entschließung des Europäischen Parlaments vom 3. Mai 2022 zur künstlichen Intelligenz im digitalen Zeitalter (2020/2266(INI)).
(7)    Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) (COM(2021) 206 final).
(8)    Nur wenige Anwendungsfälle von KI sind im Gesetz über künstliche Intelligenz ausdrücklich verboten.
(9)    Arbeitsunterlage der Kommissionsdienststellen „Impact assessment accompanying the Artificial Intelligence Act“ (SWD(2021) 84 final), S. 88.
(10)    Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über die allgemeine Produktsicherheit (COM(2021) 346 final).
(11)    Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über Maschinenprodukte (COM(2021) 202 final).
(12)    Delegierte Verordnung (EU) 2022/30 der Kommission zur Ergänzung der Richtlinie 2014/53/EU des Europäischen Parlaments und des Rates im Hinblick auf die Anwendung der grundlegenden Anforderungen, auf die in Artikel 3 Absatz 3 Buchstaben d, e und f der Richtlinie Bezug genommen wird (ABl. L 7 vom 12.1.2022, S. 6).
(13)    Mitteilung der Kommission „Gestaltung der digitalen Zukunft Europas“, COM(2020) 67 final.
(14)    Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über horizontale Anforderungen an die Cybersicherheit von Produkten mit digitalen Bestandteilen, COM(2022) 454 final.
(15)    Mitteilung der Kommission „Eine europäische Datenstrategie“, COM(2020) 66 final.
(16)    Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, „Der europäische Grüne Deal“, COM(2019) 640 final.
(17)    Deloitte, „Study to support the Commission’s IA on liability for artificial intelligence“, 2021 (Wirtschaftsstudie).
(18)    Nationale Strategie für künstliche Intelligenz der Tschechischen Republik, 2019, abrufbar unter: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, „National strategies on Artificial Intelligence – A European perspective“, Ausgabe 2021 – ein GFS-OECD-Bericht, abrufbar unter: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , S. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese (Strategie für die technologische Innovation und die Digitalisierung Italiens bis 2025), abrufbar unter: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;.
(20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021, S. 96.
(21)    Siehe Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019-2027 (Politik für die Entwicklung der künstlichen Intelligenz in Polen für 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102-3.
(22)    AI Portugal 2030, abrufbar unter:    
https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, a.a.O., S. 113.
(23)    Vor allem verschuldensunabhängige Haftung, Umkehr der Beweislast oder Erleichterungen der Beweislast in Form von unwiderlegbaren oder widerlegbaren Vermutungen.
(24)    Siehe unter < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_de .>
(25)    Liability for artificial intelligence and other emerging digital technologies, November 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en .
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence, 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services, Abschlussbericht 2021.
(28)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.
(29)    ABl. C … vom …, S. ….
(30)    ABl. C … vom …, S. ….
(31)    [Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz), COM(2021) 206 final.]
(32)    [Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über die allgemeine Produktsicherheit, COM(2021) 346 final.]
(33)    [Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über Maschinenprodukte, COM(2021) 202 final.]
(34)    Delegierte Verordnung (EU) 2022/30 der Kommission zur Ergänzung der Richtlinie 2014/53/EU des Europäischen Parlaments und des Rates im Hinblick auf die Anwendung der grundlegenden Anforderungen, auf die in Artikel 3 Absatz 3 Buchstaben d, e und f der Richtlinie Bezug genommen wird (ABl. L 7 vom 12.1.2022, S. 6).
(35)    Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte (ABl. L 210 vom 7.8.1985, S. 29).
(36)    [Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) COM(2020) 825 final].
(37)    Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8. Juni 2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (Geschäftsgeheimnisse) vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung (ABl. L 157 vom 15.6.2016, S. 1).
(38)    Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz (2020/2014(INL)) (ABl. C 404 vom 6.10.2021, S. 107).
(39)    OJ C 369, 17.12.2011, p. 14.
(40)    Richtlinie (EU) 2020/1828 des Europäischen Parlaments und des Rates vom 25. November 2020 über Verbandsklagen zum Schutz der Kollektivinteressen der Verbraucher und zur Aufhebung der Richtlinie 2009/22/EG (ABl. L 409 vom 4.12.2020, S. 1).