Brussel, 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Voorstel voor een

RICHTLIJN VAN HET EUROPEES PARLEMENT EN DE RAAD

betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI).

(Voor de EER relevante tekst)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


TOELICHTING

1.ACHTERGROND VAN HET VOORSTEL

·Motivering en doel van het voorstel

Deze toelichting vergezelt het voorstel voor een richtlijn betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI). Volgens een representatieve enquête uit 2020 1 behoorde aansprakelijkheid tot de drie grootste belemmeringen voor de toepassing van AI door Europese bedrijven. Aansprakelijkheid werd genoemd als de meest relevante externe belemmering (43 %) voor bedrijven die van plan zijn AI toe te passen, maar deze nog niet hebben ingevoerd.

In haar politieke beleidslijnen heeft Commissievoorzitter Ursula von der Leyen een gecoördineerde Europese aanpak van AI uiteengezet 2 . In haar Witboek over AI van 19 februari 2020 3 heeft de Commissie zich ertoe verbonden de aanvaarding van AI te bevorderen en de risico’s in verband met sommige van de toepassingen ervan te verhelpen door excellentie en vertrouwen te bevorderen. In het bij het witboek gevoegde verslag over de aansprakelijkheid voor AI 4 heeft de Commissie de specifieke problemen van AI in verband met de bestaande aansprakelijkheidsregels in kaart gebracht. In zijn conclusies van 9 juni 2020 over het vormgeven van de digitale toekomst van Europa verwelkomde de Raad de raadpleging over de beleidsvoorstellen in het Witboek over AI en riep hij de Commissie op om met concrete voorstellen te komen. Op 20 oktober 2020 heeft het Europees Parlement op grond van artikel 225 VWEU een initiatiefresolutie van wetgevende aard aangenomen waarin de Commissie wordt verzocht een voorstel goed te keuren voor een civielrechtelijke aansprakelijkheidsregeling voor AI op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU) 5 .

De huidige nationale aansprakelijkheidsregels, die vooral op schuld zijn gebaseerd, zijn niet geschikt voor de behandeling van vorderingen op grond van aansprakelijkheid voor schade die is veroorzaakt door op AI gebaseerde producten en diensten. Volgens die regels moeten gelaedeerden het bestaan van een onrechtmatig doen of nalaten bewijzen van de persoon die de schade heeft veroorzaakt. De specifieke kenmerken van AI, waaronder complexiteit, autonomie en ondoorzichtigheid (het zogenaamde “blackboxeffect), kunnen het voor gelaedeerden moeilijk of buitensporig kostbaar maken om de aansprakelijke persoon te identificeren en te bewijzen dat aan de voorwaarden voor een succesvolle vordering op grond van aansprakelijkheid is voldaan. Met name kunnen gelaedeerden bij vorderingen tot schadevergoeding te maken krijgen met zeer hoge kosten vooraf en aanzienlijk langere gerechtelijke procedures dan wanneer er geen sprake is van AI. Gelaedeerden kunnen er daarom van worden weerhouden om überhaupt schadevergoeding te vorderen. De zorgen hierover komen ook tot uitdrukking in de resolutie van het Europees Parlement (EP) van 3 mei 2022 over artificiële intelligentie in het digitale tijdperk.  6

Als een gelaedeerde een vordering instelt, kunnen de nationale rechtbanken wanneer zij met de specifieke kenmerken van AI te maken krijgen, de manier waarop zij de bestaande regels toepassen ad hoc aanpassen teneinde tot een billijk resultaat voor het slachtoffer te komen. Hierdoor zal rechtsonzekerheid ontstaan. Bedrijven zullen moeite hebben om te voorspellen hoe de bestaande aansprakelijkheidsregels zullen worden toegepast en dus om te beoordelen in hoeverre zij het gevaar lopen aansprakelijk te worden gesteld en zich daartegen dienen te verzekeren. Het effect zal groter zijn voor bedrijven die grensoverschrijdend actief zijn, aangezien de onzekerheid betrekking zal hebben op verschillende jurisdicties. Dit zal met name gevolgen hebben voor kleine en middelgrote ondernemingen (kmo’s) die geen beroep kunnen doen op interne juridische expertise of kapitaalreserves.

Uit nationale AI-strategieën blijkt dat verschillende lidstaten wetgevende maatregelen inzake civielrechtelijke aansprakelijkheid voor AI overwegen of zelfs concreet plannen. Er wordt dan ook verwacht dat wanneer de EU niet optreedt, de lidstaten hun nationale aansprakelijkheidsregels zullen aanpassen aan de problemen waarvoor zij zich door AI gesteld zien. Dit zal leiden tot verdere versnippering en hogere kosten voor bedrijven die in de hele EU actief zijn.

De informatie die via de openbare raadpleging is verzameld voor de effectbeoordeling van dit voorstel, heeft het bestaan van de hierboven vermelde problemen bevestigd. Volgens het publiek kan het “blackboxeffect” het voor gelaedeerden moeilijk maken om schuld en causaal verband aan te tonen en kan er onzekerheid bestaan over de wijze waarop de rechtbanken de bestaande nationale aansprakelijkheidsregels zullen interpreteren en toepassen in zaken waarbij er sprake is van AI. Bovendien bleek uit de raadpleging dat het publiek bezorgd is over de wijze waarop door de individuele lidstaten geëntameerde wetgevingsmaatregelen en de daaruit voortvloeiende versnippering, de kosten voor bedrijven, en dan met name kmo’s, zouden beïnvloeden, en daarmee in de weg zouden staan aan de aanvaarding van AI in de hele Unie.

Het doel van dit voorstel is derhalve de uitrol van betrouwbare AI te bevorderen teneinde de voordelen ervan voor de interne markt ten volle te benutten. Dit gebeurt door ervoor te zorgen dat degenen die door AI veroorzaakte schade hebben geleden eenzelfde bescherming krijgen als degenen die schade hebben geleden die is veroorzaakt door producten in het algemeen. Het zorgt ook ervoor dat bedrijven die AI ontwikkelen of gebruiken, meer rechtszekerheid hebben wat betreft eventuele aansprakelijkheid en voorkomt dat op het gebied van AI nationale regels inzake civielrechtelijke aansprakelijkheid gefragmenteerd worden aangepast.

·Verenigbaarheid met bestaande bepalingen op het beleidsterrein

Dit voorstel maakt deel uit van een pakket maatregelen om de uitrol van AI in Europa te ondersteunen door excellentie en vertrouwen te bevorderen. Dit pakket omvat drie complementaire werkterreinen:

een wetgevingsvoorstel tot vaststelling van horizontale regels inzake artificiële-intelligentiesystemen (AI-verordening) 7 ;

een herziening van sectorale en horizontale voorschriften inzake productveiligheid;

EU-regels om aansprakelijkheidskwesties in verband met AI-systemen aan te pakken.

In het voorstel voor een AI-verordening komt de Commissie met regels om de veiligheidsrisico’s te verminderen en de grondrechten te beschermen. Veiligheid en aansprakelijkheid zijn twee kanten van dezelfde medaille: zij spelen op verschillende momenten een rol en versterken elkaar. Hoewel regels om de veiligheid te waarborgen en de grondrechten te beschermen de risico’s zullen verminderen, nemen zij deze risico’s niet volledig weg 8 . Wanneer een dergelijk risico zich materialiseert, kan er toch nog schade optreden. In dergelijke gevallen zijn de aansprakelijkheidsregels van dit voorstel van toepassing.

Doeltreffende aansprakelijkheidsregels bieden ook een economische stimulans om de veiligheidsvoorschriften na te leven en dragen derhalve bij tot het voorkomen van schade 9 . Daarnaast draagt dit voorstel bij tot de handhaving van de voorschriften van de AI-verordening voor AI-systemen met een hoog risico, omdat het niet in acht nemen van die voorschriften een belangrijk element vormt dat leidt tot verlichting van de bewijslast. Dit voorstel is ook in overeenstemming met de voorgestelde algemene 10 en sectorale regels inzake productveiligheid die van toepassing zijn op op AI gebaseerde machineproducten 11 en radioapparatuur 12 .

De Commissie gaat bij haar AI-beleid uit van een holistische benadering van aansprakelijkheid door aanpassingen van de richtlijn productaansprakelijkheid voor te stellen en de gerichte harmonisatie in het kader van dit voorstel. Deze twee beleidsinitiatieven zijn nauw met elkaar verbonden en vormen samen één pakket, aangezien vorderingen die binnen het toepassingsgebied ervan vallen, betrekking hebben op verschillende soorten aansprakelijkheid. De richtlijn productaansprakelijkheid heeft betrekking op de risicoaansprakelijkheid van producenten voor producten met gebreken, die leidt tot een vergoeding voor bepaalde soorten, voornamelijk door particulieren geleden, schade. Het onderhavige voorstel heeft betrekking op nationale vorderingen op grond van aansprakelijkheid die hoofdzakelijk zijn gebaseerd op de schuld van een persoon, ter vergoeding van eender welke soort schade voor eender welke soort gelaedeerden. De richtlijn en het voorstel vullen elkaar aan en vormen zo samen een algemeen doeltreffend stelsel voor civielrechtelijke aansprakelijkheid.

De desbetreffende regels zullen tezamen het vertrouwen in AI (en andere digitale technologieën) bevorderen doordat zij ervoor zorgen dat slachtoffers daadwerkelijk schadevergoeding krijgen als er ondanks de preventieve vereisten van de AI-verordening en andere veiligheidsvoorschriften, toch schade optreedt.

·Verenigbaarheid met andere beleidsterreinen van de Unie

Het voorstel is in overeenstemming met de digitale strategie van de Unie, aangezien het bijdraagt tot de bevordering van technologie die werkt voor de mensen, een van de drie belangrijkste pijlers van de beleidsoriëntatie en de doelstellingen die zijn aangekondigd in de mededeling “De digitale toekomst van Europa vormgeven” 13 .

Tegen die achtergrond heeft dit voorstel tot doel het vertrouwen in AI op te bouwen en de aanvaarding ervan te vergroten. Dit zal synergieën tot stand brengen en vormt een aanvulling op de [wet inzake cyberweerbaarheid] 14 , die ook tot doel heeft het vertrouwen in producten met digitale elementen te vergroten door gebreken in cyberbeveiliging te verminderen en zakelijke en particuliere gebruikers beter te beschermen.

Dit voorstel doet geen afbreuk aan de regels van [de wet inzake digitale diensten], die voorzien in een alomvattend en volledig geharmoniseerd kader voor zorgvuldigheidsverplichtingen voor algoritmische besluitvorming door onlineplatforms, met inbegrip van de vrijstelling van aansprakelijkheid die dat kader biedt voor aanbieders van tussenhandelsdiensten.

Door de uitrol van AI te bevorderen, houdt dit voorstel bovendien verband met de initiatieven in het kader van de EU-datastrategie 15 . Het versterkt ook de rol van de Unie bij het mede vormgeven aan internationale normen en standaarden en het bevorderen van betrouwbare AI die strookt met de waarden en belangen van de Unie.

Het voorstel houdt ook indirect verband met de Europese Green Deal 16 . Met name digitale technologieën, waaronder AI, zijn van cruciaal belang voor de verwezenlijking van de duurzaamheidsdoelstellingen van de Green Deal in allerhande sectoren (waaronder gezondheidszorg, vervoer, milieu en landbouw).

·Voornaamste gevolgen voor de economie, de samenleving en het milieu

De richtlijn zal bijdragen tot de uitrol van AI. De voorwaarden voor de uitrol en ontwikkeling van AI-technologieën op de interne markt kunnen eerder aanzienlijk worden verbeterd door versnippering te voorkomen en de rechtszekerheid te vergroten via geharmoniseerde maatregelen op EU-niveau, dan door eventuele aanpassingen van aansprakelijkheidsregels op nationaal niveau. In de economische studie 17 die aan de effectbeoordeling van dit voorstel ten grondslag ligt, werd – als voorzichtige schatting – geconcludeerd dat, in vergelijking met het basisscenario, gerichte harmonisatiemaatregelen inzake civielrechtelijke aansprakelijkheid voor AI een positief effect zouden hebben ten belope van 5 tot 7 % van de productiewaarde van relevante grensoverschrijdende handel. Deze toegevoegde waarde zou met name worden gegenereerd door minder versnippering en meer rechtszekerheid met betrekking tot de potentiële aansprakelijkheid van belanghebbenden. Dit zou de kosten van belanghebbenden op het gebied van juridische informatie/vertegenwoordiging, intern risicobeheer en nakoming verminderen, de financiële planning en risico-ramingen met het oog op verzekering, vergemakkelijken en ondernemingen – met name kmo’s – in staat stellen nieuwe markten over de grenzen heen te verkennen. Op basis van de totale waarde van de AI-markt van de EU die wordt beïnvloed door de problemen inzake aansprakelijkheid die door deze richtlijn worden aangepakt, wordt geschat dat deze richtlijn een extra marktwaarde van tussen de ongeveer 500 miljoen EUR en ongeveer 1,1 miljard EUR zal genereren.

Wat de sociale gevolgen betreft, zal de richtlijn het maatschappelijk vertrouwen in AI-technologieën en de toegang tot een doeltreffend rechtsstelsel vergroten. Zij zal bijdragen tot een efficiënte regeling voor civielrechtelijke aansprakelijkheid, die is aangepast aan de specifieke kenmerken van AI en die gerechtvaardigde vorderingen tot vergoeding van schade honoreert. Een groter maatschappelijk vertrouwen zou ook ten goede komen aan alle bedrijven in de AI-waardeketen, omdat het versterken van het vertrouwen van de burgers zal bijdragen tot een snellere aanvaarding van AI. Door het stimulerende effect van aansprakelijkheidsregels zou het voorkomen van lacunes op het gebied van aansprakelijkheid ook indirect ten goede komen aan alle burgers als gevolg van een hoger niveau van bescherming van de volksgezondheid en veiligheid (artikel 114, lid 3, VWEU) en het wegnemen van bronnen van gevaar voor de gezondheid (artikel 168, lid 1, VWEU).

Wat de milieueffecten betreft, zal de richtlijn naar verwachting ook bijdragen tot de verwezenlijking van de daarmee verband houdende duurzame-ontwikkelingsdoelstellingen (SDG’s). De aanvaarding van AI-toepassingen is gunstig voor het milieu. Zo maken AI-systemen die worden gebruikt voor procesoptimalisering processen minder verspillend (bv. door de benodigde hoeveelheid meststoffen en pesticiden te verminderen, het waterverbruik bij gelijke output te verlagen enz.). De richtlijn zou ook een positief effect hebben op de SDG’s omdat doeltreffende wetgeving inzake transparantie, verantwoordingsplicht en grondrechten het potentieel van AI om aan individuen en de samenleving ten goede te komen, zal aanwenden voor de verwezenlijking van de SDG’s.

2.RECHTSGRONDSLAG, SUBSIDIARITEIT EN EVENREDIGHEID

·    Rechtsgrondslag

De rechtsgrondslag van het voorstel is artikel 114 VWEU, dat voorziet in de vaststelling van maatregelen om de oprichting en de werking van de interne markt te waarborgen.

De problemen die dit voorstel beoogt aan te pakken, met name rechtsonzekerheid en juridische versnippering, hinderen de ontwikkeling van de interne markt en vormen dus aanzienlijke belemmeringen voor de grensoverschrijdende handel in op AI gebaseerde producten en diensten.

Het voorstel neemt belemmeringen weg die voortvloeien uit het feit dat bedrijven die op AI gebaseerde producten en diensten over de grenzen heen willen produceren, verspreiden en exploiteren, niet zeker weten of er aansprakelijkheidsregelingen van toepassing zijn op door AI veroorzaakte schade en wat die in voorkomend geval dan impliceren. Deze onzekerheid betreft met name de lidstaten waarnaar respectievelijk waarin bedrijven hun producten en diensten zullen uitvoeren of exploiteren. In een grensoverschrijdende context is het recht dat van toepassing is op niet-contractuele aansprakelijkheid die voortvloeit uit een onrechtmatige daad in principe het recht van het land waar de schade zich voordoet. Voor deze bedrijven is het van essentieel belang om de relevante aansprakelijkheidsrisico’s te kennen en zich daartegen te kunnen verzekeren.

Daarnaast zijn er concrete aanwijzingen dat een aantal lidstaten unilaterale wetgevingsmaatregelen overweegt om de specifieke problemen van AI met betrekking tot aansprakelijkheid aan te pakken. In Tsjechië 18 , Italië 19 , Malta 20 , Polen 21 en Portugal 22 vastgestelde AI-strategieën maken bijvoorbeeld gewag van initiatieven om de aansprakelijkheid te verduidelijken. Gezien de grote verschillen tussen de bestaande wettelijke aansprakelijkheidsregels van de lidstaten, is het waarschijnlijk dat elke nationale AI-specifieke maatregel inzake aansprakelijkheid de bestaande verschillen in nationale benadering zou volgen en bijgevolg de versnippering zou vergroten.

Daarom zouden aanpassingen van aansprakelijkheidsregels op louter nationale basis de belemmeringen voor de uitrol van op AI gebaseerde producten en diensten op de interne markt vergroten en verder bijdragen tot versnippering.

·Subsidiariteit

De doelstellingen van dit voorstel kunnen niet adequaat op nationaal niveau worden verwezenlijkt, omdat het ontstaan van uiteenlopende nationale regels de rechtsonzekerheid en versnippering zou vergroten en belemmeringen zou opwerpen voor de uitrol van op AI gebaseerde producten en diensten op de interne markt. Rechtsonzekerheid zou met name gevolgen hebben voor ondernemingen die grensoverschrijdend actief zijn omdat als gevolg onvermijdelijk aanvullende juridische informatie/vertegenwoordiging nodig zijn, kosten inzake risicobeheer worden gemaakt en inkomsten worden gederfd. Tegelijkertijd zouden uiteenlopende nationale regels inzake vorderingen tot vergoeding van door AI veroorzaakte schade de transactiekosten voor bedrijven verhogen, met name wat betreft grensoverschrijdende handel, hetgeen aanzienlijke belemmeringen voor de interne markt met zich mee zou brengen. Bovendien worden start-ups en kmo’s, de meest voorkomende ondernemingsvorm en goed voor het grootste deel van de investeringen op de relevante markten, onevenredig zwaar getroffen door rechtsonzekerheid en versnippering.

Bij gebrek aan geharmoniseerde EU-regels voor de vergoeding van door AI-systemen veroorzaakte schade zouden aanbieders, exploitanten en gebruikers van AI-systemen enerzijds en gelaedeerde personen anderzijds te maken krijgen met 27 verschillende aansprakelijkheidsregelingen, wat tot verschillende beschermingsniveaus en verstoring van de concurrentie tussen bedrijven uit verschillende lidstaten zou leiden.

Geharmoniseerde maatregelen op EU-niveau zouden de voorwaarden voor de uitrol en ontwikkeling van AI-technologieën op de interne markt aanzienlijk verbeteren door versnippering te voorkomen en de rechtszekerheid te vergroten. Deze toegevoegde waarde zou met name worden gegenereerd door minder versnippering en meer rechtszekerheid met betrekking tot de potentiële aansprakelijkheid van belanghebbenden. Bovendien kan alleen optreden van de EU consequent het gewenste effect bereiken om het vertrouwen van de consument in op AI gebaseerde producten en diensten te bevorderen door lacunes inzake aansprakelijkheid in verband met de specifieke kenmerken van AI op de interne markt te voorkomen. Dit zou zorgen voor een consistent (minimum) beschermingsniveau voor alle slachtoffers (individuen en bedrijven) en consistente stimulansen om schade te voorkomen en de verantwoordingsplicht waarborgen.

·Evenredigheid

Het voorstel is gebaseerd op een gefaseerde aanpak. In de eerste fase worden de doelstellingen bereikt met een minimaal invasieve aanpak; in de tweede fase wordt de behoefte aan strengere of uitgebreidere maatregelen opnieuw beoordeeld.

In de eerste fase worden de vastgestelde AI-specifieke problemen uitsluitend aangepakt door middel van maatregelen inzake de bewijslast. Zij bouwt voort op de materiële aansprakelijkheidsvoorwaarden die momenteel in nationale regels zijn vastgelegd, zoals causaal verband of schuld, maar legt de nadruk op gerichte maatregelen in verband met bewijs, waarbij ervoor wordt gezorgd dat slachtoffers hetzelfde beschermingsniveau genieten als in gevallen waarbij geen AI-systemen betrokken zijn. Bovendien is in dit voorstel uit de verschillende instrumenten die in het nationale recht beschikbaar zijn om de bewijslast te verlichten 23 , gekozen voor het gebruik van weerlegbare vermoedens als het minst interventionistische instrument. Dergelijke vermoedens komen algemeen voor in de nationale aansprakelijkheidsstelsels en zorgen voor een evenwicht tussen de belangen van eisers en verweerders. Tegelijkertijd zijn zij bedoeld om de nakoming van bestaande zorgvuldigheidsplichten op het niveau van de Unie of op nationaal niveau te stimuleren. Het voorstel leidt niet tot een omkering van de bewijslast om te voorkomen dat aanbieders, exploitanten en gebruikers van AI-systemen te maken krijgen met grotere aansprakelijkheidsrisico’s, wat innovatie zou kunnen belemmeren en de invoering van op AI gebaseerde producten en diensten zou kunnen verminderen.

De tweede fase van het voorstel zorgt ervoor dat, zoals verzocht door het Europees Parlement, bij de beoordeling van het effect van de eerste fase wat betreft bescherming van gelaedeerden en de aanvaarding van AI, rekening zal worden gehouden met toekomstige technologische, regelgevings- en jurisprudentiële ontwikkelingen wanneer opnieuw wordt gekeken of het nodig is andere elementen van vorderingen tot schadevergoeding of andere instrumenten in verband met vorderingen op grond van aansprakelijkheid te harmoniseren, onder meer met betrekking tot situaties waarin risicoaansprakelijkheid passender zou zijn. Bij een dergelijke beoordeling zal waarschijnlijk ook worden nagegaan of een dergelijke harmonisatie gepaard moet gaan met een verplichte verzekering teneinde de doeltreffendheid te waarborgen.

·Keuze van instrument

Een richtlijn is het meest geschikte instrument voor dit voorstel, aangezien het niet alleen de beoogde harmonisatie-effecten en rechtszekerheid met zich brengt, maar ook de flexibiliteit waarmee de lidstaten de geharmoniseerde maatregelen soepel in hun nationale aansprakelijkheidsregelingen kunnen opnemen.

Een verplicht instrument zou lacunes in de bescherming als gevolg van gedeeltelijk of niet-uitvoeren voorkomen. Hoewel een niet-bindend instrument minder ingrijpend zou zijn, is het onwaarschijnlijk dat dit de vastgestelde problemen op doeltreffende wijze zou aanpakken. Het uitvoeringspercentage van niet-bindende instrumenten is moeilijk te voorspellen en er zijn onvoldoende aanwijzingen dat een aanbeveling voldoende overtuigend effect zou hebben om tot een consistente aanpassing van nationale wetgeving te komen.

Een dergelijk effect is nog onwaarschijnlijker in geval van maatregelen op het gebied van het privaatrecht, waarvan de regels inzake niet-contractuele aansprakelijkheid deel uitmaken. Dit gebied wordt gekenmerkt door reeds lang bestaande rechtstradities, wat de lidstaten terughoudend maakt om geharmoniseerde hervormingen door te voeren, tenzij die zijn ingegeven door het duidelijke vooruitzicht van voordelen voor de interne markt in het kader van een bindend EU-instrument of door de noodzaak om zich aan te passen aan nieuwe technologieën in de digitale economie.

De bestaande aanzienlijke verschillen tussen de aansprakelijkheidskaders van de lidstaten vormen een andere reden waarom het onwaarschijnlijk is dat een aanbeveling op consistente wijze zal worden uitgevoerd.

1.EVALUATIE, RAADPLEGING VAN BELANGHEBBENDEN EN EFFECTBEOORDELING

·Raadpleging van belanghebbenden

Er is een uitgebreide raadplegingsstrategie ten uitvoer gelegd om te zorgen voor een brede deelname van belanghebbenden gedurende de gehele beleidscyclus van dit voorstel. De raadplegingsstrategie was gebaseerd op zowel openbare als verschillende gerichte raadplegingen (webinars en bilaterale besprekingen met bedrijven en met verschillende organisaties).

Na de eerste vragen over aansprakelijkheid die deel uitmaakten van de openbare raadpleging over het witboek over AI en het verslag van de Commissie over veiligheid en aansprakelijkheid, werd van 18 oktober 2021 tot en met 10 januari 2022 een specifieke online openbare raadpleging gehouden om standpunten te verzamelen van een breed scala aan belanghebbenden, waaronder consumenten, maatschappelijke organisaties, brancheorganisaties, bedrijven, met inbegrip van kmo’s, en overheidsinstanties. Na alle ontvangen reacties te hebben bestudeerd, heeft de Commissie een samenvatting ervan en de afzonderlijke reacties op haar website bekendgemaakt 24 .

In totaal werden 233 reacties ontvangen van respondenten uit 21 lidstaten en uit derde landen. Over het algemeen bevestigden de meeste belanghebbenden de problemen inzake bewijslast, rechtsonzekerheid en versnippering en steunden zij maatregelen op EU-niveau.

EU-burgers, consumentenorganisaties en academische instellingen bevestigden met grote meerderheid dat de EU maatregelen moet nemen om de problemen van gelaedeerden met betrekking tot de bewijslast te verlichten. Hoewel bedrijven de negatieve gevolgen bevestigden van de onzekerheid over de toepassing van aansprakelijkheidsregels, waren zij voorzichtiger en vroegen zij om gerichte maatregelen zodat innovatie niet wordt beperkt.

Wat de beleidsopties betreft, was een vergelijkbaar beeld te zien. EU-burgers, consumentenorganisaties en academische instellingen waren sterk voorstander van maatregelen inzake de bewijslast en harmonisatie van risicoaansprakelijkheid, in combinatie met verplichte verzekering. Bedrijven waren meer verdeeld wat betreft de beleidsopties, waarbij de verschillen deels te maken hadden met hun omvang. De meerderheid van de respondenten uit het bedrijfsleven achtte risicoaansprakelijkheid onevenredig. Harmonisatie van de verlichting van de bewijslast kreeg meer steun, met name bij kmo’s. Bedrijven waarschuwden echter voor een volledige verschuiving van de bewijslast.

Daarom werd de voorkeursoptie ontwikkeld en verfijnd in het licht van de feedback van de belanghebbenden tijdens het effectbeoordelingsproces, teneinde een evenwicht te vinden tussen de behoeften en de zorgen die door alle relevante groepen belanghebbenden over het voetlicht waren gebracht.

·Bijeenbrengen en gebruik van expertise

Het voorstel is gebaseerd op vier jaar analyse en een nauwe betrokkenheid van belanghebbenden, waaronder academici, bedrijven, consumentenorganisaties, lidstaten en burgers. De voorbereidende werkzaamheden zijn in 2018 begonnen met de oprichting van de deskundigengroep inzake aansprakelijkheid en nieuwe technologieën (New Technologies Formation). De deskundigengroep heeft in november 2019 een verslag 25 opgesteld waarin de problemen werden beoordeeld die bepaalde kenmerken van AI met zich meebrengen voor de nationale regels inzake civielrechtelijke aansprakelijkheid.

De input uit het verslag van de deskundigengroep werd aangevuld met drie aanvullende externe studies:

een rechtsvergelijkend onderzoek op basis van een vergelijkende juridische analyse van Europese wetgeving inzake onrechtmatige daad, gericht op belangrijke AI-gerelateerde kwesties 26 ;

een gedragseconomisch onderzoek naar de effecten van gerichte aanpassingen van de aansprakelijkheidsregeling op de besluitvorming van consumenten, met name op hun vertrouwen en bereidheid om op AI gebaseerde producten en diensten te gaan gebruiken 27 ;

een economische studie 28 over een aantal onderwerpen: de problemen waarmee degenen die schade hebben geleden door AI-toepassingen te maken krijgen in vergelijking met degenen die schade hebben geleden door niet op AI gebaseerde apparaten, wanneer zij schadevergoeding proberen te verkrijgen; de vraag of en in welke mate bedrijven onzeker zijn over de toepassing van de huidige aansprakelijkheidsregels op hun activiteiten op het gebied van AI, en of de gevolgen van rechtsonzekerheid investeringen in AI kunnen belemmeren; de vraag of een verdere versnippering van de nationale aansprakelijkheidswetgevingen de doeltreffendheid van de interne markt voor AI-toepassingen en -diensten zou verminderen, en of en in hoeverre het harmoniseren van bepaalde aspecten van nationale civielrechtelijke aansprakelijkheid via EU-wetgeving deze problemen zou verminderen en de algemene aanvaarding van AI-technologie door EU-bedrijven zou vergemakkelijken.

·Effectbeoordeling

In overeenstemming met haar beleid inzake “betere regelgeving” heeft de Commissie voor dit voorstel een effectbeoordeling uitgevoerd die door de Raad voor regelgevingstoetsing van de Commissie is onderzocht. De vergadering van de Raad voor regelgevingstoetsing op 6 april 2022 heeft geleid tot een positief advies met opmerkingen.

Er werden drie beleidsopties beoordeeld:

Beleidsoptie 1: drie maatregelen om de bewijslast te verlichten voor gelaedeerden die bewijs proberen te leveren voor hun vordering op grond van aansprakelijkheid.

Beleidsoptie 2: de maatregelen in het kader van optie 1 + harmonisering van risicoaansprakelijkheidsregels voor gevallen van AI-gebruik met een specifiek risicoprofiel, in combinatie met een verplichte verzekering.

Beleidsoptie 3: een gefaseerde aanpak bestaande uit:

een eerste fase: de maatregelen in het kader van optie 1;

een tweede fase: een evaluatiemechanisme om met name opnieuw te beoordelen of risicoaansprakelijkheidsregels voor gevallen van AI-gebruik met een specifiek risicoprofiel, moeten worden geharmoniseerd (eventueel in combinatie met een verplichte verzekering).

De beleidsopties werden vergeleken aan de hand van een multicriteria-analyse, waarbij rekening werd gehouden met hun doeltreffendheid, efficiëntie, samenhang en evenredigheid. Uit de resultaten van de multicriteria- en gevoeligheidsanalyse blijkt dat beleidsoptie 3, die de bewijslast voor AI-gerelateerde vorderingen verlicht + gerichte herziening met betrekking tot risicoaansprakelijkheid, eventueel in combinatie met verplichte verzekering, bovenaan staat en daarom de beleidsoptie is die voor dit voorstel de voorkeur verdient.

De voorkeursoptie zou ervoor zorgen dat degenen die schade hebben geleden door op AI gebaseerde producten en diensten (natuurlijke personen, bedrijven en andere publieke of private entiteiten) niet minder worden beschermd dan degenen die schade hebben geleden door traditionele technologieën. Zij zou het vertrouwen in AI vergroten en de aanvaarding ervan bevorderen.

Bovendien zou zij de rechtsonzekerheid verminderen en versnippering voorkomen, waardoor bedrijven, en vooral kmo’s, die het volledige potentieel van de eengemaakte markt van de EU willen benutten door op AI gebaseerde producten en diensten over de grenzen heen uit te rollen, worden geholpen. De voorkeursoptie creëert ook betere voorwaarden voor verzekeraars om dekking van AI-gerelateerde activiteiten aan te bieden, wat van cruciaal belang is voor het risicobeheer van bedrijven, met name kmo’s. Er wordt namelijk geschat dat de voorkeursoptie een hogere marktwaarde voor AI in de EU-27 zou genereren, die in 2025 ergens tussen de 500 miljoen EUR en 1,1 miljard EUR zou liggen.

·Grondrechten

Een van de belangrijkste functies van de regels inzake civielrechtelijke aansprakelijkheid bestaat erin ervoor te zorgen dat degenen die schade hebben geleden, vergoeding van die schade kunnen vorderen. Door een doeltreffende schadeloosstelling te waarborgen, dragen deze regels bij tot de bescherming van het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht (artikel 47 van het Handvest van de grondrechten van de Europese Unie, hierna “het Handvest” genoemd), en geven zij potentieel aansprakelijke personen ook een prikkel om schade te voorkomen teneinde aansprakelijkheid te vermijden.

Met dit voorstel wil de Commissie ervoor zorgen dat degenen die door AI veroorzaakte schade lijden, eenzelfde niveau van bescherming op grond van regels inzake civielrechtelijke aansprakelijkheid genieten als degenen die niet door AI veroorzaakte schade lijden. Het voorstel zal een doeltreffende private handhaving van grondrechten mogelijk maken en het recht op een doeltreffende voorziening in rechte overeind houden wanneer zich AI-specifieke risico’s hebben gematerialiseerd. Met name zal het voorstel bijdragen tot de bescherming van grondrechten, zoals het recht op leven (artikel 2 van het Handvest), het recht op lichamelijke en geestelijke integriteit (artikel 3) en het recht op eigendom (artikel 17). Bovendien kunnen gelaedeerden, afhankelijk van de civielrechtelijke stelsels en de tradities van de lidstaten, schadevergoeding vorderen voor schade aan andere rechtsbelangen, bijvoorbeeld als gevolg van schendingen van het recht op persoonlijke waardigheid (artikelen 1 en 4 van het Handvest), eerbiediging van het privéleven en van het familie- en gezinsleven (artikel 7), gelijkheid (artikel 20) en non-discriminatie (artikel 21).

Daarnaast vormt dit voorstel een aanvulling op andere, op preventieve regelgevings- en toezichtsvoorschriften gebaseerde onderdelen van het AI-beleid van de Commissie die rechtstreeks gericht zijn op het voorkomen van schendingen van de grondrechten (zoals discriminatie). Daarbij gaat het om de AI-verordening, de algemene verordening gegevensbescherming, de wet inzake digitale diensten en de EU-wetgeving inzake non-discriminatie en gelijke behandeling. Tegelijkertijd creëert noch harmoniseert dit voorstel zorgvuldigheidsplichten of aansprakelijkheid van verschillende entiteiten waarvan de activiteiten krachtens die rechtshandelingen worden geregeld, en doet het derhalve geen nieuwe vorderingen op grond van aansprakelijkheid ontstaan en is het evenmin van invloed op de vrijstellingen van aansprakelijkheid uit hoofde van die andere rechtshandelingen. Dit voorstel voorziet alleen in een verlichting van de bewijslast voor degenen die door AI-systemen veroorzaakte schade hebben geleden, in geval van vorderingen die gebaseerd kunnen worden op het nationale recht of op deze andere EU-wetgeving. Door deze andere onderdelen aan te vullen, beschermt dit voorstel het recht van gelaedeerden op schadevergoeding uit hoofde van het civiel recht, met inbegrip van schadevergoeding voor schendingen van de grondrechten.

4.GEVOLGEN VOOR DE BEGROTING

Dit voorstel heeft geen gevolgen voor de begroting van de Europese Unie.

5.OVERIGE ELEMENTEN

·Uitvoeringsplannen en monitoring, evaluatie, monitoringprogramma en gerichte herziening

In dit voorstel wordt een gefaseerde aanpak voorgesteld. Om ervoor te zorgen dat er voldoende bewijsmateriaal beschikbaar is voor de gerichte herziening in de tweede fase, zal de Commissie een monitoringplan opstellen waarin wordt aangegeven hoe en hoe vaak gegevens en ander noodzakelijk bewijsmateriaal zullen worden verzameld.

Het monitoringmechanisme kan betrekking hebben op de volgende soorten gegevens en bewijsmateriaal:

rapportage en informatie-uitwisseling door de lidstaten met betrekking tot de toepassing van maatregelen ter verlichting van de bewijslast in nationale gerechtelijke procedures of buitengerechtelijke schikkingsprocedures;

informatie die door de Commissie of markttoezichtautoriteiten is verzameld in het kader van de AI-verordening (met name artikel 62) of andere relevante instrumenten;

informatie en analyses ter ondersteuning van de evaluatie van de AI-verordening en de door de Commissie op te stellen verslagen over de uitvoering van die verordening;

informatie en analyses ter ondersteuning van de beoordeling van relevante toekomstige beleidsmaatregelen in het kader van de veiligheidswetgeving “oude stijl”, om ervoor te zorgen dat producten die in de Unie in de handel worden gebracht, voldoen aan hoge gezondheids-, veiligheids- en milieueisen;

informatie en analyses ter ondersteuning van het verslag van de Commissie over de toepassing van de richtlijn motorrijtuigenverzekering in het licht van de technologische ontwikkelingen (met name op het gebied van autonome en semiautonome voertuigen) overeenkomstig artikel 28 quater, lid 2, punt a), van die richtlijn.

·Artikelsgewijze toelichting

1. Onderwerp en toepassingsgebied (artikel 1)

Deze richtlijn heeft tot doel de werking van de interne markt te verbeteren door uniforme vereisten vast te stellen voor bepaalde aspecten van de niet-contractuele civielrechtelijke aansprakelijkheid voor schade die is veroorzaakt door het gebruik van AI-systemen. Zij bouwt voort op Resolutie 2020/2014 (INL) van het Europees Parlement en past het privaatrecht aan de behoeften in het kader van de overgang naar de digitale economie aan.

Er is maar een beperkt aantal geschikte juridische instrumenten waaruit kan worden gekozen vanwege de aard van het probleem van de bewijslast en de specifieke kenmerken van AI waarop de bestaande regels inzake aansprakelijkheid niet zijn afgestemd. In dit opzicht verlicht deze richtlijn de bewijslast op een zeer gerichte en evenredige wijze door gebruik te maken van openbaarmaking en weerlegbare vermoedens. Voor wie schadevergoeding vordert, voorziet zij in een mogelijkheid om informatie te verkrijgen over op grond van de AI-verordening te registreren/documenteren AI-systemen met een hoog risico. Bovendien zal het weerlegbare vermoeden voor degenen die vergoeding vorderen van door AI-systemen veroorzaakte schade, een redelijker bewijslast en een kans om gerechtvaardigde vorderingen op grond van aansprakelijkheid te doen slagen, inhouden.

Dergelijke instrumenten zijn niet nieuw; zij komen voor in nationale wetgevingen. Zij vormen dan ook nuttige referentiepunten voor het aanpakken van de problemen die AI met betrekking tot bestaande aansprakelijkheidsregels doet ontstaan, op een wijze die zo weinig mogelijk interfereert met de verschillende nationale rechtsstelsels.

Bovendien hebben bedrijven tijdens raadplegingen, naar aanleiding van de vraag over verdergaande wijzigingen, zoals een omkering van de bewijslast of een onweerlegbaar vermoeden, negatieve feedback gegeven. Gerichte maatregelen ter verlichting van de bewijslast in de vorm van weerlegbare vermoedens werden gekozen als pragmatische en passende manieren om gelaedeerden te helpen zich zo doelgericht en evenredig mogelijk van hun bewijslast te kwijten.

Artikel 1 vermeldt het onderwerp en het toepassingsgebied van deze richtlijn: zij is van toepassing op niet-contractuele civielrechtelijke vorderingen tot vergoeding van door een AI-systeem veroorzaakte schade, wanneer dergelijke vorderingen worden ingesteld in het kader van schuldaansprakelijkheidsregelingen. Daarbij gaat het namelijk om regelingen die voorzien in een wettelijke verantwoordelijkheid om schade te vergoeden die opzettelijk, door nalatigheid of door nalaten is veroorzaakt. De maatregelen waarin deze richtlijn voorziet, kunnen soepel binnen de bestaande civielrechtelijke aansprakelijkheidsstelsels worden ingepast, aangezien zij uitgaan van een benadering die niet raakt aan de definitie van fundamentele begrippen als “schuld” of “schade”, in aanmerking nemend dat de betekenis van deze begrippen van lidstaat tot lidstaat aanzienlijk verschilt. Deze richtlijn doet dus, afgezien van de vermoedens die zij invoert, geen afbreuk aan de regels van de Unie of de lidstaten waarbij bijvoorbeeld wordt bepaald welke partij de bewijslast draagt, welke mate van zekerheid vereist is met betrekking tot de bewijsstandaard, of hoe schuld wordt gedefinieerd.

Bovendien laat deze richtlijn de bestaande regels inzake de aansprakelijkheidsvoorwaarden in de vervoerssector en de regels van de wet inzake digitale diensten onverlet.

Hoewel deze richtlijn niet van toepassing is op strafrechtelijke aansprakelijkheid, kan zij van toepassing zijn met betrekking tot overheidsaansprakelijkheid. Overheidsinstanties vallen ook onder de bepalingen van de AI-verordening voor zover zij onderworpen zijn aan de daarin neergelegde verplichtingen.

Deze richtlijn is niet met terugwerkende kracht van toepassing, maar alleen van toepassing op vorderingen tot vergoeding van schade die zich voordoet vanaf de datum van omzetting ervan.

Het voorstel voor deze richtlijn is samen met het voorstel voor een herziening van Richtlijn 85/374/EEG inzake productaansprakelijkheid goedgekeurd in het kader van een pakket, dat tot doel heeft de aansprakelijkheidsregels aan te passen aan het digitale tijdperk en AI en de nodige afstemming tussen deze twee elkaar aanvullende rechtsinstrumenten te waarborgen.

2.Definities (artikel 2)

De definities in artikel 2 volgen die van de AI-verordening zodat consistentie is gewaarborgd.

Artikel 2, lid 6, punt b), bepaalt dat vorderingen tot schadevergoeding niet alleen kunnen worden ingesteld door de gelaedeerde persoon, maar ook door personen die in de rechten van de benadeelde persoon zijn opgevolgd of gesubrogeerd. Subrogatie is de overname door een derde (zoals een verzekeringsmaatschappij) van het wettelijke recht van een andere partij om een schuld of schadevergoeding te innen. Één persoon heeft dus het recht om de rechten van een ander ten eigen gunste te doen gelden. Subrogatie zou zich ook uitstrekken tot erfgenamen van een overleden gelaedeerde.

Bovendien is in artikel 2, lid 6, punt c), bepaald dat een vordering tot schadevergoeding ook kan worden ingesteld door iemand die namens een of meer gelaedeerde partijen handelt, overeenkomstig het Unierecht of het nationale recht. Deze bepaling heeft tot doel personen die door een AI-systeem schade hebben geleden, meer mogelijkheden te bieden om hun vorderingen door een rechtbank te laten beoordelen, zelfs in gevallen waarin individuele vorderingen te duur of te omslachtig lijken te zijn, of wanneer gezamenlijke acties schaalvoordelen kunnen opleveren. Om degenen die door AI-systemen veroorzaakte schade hebben geleden in staat te stellen hun rechten met betrekking tot deze richtlijn af te dwingen door middel van representatieve vorderingen, wordt bijlage I bij Richtlijn (EU) 2020/1828 door artikel 6 gewijzigd.

3.Openbaarmaking van bewijsmateriaal (artikel 3)

Deze richtlijn heeft tot doel personen die vergoeding vragen voor schade die is veroorzaakt door AI-systemen met een hoog risico, doeltreffende middelen te verschaffen om potentieel aansprakelijke personen en relevant bewijsmateriaal voor een vordering te identificeren. Tegelijkertijd dienen dergelijke middelen om te voorkomen dat personen onterecht als potentiële verweerder worden geïdentificeerd, waardoor de betrokken partijen tijd en kosten worden bespaard en de werklast voor de rechtbanken wordt verminderd.

In dit verband bepaalt artikel 3, lid 1, van de richtlijn dat een rechter de openbaarmaking kan gelasten van relevant bewijsmateriaal over specifieke AI-systemen met een hoog risico waarvan wordt vermoed dat zij schade hebben veroorzaakt. Verzoeken om bewijs worden gericht aan de aanbieder van het desbetreffende AI-systeem, eenieder voor wie de verplichtingen van de aanbieder van artikel 24 of artikel 28, lid 1, van de AI-verordening gelden, of een gebruiker in de zin van de AI-verordening. Het verzoek moeten worden gestaafd met feiten en bewijsmateriaal die volstaan om de geloofwaardigheid van de voorgenomen vordering tot schadevergoeding aan te tonen en het gevraagde bewijsmateriaal moet ter beschikking staan van degene aan wie het verzoek is gericht. Verzoeken kunnen niet worden gericht aan partijen die geen verplichtingen uit hoofde van de AI-verordening en daarom geen toegang tot het bewijsmateriaal hebben.

Overeenkomstig artikel 3, lid 2, kan de eiser aanbieders of gebruikers die geen verweerder zijn, alleen om openbaarmaking van bewijsmateriaal verzoeken indien hij tevergeefs alles heeft gedaan wat redelijk is om het bewijsmateriaal van de verweerder te verkrijgen.

Om de doeltreffendheid van de rechtsmiddelen middelen te waarborgen, bepaalt artikel 3, lid 3, van de richtlijn dat een gerecht ook de bewaring van dergelijk bewijsmateriaal kan gelasten.

Zoals bepaald in artikel 3, lid 4, eerste alinea, kan de rechter een dergelijke openbaarmaking slechts gelasten voor zover dat nodig is om de vordering te staven, aangezien de informatie kritisch bewijs kan zijn voor de vordering van de gelaedeerde persoon in het geval van schade waarbij AI-systemen zijn gebruikt.

Door de verplichting tot openbaarmaking of bewaring te beperken tot noodzakelijk bewijsmateriaal dat evenredig is aan het doel ervan, beoogt artikel 3, lid 4, eerste alinea, de evenredigheid bij de openbaarmaking van bewijsmateriaal te waarborgen, d.w.z. de openbaarmaking tot het noodzakelijke minimum te beperken en niet-specifieke verzoeken te voorkomen.

Met artikel 3, lid 4, tweede en derde alinea, wordt voorts beoogd een evenwicht te vinden tussen de rechten van de eiser en de noodzaak ervoor te zorgen dat voor die openbaarmaking waarborgen gelden ter bescherming van de legitieme belangen van alle betrokken partijen, onder meer wat betreft bedrijfsgeheimen of vertrouwelijke informatie.

In dezelfde context heeft artikel 3, lid 4, vierde alinea, tot doel ervoor te zorgen dat degene op wie het bevel tot openbaarmaking of bewaring betrekking heeft, rechtsmiddelen tegen dat bevel kan instellen.

Artikel 3, lid 5, voert een vermoeden van niet-nakoming van een zorgvuldigheidsplicht in. Dit is een procedureel instrument dat alleen relevant is in gevallen waarin het de eigenlijke verweerder in het kader van een vordering tot schadevergoeding is die de gevolgen draagt van het niet voldoen aan een verzoek tot openbaarmaking of bewaring van bewijsmateriaal. De verweerder zal het recht hebben dit vermoeden te weerleggen. De in dit lid beschreven maatregel heeft tot doel niet alleen de openbaarmaking te bevorderen, maar ook de gerechtelijke procedures te bespoedigen.

4.Vermoeden van causaal verband in geval van schuld (artikel 4)

Deze richtlijn heeft met betrekking tot door AI-systemen veroorzaakte schade tot doel een doeltreffende basis te bieden voor het vorderen van schadevergoeding in verband met schuld die bestaat in de niet-nakoming van een zorgvuldigheidsplicht uit hoofde van het Unierecht of het nationale recht.

Het kan voor eisers een probleem zijn om een causaal verband vast te stellen tussen een dergelijke niet-nakoming en de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem om een output te genereren waardoor de desbetreffende schade is ontstaan. Daarom is in artikel 4, lid 1, voorzien in een specifiek weerlegbaar vermoeden van causaal verband. Een dergelijk vermoeden is de minst belastende maatregel om tegemoet te komen aan de noodzaak van een billijke schadevergoeding voor de gelaedeerde.

De schuld van de verweerder moet door de eiser worden aangetoond overeenkomstig de toepasselijke Unie- of nationale voorschriften. Een dergelijke schuld kan bijvoorbeeld worden vastgesteld in geval van niet-nakoming van een zorgvuldigheidsplicht uit hoofde van de AI-verordening of andere regels die op het niveau van de Unie zijn vastgesteld, zoals regels voor het gebruik van geautomatiseerde monitoring en besluitvorming voor platformwerk of regels voor de exploitatie van onbemande luchtvaartuigen. Een dergelijke schuld kan ook door de rechter worden aangenomen op grond van de niet-nakoming van een rechterlijk bevel tot openbaarmaking of bewaring van bewijsmateriaal overeenkomstig artikel 3, lid 5. Toch is het alleen passend om een vermoeden van causaal verband aan te voeren wanneer het waarschijnlijk kan worden geacht dat de desbetreffende schuld de output van het betrokken AI-systeem of het ontbreken daarvan heeft beïnvloed, hetgeen kan worden beoordeeld op basis van de algemene omstandigheden van de zaak. Tegelijkertijd moet de eiser altijd nog bewijzen dat het AI-systeem (d.w.z. de output of het verzuim die te genereren) de schade heeft veroorzaakt.

In de leden 2 en 3 wordt onderscheid gemaakt tussen enerzijds vorderingen die zijn ingesteld tegen de aanbieder van een AI-systeem met een hoog risico of tegen een persoon voor wie de verplichtingen van de aanbieder uit hoofde van de AI-verordening gelden, en anderzijds vorderingen die zijn ingesteld tegen de gebruiker van dergelijke systemen. In dit opzicht volgt het artikel de respectieve bepalingen en relevante voorwaarden van de AI-verordening. In het geval van vorderingen op grond van artikel 4, lid 2, moet de nakoming door verweerders van de in dat lid genoemde verplichtingen ook worden beoordeeld in het licht van het risicobeheersysteem en de resultaten daarvan, d.w.z. de risicobeheersmaatregelen, overeenkomstig de AI-verordening.

In het geval van AI-systemen met een hoog risico zoals gedefinieerd in de AI-verordening voorziet artikel 4, lid 4, in een uitzondering inzake het vermoeden van causaal verband, wanneer de verweerder aantoont dat de eiser redelijkerwijs over voldoende bewijsmateriaal en deskundigheid kan beschikken om het causaal verband aan te tonen. Deze mogelijkheid kan verweerders aanzetten tot inachtneming van hun verplichtingen tot openbaarmaking, de in de AI-verordening vastgestelde maatregelen om een hoog niveau van transparantie van de AI te waarborgen of de vereisten inzake documentatie en registratie.

In het geval van AI-systemen zonder hoog risico stelt artikel 4, lid 5, een voorwaarde voor de toepasselijkheid van het vermoeden van causaal verband, waarbij het aan de rechter staat om te oordelen of het voor de eiser uiterst moeilijk is om het causaal verband aan te tonen. Dergelijke moeilijkheden moeten worden beoordeeld in het licht van de kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, die de uitleg van de interne werking van het AI-systeem in de praktijk zeer moeilijk maken, met negatieve gevolgen voor de mogelijkheid voor de eiser om het causaal verband tussen de schuld van de verweerder en de AI-output aan te tonen.

In het geval waarin de verweerder het AI-systeem gebruikt in het kader van een persoonlijke, niet-professionele activiteit, bepaalt artikel 4, lid 6, dat het vermoeden van causaal verband alleen van toepassing dient te zijn wanneer de verweerder de voorwaarden voor de werking van het AI-systeem wezenlijk heeft verstoord of wanneer de verweerder verplicht en in staat was de voorwaarden voor de werking van het AI-systeem vast te stellen en dit heeft nagelaten. Deze voorwaarde wordt gerechtvaardigd door de noodzaak om de belangen van gelaedeerde personen en niet-professionele gebruikers tegen elkaar af te wegen door in de gevallen waarin niet-professionele gebruikers door hun gedrag geen extra risico opleveren, niet uit te gaan van een vermoeden van causaal verband.

Ten slotte bepaalt artikel 4, lid 7, dat de verweerder het recht heeft om het op artikel 4, lid 1, gebaseerde vermoeden van causaal verband te weerleggen.

Dergelijke effectieve regels inzake civielrechtelijke aansprakelijkheid hebben het bijkomend voordeel dat zij alle personen die betrokken zijn bij activiteiten in verband met AI-systemen een extra stimulans geven om hun verplichtingen met betrekking tot het van hen verwachte gedrag, na te komen.

5.Evaluatie en gerichte herziening (artikel 5)

De nationale rechtsstelsels voorzien in verschillende risicoaansprakelijkheidsregelingen. Elementen voor een dergelijke regeling op EU-niveau werden door het Europees Parlement ook aangedragen in zijn initiatiefresolutie van 20 oktober 2020 en deze bestonden uit een beperkte risicoaansprakelijkheidsregeling voor bepaalde op AI gebaseerde technologieën en een vereenvoudigde bewijslast op grond van regels op het gebied van schuldaansprakelijkheid. Uit de openbare raadplegingen is ook gebleken dat de respondenten (met uitzondering van de niet-kmo's) de voorkeur geven aan een dergelijke regeling, al dan niet gekoppeld aan een verplichte verzekering.

In het voorstel wordt echter rekening gehouden met de verschillen tussen de nationale rechtstradities en met het feit dat het soort producten en diensten die zijn uitgerust met AI-systemen die van invloed kunnen zijn op het grote publiek en belangrijke wettelijke rechten in gevaar kunnen brengen, zoals het recht op leven, gezondheid en eigendom, en derhalve onderworpen zouden kunnen zijn aan een risicoaansprakelijkheidsregeling, nog niet algemeen beschikbaar zijn op de markt.

Er wordt een monitoringprogramma opgezet om de Commissie informatie te verstrekken over incidenten waarbij AI-systemen betrokken zijn. Bij de gerichte herziening zal worden nagegaan of aanvullende maatregelen nodig zijn, zoals de invoering van een risicoaansprakelijkheidsregeling en/of verplichte verzekering.

6.Omzetting (artikel 7)

Wanneer de lidstaten de Commissie in kennis stellen van nationale omzettingsmaatregelen om aan deze richtlijn te voldoen, moeten zij ook toelichtende stukken verstrekken die voldoende duidelijke en nauwkeurige informatie bevatten en, voor elke bepaling van deze richtlijn de nationale bepaling(en) vermelden die de omzetting waarborg(t)(en). Dit is noodzakelijk om de Commissie in staat te stellen voor elke bepaling van de richtlijn die omzetting vereist, het relevante deel van de nationale omzettingsmaatregelen vast te stellen waarmee de overeenkomstige wettelijke verplichting in de nationale rechtsorde in het leven wordt geroepen, ongeacht de door de lidstaten gekozen vorm.



2022/0303 (COD)

Voorstel voor een

RICHTLIJN VAN HET EUROPEES PARLEMENT EN DE RAAD

betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI).

(Voor de EER relevante tekst)

HET EUROPEES PARLEMENT EN DE RAAD VAN DE EUROPESE UNIE,

Gezien het Verdrag betreffende de werking van de Europese Unie, en met name artikel 114,

Gezien het voorstel van de Europese Commissie,

Na toezending van het ontwerp van wetgevingshandeling aan de nationale parlementen,

Gezien het advies van het Europees Economisch en Sociaal Comité 29 ,

Gezien het advies van het Comité van de Regio's 30 ,

Handelend volgens de gewone wetgevingsprocedure,

Overwegende hetgeen volgt:

(1)Artificiële intelligentie (“AI”) bestaat in een reeks sleuteltechnologieën die kunnen bijdragen aan een brede waaier van voordelen in het hele spectrum van economie en maatschappij. Zij biedt een groot potentieel voor technologische vooruitgang en maakt nieuwe bedrijfsmodellen mogelijk in tal van sectoren van de digitale economie.

(2)Tegelijkertijd kan AI, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, risico’s opleveren en schade toebrengen aan de belangen en rechten die door de Unie- of nationale wetgeving worden beschermd. Het gebruik van AI kan bijvoorbeeld negatieve gevolgen hebben voor een aantal grondrechten, waaronder het recht op leven, het recht op fysieke integriteit, het recht op non-discriminatie en het recht op gelijke behandeling. Verordening (EU).../... van het Europees Parlement en de Raad [de AI-verordening] 31 voorziet in voorschriften om de risico’s voor de veiligheid en de grondrechten te beperken, terwijl andere rechtsinstrumenten van de Unie voorzien in algemene 32 en sectorale productveiligheidsvoorschriften die ook van toepassing zijn op op AI gebaseerde machineproducten 33 en radioapparatuur 34 . Hoewel dergelijke voorschriften die bedoeld zijn om de risico’s voor de veiligheid en de grondrechten te verminderen, het oogmerk hebben om risico’s te voorkomen, te monitoren en aan te pakken en zodoende in te spelen op maatschappelijke punten van zorg, bieden zij degenen die door AI schade hebben geleden geen individuele genoegdoening. De bestaande voorschriften voorzien met name in vergunningen, controles, monitoring en administratieve sancties met betrekking tot AI-systemen, teneinde schade te voorkomen. Zij voorzien niet in vergoeding voor de gelaedeerde persoon van schade die is veroorzaakt door output of het verzuim output te genereren door middel van een AI-systeem.

(3)Wanneer een gelaedeerde persoon vergoeding van geleden schade vordert, vereisen de algemene regels inzake schuldaansprakelijkheid van de lidstaten doorgaans dat die persoon het bewijs levert van een schade toebrengend doen of nalaten waarbij sprake is van onzorgvuldigheid of opzet (“schuld”) van de persoon die voor die schade aansprakelijk kan worden gesteld, alsmede van een causaal verband tussen die schuld en de desbetreffende schade. Wanneer AI echter een tussenschakel vormt tussen het doen of nalaten van een persoon en de schade, kunnen de specifieke kenmerken van bepaalde AI-systemen, zoals ondoorzichtigheid, autonoom gedrag en complexiteit, het voor de gelaedeerde uiterst moeilijk, zo niet onmogelijk maken om aan deze bewijslast te voldoen. Het kan met name uiterst moeilijk zijn om aan te tonen dat een specifieke input waarvoor de potentieel aansprakelijke persoon verantwoordelijk is, een specifieke output van AI-systemen heeft veroorzaakt die tot de betrokken schade heeft geleid.

(4)In dergelijke gevallen kan het niveau van verhaal dat door nationale wettelijke aansprakelijkheidsregels wordt geboden, lager zijn dan in gevallen waarin andere technologieën dan AI betrokken zijn bij het veroorzaken van schade. Dergelijke compensatielacunes kunnen bijdragen tot een lager maatschappelijk draagvlak voor AI en minder vertrouwen in op AI gebaseerde producten en diensten.

(5)Om de economische en maatschappelijke voordelen van AI te benutten en de transitie naar de digitale economie te bevorderen, moeten bepaalde nationale regels inzake civielrechtelijke aansprakelijkheid op gerichte wijze worden aangepast aan die specifieke kenmerken van bepaalde AI-systemen. Dergelijke aanpassingen moeten bijdragen tot het vertrouwen van de samenleving en de consument en aldus de uitrol van AI bevorderen. Dergelijke aanpassingen moeten ook het vertrouwen in het rechtsstelsel in stand houden door ervoor te zorgen dat degenen die schade hebben geleden die is veroorzaakt door het gebruik van AI, dezelfde effectieve schadevergoeding krijgen als degenen die door andere technologieën veroorzaakte schade hebben geleden.

(6)Belanghebbenden – gelaedeerden, potentieel aansprakelijke personen, verzekeraars – worden geconfronteerd met rechtsonzekerheid in verband met de wijze waarop nationale rechtbanken, wanneer zij te maken krijgen met de specifieke problemen van AI, de bestaande aansprakelijkheidsregels in individuele gevallen kunnen toepassen teneinde rechtvaardige resultaten te bereiken. Wanneer de Unie niet optreedt, zullen op zijn minst sommige lidstaten hun regels inzake wettelijke aansprakelijkheid waarschijnlijk aanpassen om compensatielacunes en rechtsonzekerheid in verband met de specifieke kenmerken van bepaalde AI-systemen aan te pakken. Dit zou leiden tot juridische versnippering en belemmeringen voor de interne markt voor bedrijven die innovatieve, op AI gebaseerde producten of diensten ontwikkelen of aanbieden. Met name kleine en middelgrote ondernemingen zouden worden getroffen.

(7)Het doel van deze richtlijn bestaat erin bij te dragen tot de goede werking van de interne markt door bepaalde nationale regels inzake niet-contractuele schuldaansprakelijkheid te harmoniseren, teneinde ervoor te zorgen dat personen die vergoeding vorderen van schade die hun door een AI-systeem is berokkend, een beschermingsniveau genieten dat gelijkwaardig is aan dat van personen die vergoeding vorderen voor schade die is veroorzaakt zonder betrokkenheid van een AI-systeem. Deze doelstelling kan niet voldoende door de lidstaten worden verwezenlijkt omdat de desbetreffende belemmeringen voor de interne markt te maken hebben met het risico van unilaterale en versnipperde regelgevende maatregelen op nationaal niveau. Gezien het digitale karakter van de producten en diensten die binnen het toepassingsgebied van deze richtlijn vallen, is deze laatste met name in een grensoverschrijdende context relevant.

(8)De doelstelling rechtszekerheid te waarborgen en compensatielacunes te voorkomen in gevallen waarin AI-systemen worden gebruikt, kan dus beter op het niveau van de Unie worden verwezenlijkt. De Unie kan derhalve maatregelen nemen overeenkomstig het in artikel 5 VEU vastgelegde subsidiariteitsbeginsel. Overeenkomstig het in hetzelfde artikel neergelegde evenredigheidsbeginsel gaat deze richtlijn niet verder dan nodig is om die doelstelling te verwezenlijken.

(9)Het is daarom nodig specifieke aspecten van schuldaansprakelijkheidsregels op het niveau van de Unie gericht te harmoniseren. Een dergelijke harmonisatie moet de rechtszekerheid vergroten en een gelijk speelveld voor AI-systemen creëren, waardoor de werking van de interne markt wat betreft de productie en verspreiding van op AI gebaseerde producten en diensten, wordt verbeterd.

(10)Om evenredigheid te waarborgen, is het passend om alleen die schuldaansprakelijkheidsregels specifiek te harmoniseren die van toepassing zijn op de bewijslast voor personen die vergoeding vorderen van door AI-systemen veroorzaakte schade. Deze richtlijn mag geen algemene aspecten van civielrechtelijke aansprakelijkheid harmoniseren die door de nationale wettelijke aansprakelijkheidsregels op uiteenlopende wijze worden geregeld, zoals de definitie van schuld of causaal verband, de verschillende soorten schade die tot vorderingen tot schadevergoeding leiden, de verdeling van aansprakelijkheid over meerdere plegers, deelneming en medeplichtigheid, de berekening van schade of verjaringstermijnen.

(11)De wetgevingen van de lidstaten betreffende de aansprakelijkheid van producenten voor schade als gevolg van gebreken van hun producten zijn reeds op het niveau van de Unie geharmoniseerd bij Richtlijn 85/374/EEG van de Raad 35 . Deze wetgevingen doen echter geen afbreuk aan de regels van de lidstaten inzake contractuele of niet-contractuele aansprakelijkheid, zoals de regels inzake garanties, schuld of risicoaansprakelijkheid, die op andere gronden rusten dan de gebrekkigheid van het product. Omdat tegelijkertijd met de herziening van Richtlijn 85/374/EEG van de Raad wordt beoogd duidelijk te maken en ervoor te zorgen dat een gelaedeerde schadevergoeding kan vorderen voor schade die is veroorzaakt door gebrekkige op AI gebaseerde producten, moet daarom worden verduidelijkt dat de bepalingen van deze richtlijn geen afbreuk doen aan de rechten die een gelaedeerde kan ontlenen aan nationale voorschriften ter uitvoering van Richtlijn 85/374/EEG. Bovendien moet, op het gebied van vervoer, het Unierecht inzake de aansprakelijkheid van vervoerders door deze richtlijn onverlet blijven.

(12)[De wet inzake digitale diensten] 36 harmoniseert de regels die van toepassing zijn op aanbieders van tussenhandelsdiensten op de interne markt volledig en dekt de maatschappelijke risico’s die voortvloeien uit de door die aanbieders aangeboden diensten, ook wat betreft de AI-systemen die zij gebruiken. Deze richtlijn doet geen afbreuk aan de bepalingen van [de wet inzake digitale diensten] die voorzien in een alomvattend en volledig geharmoniseerd kader voor zorgvuldigheidsverplichtingen voor algoritmische besluitvorming door aanbieders van hostingdiensten, met inbegrip van de vrijstelling van aansprakelijkheid voor de verspreiding van illegale inhoud die door afnemers van hun diensten is geüpload, indien aan de voorwaarden van die verordening is voldaan.

(13)Anders dan met betrekking tot de vermoedens die zij regelt, harmoniseert deze richtlijn geen nationale wetgevingen waar het gaat om de vraag welke partij de bewijslast draagt of welke mate van zekerheid vereist is met betrekking tot de bewijsstandaard. 

(14)Deze richtlijn moet een aanpak volgen waarbij minimale harmonisatie plaatsvindt. Een dergelijke benadering stelt eisers in geval van door AI-systemen veroorzaakte schade in staat om zich te beroepen op gunstigere regels van nationaal recht. Zo zouden nationale wetten bijvoorbeeld de omkering van de bewijslast kunnen handhaven in het kader van nationale regelingen inzake schuldaansprakelijkheid, of nationale regelingen inzake risicoaansprakelijkheid, waaraan er in de nationale wetgevingen reeds een grote verscheidenheid bestaat, en die mogelijk van toepassing zijn op door AI-systemen veroorzaakte schade.

(15)Er moet ook worden gezorgd voor samenhang met [de AI-verordening]. Het is daarom passend dat in deze richtlijn dezelfde definities worden gebruikt met betrekking tot AI-systemen, aanbieders en gebruikers. Bovendien mag deze richtlijn alleen van toepassing zijn op vorderingen tot vergoeding van schade die is veroorzaakt door een output van of het verzuim output te genereren door een AI-systeem als gevolg van de schuld van een persoon, bijvoorbeeld de aanbieder of de gebruiker in de zin van [de AI-verordening]. Vorderingen op grond van aansprakelijkheid hoeven niet te worden bestreken wanneer de schade is veroorzaakt door een menselijke beoordeling die wordt gevolgd door een menselijk doen of nalaten, terwijl het AI-systeem slechts informatie of advies heeft verstrekt waarmee de betrokken menselijke actor rekening heeft gehouden. In het laatste geval is het mogelijk de schade te herleiden tot een menselijk doen of nalaten, aangezien de output van het AI-systeem geen tussenschakel vormt tussen het menselijk doen of nalaten en de schade, zodat het vaststellen van een causaal verband niet moeilijker is dan in situaties waarin geen AI-systeem wordt gebruikt.

(16)Toegang tot informatie over specifieke AI-systemen met een hoog risico waarvan wordt vermoed dat zij schade hebben veroorzaakt, is een belangrijke factor om vast te kunnen stellen of schadevergoeding moet worden gevorderd en om vorderingen tot schadevergoeding te motiveren. Bovendien voorziet [de AI-verordening] voor AI-systemen met een hoog risico in specifieke documentatie-, informatie- en registratievereisten, maar biedt zij de gelaedeerde geen recht op toegang tot die informatie. Het is derhalve passend regels vast te stellen voor de openbaarmaking van relevant bewijsmateriaal door degenen die over dat bewijsmateriaal beschikken, teneinde de aansprakelijkheid vast te kunnen stellen. Dit moet ook een extra stimulans bieden om te voldoen aan de desbetreffende vereisten van [de AI-verordening] om de relevante informatie te documenteren of te registreren.

(17)Het grote aantal mensen dat gewoonlijk betrokken is bij het ontwerp, de ontwikkeling, de uitrol en de exploitatie van AI-systemen met een hoog risico maakt het voor gelaedeerden moeilijk om te bepalen wie eventueel aansprakelijk is voor de veroorzaakte schade en om aan te tonen dat aan de voorwaarden voor een vordering tot schadevergoeding is voldaan. Om gelaedeerden in staat te stellen na te gaan of een vordering tot schadevergoeding gegrond is, is het passend potentiële eisers het recht te verlenen om een rechter te verzoeken de openbaarmaking van relevant bewijsmateriaal te gelasten voordat zij een vordering tot schadevergoeding indienen. Een dergelijke openbaarmaking mag alleen worden gelast wanneer de potentiële eiser feiten en informatie aandraagt die toereikend zijn om de geloofwaardigheid van een vordering tot schadevergoeding te staven en hij vooraf de aanbieder, de persoon voor wie de verplichtingen van een aanbieder gelden of de gebruiker, heeft verzocht om dergelijk tot diens beschikking staand bewijsmateriaal over specifieke AI-systemen met een hoog risico, waarvan wordt vermoed dat zij schade hebben veroorzaakt, openbaar te maken en dat verzoek is geweigerd. Het gelasten van openbaarmaking moet leiden tot een vermindering van onnodige rechtszaken en het vermijden van kosten voor eventuele procespartijen als gevolg van vorderingen die ongerechtvaardigd zijn of waarschijnlijk zullen worden afgewezen. De weigering van de aanbieder, de persoon voor wie de verplichtingen van een aanbieder gelden of de gebruiker om, voorafgaand aan het verzoek aan de rechter, bewijsmateriaal openbaar te maken, mag niet leiden tot het vermoeden dat de persoon die een dergelijke openbaarmaking weigert, zijn relevante zorgvuldigheidsplichten niet nakomt.

(18)De beperking van de openbaarmaking van bewijsmateriaal met betrekking tot AI-systemen met een hoog risico strookt met [de AI-verordening], die voorziet in bepaalde specifieke verplichtingen met betrekking tot documentatie, registratie en informatie voor exploitanten die betrokken zijn bij het ontwerp, de ontwikkeling en de uitrol van AI-systemen met een hoog risico. Een dergelijke consistentie zorgt ook voor de noodzakelijke evenredigheid door te vermijden dat van exploitanten van AI-systemen met een lager of geen risico wordt verwacht dat zij informatie vastleggen op een niveau dat vergelijkbaar is met het niveau dat op grond van [de AI-verordening] voorgeschreven is voor AI-systemen met een hoog risico.

(19)Nationale rechtbanken moeten in de loop van civiele procedures kunnen gelasten dat relevant bewijsmateriaal met betrekking tot de door AI-systemen met een hoog risico veroorzaakte schade openbaar wordt gemaakt of wordt bewaard door personen die, als verweerder of als derde partij bij de vordering, op grond van [de AI-verordening] reeds verplicht zijn informatie te documenteren of te registreren, ongeacht of het gaat om aanbieders, personen voor wie dezelfde verplichtingen gelden als voor aanbieders, of gebruikers van een AI-systeem. Er zouden zich situaties kunnen voordoen waarin het voor de zaak relevante bewijsmateriaal in het bezit is van entiteiten die geen partij zijn bij de vordering tot schadevergoeding, maar die op grond van [de AI-verordening] wel verplicht zijn dergelijk bewijsmateriaal te documenteren of registreren. Het is dus noodzakelijk te bepalen onder welke voorwaarden deze derde partijen bij de vordering kunnen worden gelast het relevante bewijsmateriaal openbaar te maken.

(20)Om het evenwicht te bewaren tussen de belangen van de partijen die betrokken zijn bij de vordering tot schadevergoeding en die van de betrokken derde partijen, dienen de rechtbanken de openbaarmaking van bewijsmateriaal alleen te gelasten indien dit noodzakelijk en evenredig is om de vordering of potentiële vordering tot schadevergoeding te ondersteunen. In dit verband mag de openbaarmaking alleen betrekking hebben op bewijsmateriaal dat noodzakelijk is voor een beslissing over de desbetreffende vordering tot schadevergoeding, bijvoorbeeld alleen op de delen van de relevante registers of gegevensreeksen die nodig zijn om de niet-nakoming van een in [de AI-verordening] gestelde eis aan te tonen. Om de evenredigheid van dergelijke openbaarmakings- of bewaringsmaatregelen te waarborgen, moeten de nationale rechterlijke instanties over doeltreffende middelen beschikken om de legitieme belangen van alle betrokken partijen te waarborgen, bijvoorbeeld het belang van de bescherming van bedrijfsgeheimen in de zin van Richtlijn (EU) 2016/943 van het Europees Parlement en de Raad 37 en van vertrouwelijke informatie, zoals informatie in verband met de openbare of nationale veiligheid. Met betrekking tot bedrijfsgeheimen of vermeende bedrijfsgeheimen die de rechtbank als vertrouwelijk in de zin van Richtlijn (EU) 2016/943 heeft aangemerkt, moeten de nationale rechterlijke instanties de bevoegdheid krijgen om specifieke maatregelen te nemen om de vertrouwelijkheid van die geheimen tijdens en na de procedure te waarborgen, waarbij een billijk en evenredig evenwicht moet worden bereikt tussen het belang van de houder van het bedrijfsgeheim bij geheimhouding en het belang van de gelaedeerde. Deze bevoegdheid moet zich uitstrekken tot maatregelen om de toegang tot documenten die bedrijfsgeheimen bevatten en tot hoorzittingen of documenten en transcripties daarvan tot een beperkt aantal personen te beperken. Wanneer de nationale rechterlijke instanties over dergelijke maatregelen beslissen, dan moeten zij rekening houden met de noodzaak het recht op een doeltreffende voorziening in rechte en op een eerlijk proces te waarborgen, alsook met de rechtmatige belangen van de partijen en, indien van toepassing, van derde partijen, en met de mogelijke schade voor een van de partijen of, indien van toepassing, voor derde partijen, als gevolg van het gelasten of afwijzen van dergelijke maatregelen. Om een evenredige toepassing van een openbaarmakingsmaatregel ten aanzien van derde partijen in het kader van vorderingen tot schadevergoeding te waarborgen, mogen de nationale rechters bovendien derde partijen alleen gelasten om bewijsmateriaal openbaar te maken als het bewijsmateriaal niet van de verweerder kan worden verkregen.

(21)Hoewel de nationale rechterlijke instanties over de middelen beschikken om hun bevelen tot openbaarmaking door middel van verschillende maatregelen ten uitvoer te leggen, kunnen dergelijke dwangmaatregelen de behandeling van vorderingen tot schadevergoeding vertragen en aldus extra kosten voor de justitiabelen met zich meebrengen. Voor gelaedeerden kunnen dergelijke vertragingen en extra kosten hun beroep op een doeltreffende voorziening in rechte bemoeilijken. Wanneer een verweerder in het kader van een vordering tot schadevergoeding hem ter beschikking staand bewijsmateriaal niet openbaar maakt zoals door de rechter gelast, is het passend om uit te gaan van een vermoeden van niet-nakoming van de zorgvuldigheidsplicht die met dit bewijsmateriaal juist had moeten worden aangetoond. Dit weerlegbare vermoeden zal de duur van rechtszaken verkorten en de efficiëntie van gerechtelijke procedures bevorderen. De verweerder moet dit vermoeden kunnen weerleggen door bewijs van het tegendeel over te leggen.

(22)Om de moeilijkheden te verhelpen bij het aantonen dat een specifieke input waarvoor de potentieel aansprakelijke persoon verantwoordelijk is, een specifieke output van een AI-systeem heeft veroorzaakt die tot de betrokken schade heeft geleid, is het wenselijk om, onder bepaalde voorwaarden, in een vermoeden van causaal verband te voorzien. Hoewel de eiser in het kader van een op schuld gebaseerde vordering gewoonlijk de schade, het menselijke doen of nalaten waarin de schuld van verweerder bestaat en het causaal verband tussen schade en schuld moet bewijzen, worden door deze richtlijn de voorwaarden waaronder de nationale rechter schuld vaststelt, niet geharmoniseerd. Daarvoor blijven het toepasselijke nationale recht en, indien geharmoniseerd, het toepasselijke Unierecht gelden. Evenmin harmoniseert deze richtlijn de voorwaarden met betrekking tot de schade – bijvoorbeeld welke schade voor vergoeding in aanmerking komt – waarvoor ook het toepasselijke nationale recht en het toepasselijke Unierecht blijven gelden. Wil het vermoeden van een causaal verband op grond van deze richtlijn van toepassing zijn, dan moet de schuld van de verweerder worden vastgesteld als een menselijk doen of nalaten dat niet voldoet aan een zorgvuldigheidsplicht uit hoofde van het Unierecht of het nationale recht die rechtstreeks bedoeld is om bescherming te bieden tegen de geleden schade. Van dit vermoeden kan bijvoorbeeld sprake zijn in het kader van een vordering tot schadevergoeding wegens lichamelijk letsel, wanneer de rechter vaststelt dat de verweerder schuldig is omdat hij de gebruiksaanwijzing die bedoeld is om te voorkomen dat natuurlijke personen schade lijden, niet in acht heeft genomen. Niet-nakoming van zorgvuldigheidsplichten die niet rechtstreeks bedoeld waren om te beschermen tegen schade die zich heeft voorgedaan, leidt niet tot de toepassing van het vermoeden; het verzuim van een aanbieder om de vereiste documentatie bij de bevoegde autoriteiten in te dienen, zou bijvoorbeeld niet leiden tot de toepassing van het vermoeden in het kader van vorderingen tot schadevergoeding wegens lichamelijk letsel. Er zou ook moeten worden vastgesteld dat, op basis van de omstandigheden van het geval, redelijkerwijs kan worden aangenomen dat de schuld van invloed was op de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem output te genereren. Ten slotte moet van de eiser nog steeds worden verlangd dat hij aantoont dat de output of het verzuim output te genereren, de schade heeft veroorzaakt.

(23)Een dergelijke schuld kan worden vastgesteld met betrekking tot niet-nakoming van regels van de Unie die specifiek van toepassing zijn op AI-systemen met een hoog risico, zoals de voorschriften die bij [de AI-verordening] voor bepaalde AI-systemen met een hoog risico zijn ingevoerd, voorschriften die bij toekomstige sectorale wetgeving kunnen worden ingevoerd voor andere AI-systemen met een hoog risico overeenkomstig [artikel 2, lid 2, van de AI-verordening], of zorgvuldigheidsplichten die verband houden met bepaalde activiteiten en die van toepassing zijn ongeacht of voor die activiteit AI wordt gebruikt. Tegelijkertijd creëert noch harmoniseert deze richtlijn de vereisten of de aansprakelijkheid van entiteiten waarvan de activiteiten krachtens die rechtshandelingen worden geregeld en doet zij derhalve geen nieuwe vorderingen op grond van aansprakelijkheid ontstaan. Het vaststellen van een inbreuk op een dergelijk vereiste die neerkomt op schuld, zal plaatsvinden overeenkomstig de bepalingen van die toepasselijke regels van het Unierecht, aangezien bij deze richtlijn geen nieuwe vereisten worden ingevoerd en zij ook niet van invloed is op bestaande vereisten. Deze richtlijn laat bijvoorbeeld de vrijstelling van aansprakelijkheid voor aanbieders van tussenhandelsdiensten en de zorgvuldigheidsverplichtingen waaraan zij uit hoofde van [de wet inzake digitale diensten] zijn onderworpen, onverlet. Evenzo moet de nakoming van de vereisten die aan onlineplatforms worden opgelegd om ongeoorloofde mededeling van auteursrechtelijk beschermde werken aan het publiek te voorkomen, worden vastgesteld in het kader van Richtlijn (EU) 2019/790 inzake auteursrechten en naburige rechten in de digitale eengemaakte markt en andere relevante wetgeving van de Unie inzake auteursrechten. 

(24)Op gebieden die niet door het Unierecht zijn geharmoniseerd, blijft het nationale recht van toepassing en wordt het bestaan van schuld vastgesteld krachtens het toepasselijke nationale recht. Alle nationale aansprakelijkheidsregelingen kennen zorgvuldigheidsplichten, waarvoor de wijze waarop een redelijk persoon moet handelen als gedragsnorm geldt, zij het dat de formulering van die norm verschilt, en die ook de veilige werking van AI-systemen waarborgen teneinde te voorkomen dat erkende rechtsbelangen worden geschaad. Dergelijke zorgvuldigheidsplichten kunnen gebruikers van AI-systemen bijvoorbeeld verplichten om voor bepaalde taken een bepaald AI-systeem met concrete kenmerken te kiezen of bepaalde segmenten van een bevolking uit te sluiten van blootstelling aan een bepaald AI-systeem. Het nationale recht kan ook specifieke verplichtingen ter voorkoming van risico’s voor bepaalde activiteiten invoeren die van toepassing zijn ongeacht of voor die activiteit AI wordt gebruikt, bijvoorbeeld verkeersregels of verplichtingen die specifiek zijn ontworpen voor AI-systemen, zoals aanvullende nationale voorschriften voor gebruikers van AI-systemen met een hoog risico overeenkomstig artikel 29, lid 2, van [de AI-verordening]. Dergelijke voorschriften worden door deze richtlijn niet ingevoerd noch worden de voorwaarden voor het vaststellen van schuld in geval van schending van dergelijke voorschriften door haar beïnvloed.

(25)Zelfs wanneer sprake is van schuld die bestaat in de niet-nakoming van een zorgvuldigheidsplicht die rechtstreeks bedoeld is om bescherming te bieden tegen de geleden schade, mag niet iedere schuld leiden tot de toepassing van het weerlegbare vermoeden dat deze verband houdt met de output van de AI. Een dergelijk vermoeden mag alleen van toepassing zijn wanneer op grond van de omstandigheden waarin de schade zich heeft voorgedaan, redelijkerwijs kan worden aangenomen dat een dergelijke schuld van invloed is geweest op de door het AI-systeem gegenereerde output of het verzuim van het AI-systeem om een output te genereren, waardoor de schade is ontstaan. Het kan bijvoorbeeld redelijk aannemelijk worden geacht dat de schuld van invloed is geweest op de output of het verzuim output te genereren, wanneer die schuld bestaat in het schenden van een zorgvuldigheidsplicht met betrekking tot de beperking van het bereik van het AI-systeem en de schade zich buiten dat bereik heeft voorgedaan. Daarentegen zou niet redelijkerwijs kunnen worden aangenomen dat een schending van een verplichting om bepaalde documenten in te dienen of te registreren bij een bepaalde autoriteit van invloed is geweest op de door het AI-systeem gegenereerde output of het verzuim output te genereren, zelfs niet wanneer voor de desbetreffende activiteit in een dergelijke verplichting zou zijn voorzien of een dergelijke verplichting uitdrukkelijk van toepassing zou zijn op de werking van het AI-systeem.

(26)Deze richtlijn heeft betrekking op schuld die bestaat in de niet-nakoming van bepaalde in de hoofdstukken 2 en 3 van [de AI-verordening] opgenomen vereisten voor aanbieders en gebruikers van AI-systemen met een hoog risico, welke niet-nakoming onder bepaalde voorwaarden kan leiden tot een vermoeden van causaal verband. De AI-verordening voorziet in volledige harmonisatie van de vereisten voor AI-systemen, tenzij daarin uitdrukkelijk anders is bepaald. Zij harmoniseert de specifieke vereisten voor AI-systemen met een hoog risico. Met het oog op vorderingen tot schadevergoeding waarbij een vermoeden van causaal verband overeenkomstig deze richtlijn wordt toegepast, wordt de potentiële schuld van aanbieders of personen voor wie de verplichtingen gelden van een aanbieder uit hoofde van [de AI-verordening], dus alleen vastgesteld op grond van de niet-nakoming van dergelijke vereisten. Aangezien het in de praktijk moeilijk kan zijn voor de eiser om een dergelijke niet-nakoming aan te tonen wanneer de verweerder een aanbieder van het AI-systeem is, en in volledige overeenstemming met de logica van [de AI-verordening], moet in deze richtlijn ook worden bepaald dat de stappen die de aanbieder in het kader van het risicobeheersysteem heeft ondernomen en de resultaten van het risicobeheersysteem, d.w.z. het besluit om al dan niet bepaalde risicobeheersmaatregelen vast te stellen, in aanmerking moeten worden genomen bij het bepalen of de aanbieder heeft voldaan aan de relevante vereisten uit hoofde van de AI-verordening waarnaar in deze richtlijn wordt verwezen. Het risicobeheersysteem dat door de aanbieder op grond van [de AI-vordering] is opgezet, is een continu iteratief proces dat gedurende de gehele levenscyclus van het AI-systeem met een hoog risico wordt uitgevoerd, waarbij de aanbieder ervoor zorgt dat de dwingende vereisten ter beperking van risico’s worden nageleefd en kan derhalve een nuttig element zijn voor de beoordeling van deze naleving. Deze richtlijn heeft ook betrekking op gevallen van schuld van gebruikers, wanneer deze schuld bestaat in het niet naleven van bepaalde specifieke vereisten van [de AI-verordening]. Bovendien kan de schuld van gebruikers van AI-systemen met een hoog risico worden vastgesteld na niet-nakoming van andere zorgvuldigheidsplichten die zijn vastgelegd in het Unierecht of het nationale recht, in het licht van artikel 29, lid 2, van [de AI-verordening].

(27)Hoewel de specifieke kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, het voor de eiser uiterst moeilijk kunnen maken om aan de bewijslast te voldoen, kunnen zich situaties voordoen waarin van dergelijke moeilijkheden geen sprake is omdat de klager over voldoende bewijsmateriaal en deskundigheid beschikt om het oorzakelijk verband aan te tonen. Dit kan bijvoorbeeld het geval zijn bij AI-systemen met een hoog risico waarbij de eiser redelijkerwijs toegang had tot voldoende bewijsmateriaal en deskundigheid vanwege documentatie- en registratievereisten op grond van [de AI-verordening]. In dergelijke situaties mag de rechter het vermoeden niet toepassen.

(28)Het vermoeden van causaal verband zou ook kunnen gelden voor andere AI-systemen dan AI-systemen met een hoog risico, omdat er voor de eiser buitensporige bewijsproblemen zouden kunnen zijn. Dergelijke moeilijkheden zouden bijvoorbeeld kunnen worden beoordeeld in het licht van de kenmerken van bepaalde AI-systemen, zoals autonomie en ondoorzichtigheid, die de uitleg van de interne werking van het AI-systeem in de praktijk zeer moeilijk maken, met negatieve gevolgen voor de mogelijkheid voor de eiser om het causaal verband tussen de schuld van de verweerder en de AI-output aan te tonen. Een nationale rechter moet het vermoeden toepassen wanneer de eiser zich in een buitensporig moeilijke positie bevindt om het causaal verband aan te kunnen tonen, vanwege het feit dat moet worden uitgelegd hoe het AI-systeem werd aangestuurd door een menselijk doen of nalaten dat schuld inhoudt aan het genereren van de output of het verzuim output te genereren waardoor de schade is veroorzaakt. Van de eiser mag echter niet worden verlangd dat hij de kenmerken van het betrokken AI-systeem toelicht, noch dat hij uitlegt hoe deze kenmerken het moeilijker maken om het oorzakelijk verband vast te stellen.

(29)De toepassing van het vermoeden van causaal verband is bedoeld om de gelaedeerde een beschermingsniveau te bieden dat vergelijkbaar is met het beschermingsniveau in situaties waarin geen sprake van AI is en het oorzakelijk verband dus gemakkelijker kan worden aangetoond. Niettemin is het verlichten van de bewijslast inzake het causaal verband in het kader van deze richtlijn niet altijd passend wanneer de verweerder geen professionele gebruiker is, maar een persoon die het AI-systeem voor zijn privéactiviteiten gebruikt. In dergelijke omstandigheden moet, teneinde een evenwicht te vinden tussen de belangen van de gelaedeerde en de niet-professionele gebruiker, rekening worden gehouden met de vraag of dergelijke niet-professionele gebruikers het risico dat een AI-systeem schade veroorzaakt, door hun eigen gedrag kunnen vergroten. Indien de aanbieder van een AI-systeem aan al zijn verplichtingen heeft voldaan en dit systeem bijgevolg voldoende veilig werd geacht om in de handel te worden gebracht voor een bepaald gebruik door niet-professionele gebruikers en het vervolgens dienovereenkomstig wordt gebruikt, mag een vermoeden van causaal verband niet gelden voor de eenvoudige inwerkingstelling van een dergelijk systeem door dergelijke niet-professionele gebruikers. Op een niet-professionele gebruiker die een AI-systeem koopt en het slechts in overeenstemming met het doel ervan in werking stelt, zonder de voorwaarden waaronder het systeem functioneert, wezenlijk te beïnvloeden, mag het in deze richtlijn neergelegde vermoeden van causaal verband niet van toepassing zijn. Indien een nationale rechter echter vaststelt dat een niet-professionele gebruiker de voorwaarden voor de werking van een AI-systeem wezenlijk heeft beïnvloed of dat een dergelijke gebruiker de voorwaarden voor de werking van het AI-systeem moest vaststellen en daartoe ook in staat was, en dit heeft nagelaten, dan moet het vermoeden van causaal verband van toepassing zijn, mits aan alle andere voorwaarden is voldaan. Dit kan bijvoorbeeld het geval zijn wanneer de niet-professionele gebruiker de gebruiksaanwijzing of andere toepasselijke zorgvuldigheidsplichten niet in acht neemt bij de keuze van het werkingsgebied of bij het vastleggen van de prestatievoorwaarden van het AI-systeem. Dit doet geen afbreuk aan het feit dat de aanbieder het beoogde doel van een AI-systeem moet bepalen, met inbegrip van de specifieke context en gebruiksvoorwaarden, en de risico’s van dat systeem moet wegnemen of tot een minimum moet beperken zoals passend op het moment van het ontwerp en de ontwikkeling, rekening houdend met de kennis en deskundigheid van de beoogde gebruiker.

(30)Aangezien deze richtlijn een weerlegbaar vermoeden invoert, moet de verweerder dit vermoeden kunnen weerleggen, met name door aan te tonen dat zijn schuld de schade niet had kunnen veroorzaken.

(31)Er moet worden voorzien in een evaluatie van deze richtlijn [vijf jaar] na afloop van de omzettingsperiode. Bij die evaluatie moet met name worden onderzocht of er behoefte is aan het creëren van risicoaansprakelijkheidsregels voor vorderingen tegen de exploitant, voor zover deze niet reeds onder andere aansprakelijkheidsregels van de Unie, met name Richtlijn 85/374/EEG, vallen, in combinatie met een verplichte verzekering voor de werking van bepaalde AI-systemen, zoals voorgesteld door het Europees Parlement 38 . Overeenkomstig het evenredigheidsbeginsel is het passend een dergelijke behoefte te beoordelen in het licht van relevante technologische en regelgevingsontwikkelingen in de komende jaren, rekening houdend met het effect en de impact voor de uitrol en aanvaarding van AI-systemen, met name voor kmo’s. Bij een dergelijke evaluatie moet onder meer rekening worden gehouden met de risico’s wat betreft negatieve gevolgen voor belangrijke juridische waarden als het leven, de gezondheid en de eigendom van onbewust handelende derden als gevolg van de werking van op AI gebaseerde producten of diensten. Bij die evaluatie moet ook een analyse plaatsvinden van de doeltreffendheid van de maatregelen waarin deze richtlijn voorziet om dergelijke risico’s aan te pakken, alsook van de ontwikkeling van passende oplossingen door de verzekeringsmarkt. Om ervoor te zorgen dat de informatie beschikbaar is die nodig is om een dergelijke evaluatie uit te voeren, is het noodzakelijk gegevens en ander noodzakelijk bewijsmateriaal te verzamelen met betrekking tot de relevante aangelegenheden.

(32)Gezien de noodzaak om de nationale wettelijke aansprakelijkheids- en procedureregels aan te passen ter bevordering van de uitrol van op AI gebaseerde producten en diensten onder gunstige omstandigheden op de interne markt, van maatschappelijke aanvaarding van en consumentenvertrouwen in AI-technologie en van het rechtsstelsel, is het passend om een termijn van uiterlijk [twee jaar na de inwerkingtreding] van deze richtlijn vast te stellen waarbinnen de lidstaten de nodige omzettingsmaatregelen moeten vaststellen.

(33)Overeenkomstig de gezamenlijke politieke verklaring van 28 september 2011 van de lidstaten en de Commissie over toelichtende stukken 39 hebben de lidstaten zich ertoe verbonden om in gerechtvaardigde gevallen de kennisgeving van hun omzettingsmaatregelen vergezeld te doen gaan van één of meer stukken waarin het verband tussen de onderdelen van een richtlijn en de overeenkomstige delen van de nationale omzettingsinstrumenten wordt toegelicht. Met betrekking tot deze richtlijn acht de wetgever de toezending van die stukken gerechtvaardigd,

HEBBEN DE VOLGENDE RICHTLIJN VASTGESTELD:

Artikel 1

Onderwerp en toepassingsgebied

1.Bij deze richtlijn worden gemeenschappelijke regels vastgesteld betreffende:

(a)de openbaarmaking van bewijsmateriaal over artificiële-intelligentiesystemen (AI-systemen) met een hoog risico, zodat een eiser in staat is om op niet-contractuele schuldaansprakelijkheid gebaseerde civielrechtelijke vorderingen tot schadevergoeding, te motiveren;

(b)de bewijslast in geval van op niet-contractuele schuldaansprakelijkheid gebaseerde civielrechtelijke vorderingen tot vergoeding van door een AI-systeem veroorzaakte schade die bij een nationale rechter aanhangig zijn gemaakt.

2.Deze richtlijn is van toepassing op op niet-contractuele schuldaansprakelijkheid gebaseerde civielrechtelijke vorderingen tot schadevergoeding in gevallen waarin de door een AI-systeem veroorzaakte schade zich voordoet na [het einde van de omzettingstermijn].

Deze richtlijn is niet van toepassing op strafrechtelijke aansprakelijkheid.

3.Deze richtlijn doet geen afbreuk aan:

(a)regels van het Unierecht betreffende de voorwaarden voor aansprakelijkheid op het gebied van vervoer;

(b)de rechten die een gelaedeerde ontleent aan nationale voorschriften ter uitvoering van Richtlijn 85/374/EEG;

(c)de vrijstellingen van aansprakelijkheid en de zorgvuldigheidsverplichtingen zoals vastgelegd in [de wet inzake digitale diensten] en

(d)nationale regels die bepalen op welke partij de bewijslast rust, welke mate van zekerheid vereist is met betrekking tot de bewijsstandaard of hoe de schuld wordt omschreven, onder voorbehoud van hetgeen in de artikelen 3 en 4 is bepaald.

4.De lidstaten kunnen nationale regels vaststellen of in stand houden die eisers nog beter in staat stellen om op niet-contractuele schuldaansprakelijkheid gebaseerde civielrechtelijke vorderingen tot schadevergoeding te motiveren, mits die regels verenigbaar zijn met het Unierecht.

Artikel 2

Definities

Voor de toepassing van deze richtlijn wordt verstaan onder:

(1)“AI-systeem”: een AI-systeem als gedefinieerd in [artikel 3, lid 1, van de AI-verordening];

(2)“AI-systeem met een hoog risico”: een AI-systeem als bedoeld in [artikel 6, van de AI-verordening];

(3)“aanbieder”: een aanbieder als gedefinieerd in [artikel 3, lid 2, van de AI-verordening];

(4)“gebruiker”: een gebruiker als gedefinieerd in [artikel 3, lid 4, van de AI-verordening];

(5)“vordering tot schadevergoeding”: een op niet-contractuele schuldaansprakelijkheid gebaseerde civielrechtelijke vordering tot vergoeding van de schade die is veroorzaakt door een output van een AI-systeem of het verzuim van een dergelijk systeem om output te genereren terwijl die output wel gegenereerd had moeten zijn;

(6)“eiser”: een persoon die een vordering tot vergoeding van schade instelt en die:

(a)schade heeft geleden door een output van een AI-systeem of door het verzuim van een dergelijk systeem om output te genereren terwijl die output wel gegenereerd had moeten zijn;

(b) krachtens de wet of een overeenkomst rechtsopvolger is van of is gesubrogeerd in het recht van een gelaedeerde partij; of

(c)handelt namens een of meer gelaedeerde personen, overeenkomstig het Unierecht of het nationale recht.

7)    potentiële eiser”: een natuurlijke persoon of rechtspersoon die overweegt een vordering tot schadevergoeding in te stellen, maar dat nog niet heeft gedaan;

8)    “verweerder”: de persoon tegen wie een vordering tot schadevergoeding is ingesteld;

9)    “zorgvuldigheidsplicht”: een in het nationale of Unierecht voorgeschreven gedragsnorm ter voorkoming van schade aan op het niveau van het nationale recht of het recht van de Unie erkende rechtsbelangen, met inbegrip van het recht op leven, fysieke integriteit, eigendom en de bescherming van grondrechten.

Artikel 3

Openbaarmaking van bewijsmateriaal en weerlegbaar vermoeden van niet-nakoming

 

1.De lidstaten zorgen ervoor dat de nationale rechterlijke instanties bevoegd zijn om, hetzij op verzoek van een potentiële eiser die eerder een aanbieder, een persoon voor wie de verplichtingen van een aanbieder uit hoofde van [artikel 24 of artikel 28, lid 1, van de AI-verordening] gelden, of een gebruiker, heeft verzocht om tot diens beschikking staand relevant bewijsmateriaal over een specifiek AI-systeem met een hoog risico waarvan wordt vermoed dat het schade heeft veroorzaakt of dat schade heeft veroorzaakt, openbaar te maken, maar aan wie inwilliging van dat verzoek is geweigerd, hetzij op verzoek van een eiser, die personen te gelasten dergelijk bewijsmateriaal openbaar te maken.

Ter onderbouwing van dit verzoek moet de potentiële eiser feiten en bewijzen overleggen die volstaan om de geloofwaardigheid van een vordering tot schadevergoeding te staven.

2.In het kader van een vordering tot schadevergoeding gelast de nationale rechter de openbaarmaking van bewijsmateriaal door een van de in lid 1 genoemde personen alleen indien de eiser alles heeft gedaan wat redelijk is om het relevante bewijsmateriaal van de verweerder te verkrijgen.

3.De lidstaten zorgen ervoor dat de nationale rechter bevoegd is om, op verzoek van een eiser, specifieke maatregelen te gelasten om het in lid 1 genoemde bewijsmateriaal te bewaren.

4.De nationale rechterlijke instanties beperken de openbaarmaking van bewijsmateriaal tot hetgeen noodzakelijk en evenredig is ter ondersteuning van een potentiële vordering of een vordering tot schadevergoeding en de bewaring tot hetgeen noodzakelijk en evenredig is om een dergelijke vordering tot vergoeding van schade te ondersteunen.

Bij het bepalen of een bevel tot openbaarmaking of bewaring van bewijsmateriaal evenredig is, houden de nationale rechterlijke instanties rekening met de rechtmatige belangen van alle partijen, met inbegrip van de betrokken derden, met name wat betreft de bescherming van bedrijfsgeheimen in de zin van artikel 2, lid 1, van Richtlijn (EU) 2016/943 en van vertrouwelijke informatie, zoals informatie in verband met de openbare of nationale veiligheid.

De lidstaten zorgen ervoor dat, wanneer de openbaarmaking wordt gelast van een bedrijfsgeheim of een vermeend bedrijfsgeheim dat door de rechter als vertrouwelijk in de zin van artikel 9, lid 1, van Richtlijn (EU) 2016/943 is aangemerkt, de nationale rechterlijke instanties de bevoegdheid hebben om, op een met redenen omkleed verzoek van een partij of op eigen initiatief, specifieke maatregelen te nemen die nodig zijn om de vertrouwelijkheid te waarborgen wanneer dat bewijsmateriaal wordt gebruikt of daarnaar wordt verwezen in gerechtelijke procedures.

De lidstaten zorgen er ook voor dat er voor de persoon die wordt gelast het in lid 1 of lid 2 genoemde bewijsmateriaal openbaar te maken of te bewaren, passende rechtsmiddelen voorhanden zijn met betrekking tot een dergelijk bevel.

5.Indien een verweerder in het kader van een vordering tot schadevergoeding geen gevolg geeft aan een bevel ingevolge lid 1 of lid 2 van een nationale rechter om bewijsmateriaal waarover hij beschikt, openbaar te maken of te bewaren, gaat de nationale rechter uit van het vermoeden dat de verweerder, met name in de in artikel 4, lid 2, of lid 3 bedoelde omstandigheden, een relevante zorgvuldigheidsplicht waarvoor het gevraagde materiaal als bewijs moest dienen met het oog op de desbetreffende vordering tot schadevergoeding, niet is nagekomen.

De verweerder heeft het recht dit vermoeden te weerleggen.

Artikel 4

Weerlegbaar vermoeden van causaal verband in geval van schuld

1.Met inachtneming van de in dit artikel vastgestelde vereisten gaan de nationale rechterlijke instanties voor de toepassing van aansprakelijkheidsregels op een vordering tot schadevergoeding uit van het causaal verband tussen de schuld van de verweerder en de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem output te genereren, indien aan alle volgende voorwaarden is voldaan:

(a) de eiser heeft de schuld aangetoond of het gerecht heeft overeenkomstig artikel 3, lid 5, de schuld aangenomen van de verweerder of van een persoon voor wiens gedrag de verweerder verantwoordelijk is, welke schuld bestaat in de niet-nakoming van een zorgvuldigheidsplicht uit hoofde van het Unierecht of het nationale recht die rechtstreeks bedoeld is om bescherming te bieden tegen de geleden schade;

(b)op basis van de omstandigheden van het geval kan redelijkerwijs worden aangenomen dat de schuld de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren heeft beïnvloed;

(c)de eiser heeft aangetoond dat de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren, de schade heeft veroorzaakt.

2.In het geval van een vordering tot schadevergoeding tegen een aanbieder van een AI-systeem met een hoog risico voor wie de vereisten van de hoofdstukken 2 en 3 van Titel III van [de AI-verordening] gelden of een persoon voor wie de verplichtingen van de aanbieder uit hoofde van [artikel 24 of artikel 28, lid 1, van de AI-verordening] gelden, wordt alleen aan de voorwaarde van lid 1, punt a), voldaan indien de eiser heeft aangetoond dat de aanbieder of, in voorkomend geval, de persoon voor wie de verplichtingen van de aanbieder gelden, niet heeft voldaan aan een van de volgende in die hoofdstukken vastgestelde vereisten, rekening houdend met de stappen die zijn ondernomen binnen en de resultaten van het risicobeheersysteem overeenkomstig [artikel 9 en artikel 16, punt a), van de AI-verordening]:

(a) het AI-systeem betreft een systeem dat technieken gebruikt die het trainen van modellen met data omvatten en dat niet werd ontwikkeld op basis van datareeksen voor training, validatie en tests die voldoen aan de kwaliteitscriteria als bedoeld in [artikel 10, leden 2, 3 en4, van de AI-verordening];

(b) het AI-systeem werd niet zodanig ontworpen en ontwikkeld dat het voldoet aan de transparantievereisten van [artikel 13 van de AI-verordening];

(c)het AI-systeem werd niet zodanig ontworpen en ontwikkeld dat hierop tijdens de periode dat het AI-systeem wordt gebruikt op doeltreffende wijze toezicht kan worden uitgeoefend door natuurlijke personen, overeenkomstig [artikel 14 van de AI-verordening];

(d)het AI-systeem werd niet op zodanige wijze ontworpen en ontwikkeld dat dit, met het oog op zijn beoogde doel, een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging biedt, overeenkomstig [artikel 15 en artikel 16, punt a), van de AI-verordening]; of

(e)er werden niet onmiddellijk de nodige corrigerende maatregelen genomen om het AI-systeem in overeenstemming te brengen met de verplichtingen van [titel III, hoofdstuk 2, van de AI-verordening] of om het systeem, naargelang het geval, uit de handel te nemen of terug te roepen overeenkomstig [artikel 16, punt g), en artikel 21 van de AI-verordening].

3.In het geval van een vordering tot schadevergoeding tegen een gebruiker van een AI-systeem met een hoog risico ten aanzien waarvan de vereisten gelden van de hoofdstukken 2 en 3 van Titel III van [de AI-verordening], wordt aan de voorwaarde van lid 1, punt a), voldaan wanneer de eiser aantoont dat de gebruiker:

(a)niet heeft voldaan aan zijn verplichtingen om het AI-systeem te gebruiken of te monitoren overeenkomstig de bijgevoegde gebruiksaanwijzing of, in voorkomend geval, het gebruik ervan heeft onderbroken overeenkomstig [artikel 29 van de AI-verordening]; of

(b)het AI-systeem heeft blootgesteld aan inputdata waarover hij controle heeft en die niet relevant zijn voor het beoogde doel van het systeem overeenkomstig [artikel 29, lid 3, van de verordening].

4.In het geval van een vordering tot schadevergoeding met betrekking tot een AI-systeem met een hoog risico gaat een nationale rechter niet van het in lid 1 bedoelde vermoeden uit wanneer de verweerder aantoont dat de eiser redelijkerwijs over voldoende bewijsmateriaal en deskundigheid kan beschikken om het in lid 1 bedoelde causaal verband aan te tonen.

5.In het geval van een vordering tot schadevergoeding met betrekking tot een AI-systeem dat geen AI-systeem met een hoog risico is, gaat een nationale rechter alleen van het in lid 1 bedoelde vermoeden uit wanneer hij het voor de eiser buitensporig moeilijk acht om het in lid 1 bedoelde causaal verband aan te tonen.

6.In het geval van een vordering tot schadevergoeding tegen een verweerder die het AI-systeem heeft gebruikt in het kader van een persoonlijke, niet-professionele activiteit, wordt van het in lid 1 bedoelde vermoeden alleen uitgegaan wanneer de verweerder de voorwaarden voor de werking van het AI-systeem wezenlijk heeft verstoord of wanneer de verweerder verplicht en in staat was de voorwaarden voor de werking van het AI-systeem vast te stellen en dit heeft nagelaten.

7.De verweerder heeft het recht het in lid 1 bedoelde vermoeden te weerleggen.

Artikel 5

Evaluatie en gerichte herziening

1.Uiterlijk op [DATUM vijf jaar na het einde van de omzettingsperiode] evalueert de Commissie de toepassing van deze richtlijn en dient zij een verslag in bij het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité, in voorkomend geval vergezeld van een wetgevingsvoorstel.

2.In het verslag worden de gevolgen van de artikelen 3 en 4 voor de verwezenlijking van de doelstellingen van deze richtlijn onderzocht. De beoordeling in het verslag zou zich met name moeten uitstrekken tot de geschiktheid van regels inzake risicoaansprakelijkheid voor vorderingen tegen exploitanten van bepaalde AI-systemen, voor zover deze niet reeds onder andere aansprakelijkheidsregels van de Unie vallen, alsook tot de noodzaak van verzekeringsdekking, rekening houdend met het effect en de gevolgen voor de uitrol en aanvaarding van AI-systemen, met name voor kmo’s.

3.De Commissie stelt een monitoringprogramma op voor de opstelling van het verslag overeenkomstig de leden 1 en 2, waarin wordt vermeld hoe en met welke tussenpozen de gegevens en ander noodzakelijk bewijsmateriaal zullen worden verzameld. In het programma wordt tevens vermeld welke actie de Commissie en de lidstaten moeten ondernemen om de gegevens en ander bewijsmateriaal te verzamelen en te analyseren. Voor de toepassing van dat programma delen de lidstaten de Commissie uiterlijk op [31 december van het tweede volledige jaar na het einde van de omzettingsperiode] en aan het einde van elk daaropvolgend jaar de relevante gegevens en bewijsstukken mee.

Artikel 6

Wijziging van Richtlijn (EU) 2020/1828

In bijlage I bij Verordening (EU) 2020/1828 40 wordt het volgende punt 67 toegevoegd:

“67) Richtlijn (EU).../... van het Europees Parlement en de Raad van... betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (richtlijn betreffende aansprakelijkheid inzake AI) (PB L... van..., blz....).”.

Artikel 7

Omzetting

1.De lidstaten doen de nodige wettelijke en bestuursrechtelijke bepalingen in werking treden om uiterlijk [twee jaar na inwerkingtreding] aan deze richtlijn te voldoen. Zij delen de Commissie de tekst van die bepalingen onmiddellijk mee.

Wanneer de lidstaten die bepalingen aannemen, wordt in die bepalingen zelf of bij de officiële bekendmaking daarvan naar deze richtlijn verwezen. De regels voor de verwijzing worden vastgesteld door de lidstaten.

2.De lidstaten delen de Commissie de tekst van de belangrijkste bepalingen van intern recht mee die zij op het onder deze richtlijn vallende gebied vaststellen.

Artikel 8

Inwerkingtreding

Deze richtlijn treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie.

Artikel 9

Adressaten

Deze richtlijn is gericht tot de lidstaten.

Gedaan te Brussel,

Voor het Europees Parlement    Voor de Raad

De voorzitter     De voorzitter 

(1)    Enquête onder Europese bedrijven inzake het gebruik van op artificiële intelligentie gebaseerde technologieën”, Ipsos 2020, eindverslag blz. 58.
(
https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 )
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_nl.pdf
(3)    Witboek over artificiële intelligentie - een Europese benadering op basis van excellentie en vertrouwen, COM(2020) 65 final van 19.2.2020.
(4)    Verslag van de Commissie aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid, COM(2020) 64 final van 19.2.2020.
(5)    Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (2020/2014(INL)).
(6)    Resolutie van het Europees Parlement van 3 mei 2022 over artificiële intelligentie in het digitale tijdperk (2020/2266 (INI))
(7)    Voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) (COM(2021) 206 final).
(8)    Slechts een klein aantal gevallen van gebruik van AI worden door de AI-verordening uitdrukkelijk verboden.
(9)    Commissie SWD (2021) 84 final, Effectbeoordeling bij de verordening betreffende artificiële intelligentie, blz. 88.
(10)    Voorstel voor een verordening van het Europees Parlement en de Raad inzake algemene productveiligheid (COM(2021) 346 final).
(11)    Voorstel voor een verordening van het Europees Parlement en de Raad betreffende machineproducten (COM(2021) 202 final).
(12)    Gedelegeerde Verordening (EU) 2022/30 van de Commissie tot aanvulling van Richtlijn 2014/53/EU van het Europees Parlement en de Raad met betrekking tot de toepassing van de essentiële eisen als bedoeld in artikel 3, lid 3, punten d), e) en f), van die richtlijn (PB L 7 van 12.1.2022, blz. 6).
(13)    Mededeling van de Commissie, “De digitale toekomst van Europa vormgeven” (COM(2020) 67 final).
(14)    Voorstel voor een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen - COM(2022) 454 final
(15)    Mededeling van de Commissie, “Een Europese datastrategie”, COM/2020/66 final.
(16)    Mededeling van de Commissie aan het Europees Parlement, De Europese Raad, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s, De Europese Green Deal (COM(2019) 640 final).
(17)    Deloitte, Study to support the Commission’s Impacts Assessment on liability for artificial intelligence, 2021 (“economische studie”).
(18)    Nationale strategie inzake artificiële intelligentie van Tsjechië, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, “National strategies on Artificial Intelligence – A European perspective”, editie 2021 — een JRC-OESO-verslag: https://op.europa.eu/nl/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , blz. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;.
(20)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021, blz. 96.
(21)    Zie Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019 – 2027 (Beleid voor de ontwikkeling van artificiële intelligentie in Polen voor 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102-3.
(22)    AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., blz. 113.
(23)    Primair risicoaansprakelijkheid, omkering van de bewijslast of verlichting van de bewijslast in de vorm van onweerlegbare of weerlegbare vermoedens.
(24)    Te vinden op < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_nl >
(25)    Liability for artificial intelligence and other emerging digital technologies, november 2019, https://op.europa.eu/nl/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1  
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence, 2021, https://op.europa.eu/nl/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1 .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services, Final Report 2021.
(28)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.
(29)    PB C , blz. .
(30)    PB C , blz. .
(31)    [Voorstel voor een verordening tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (verordening artificiële intelligentie) (COM(2021) 206 final)].
(32)    [Voorstel voor een verordening van het Europees Parlement en de Raad inzake algemene productveiligheid (COM(2021) 346 final)].
(33)    [Voorstel voor een verordening van het Europees Parlement en de Raad betreffende machineproducten (COM(2021) 202 final)].
(34)    Gedelegeerde Verordening (EU) 2022/30 van de Commissie tot aanvulling van Richtlijn 2014/53/EU van het Europees Parlement en de Raad met betrekking tot de toepassing van de essentiële eisen als bedoeld in artikel 3, lid 3, punten d), e) en f), van die richtlijn (PB L 7 van 12.1.2022, blz. 6).
(35)    Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).
(36)    [Voorstel voor een verordening van het Europees Parlement en de Raad betreffende een eengemaakte markt voor digitale diensten (wet inzake digitale diensten) - COM(2020) 825 final]
(37)    Richtlijn (EU) 2016/943 van het Europees Parlement en de Raad van 8 juni 2016 betreffende de bescherming van niet-openbaar gemaakte knowhow en bedrijfsinformatie (bedrijfsgeheimen) tegen het onrechtmatig verkrijgen, gebruiken en openbaar maken daarvan (PB L 157 van 15.6.2016, blz. 1).
(38)    Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (2020/2014(INL)) (PB C 404 van 6.10.2021, blz. 107).
(39)    PB C 369 van 17.12.2011, blz. 14.
(40)    Richtlijn (EU) 2020/1828 van het Europees Parlement en de Raad van 25 november 2020 betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten en tot intrekking van Richtlijn 2009/22/EG (PB L 409 van 4.12.2020, blz. 1).