EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52022PC0496

Förslag till EUROPAPARLAMENTETS OCH RÅDETS DIREKTIV Om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens (direktivet om skadeståndsansvar gällande AI)

COM/2022/496 final

Bryssel den 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Förslag till

EUROPAPARLAMENTETS OCH RÅDETS DIREKTIV

Om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens
(direktivet om skadeståndsansvar gällande AI)

(Text av betydelse för EES)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


MOTIVERING

1.BAKGRUND TILL FÖRSLAGET

·Motiv och syfte med förslaget

Denna motivering åtföljer förslaget till direktiv om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens (AI). I en representativ undersökning från 2020 1 rankades skadeståndsansvar bland de tre största hindren för europeiska företags användning av AI. Den angavs som det mest relevanta externa hindret (43 %) för företag som planerar att, men ännu inte har börjat, använda AI.

Kommissionens ordförande Ursula von der Leyen lade i sina politiska riktlinjer fram en samordnad europeisk strategi för AI 2 . I sin vitbok om AI av den 19 februari 2020 3 åtog sig kommissionen att främja användningen av AI och ta itu med de risker som är förknippade med vissa av dess användningsområden genom att främja spetskompetens och tillit. I den rapport om skadeståndsansvar gällande AI 4 som åtföljer vitboken identifierade kommissionen de särskilda utmaningar som AI innebär för befintliga regler om skadeståndsansvar. I sina slutsatser av den 9 juni 2020 om att forma Europas digitala framtid välkomnade rådet samrådet om de politiska förslagen i vitboken om AI och uppmanade kommissionen att lägga fram konkreta förslag. Den 20 oktober 2020 antog Europaparlamentet en resolution gällande lagstiftningsinitiativ i enlighet med artikel 225 i fördraget om Europeiska unionens funktionssätt (EUF-fördraget) med en uppmaning till kommissionen att anta ett förslag till en skadeståndsordning för artificiell intelligens på grundval av artikel 114 i EUF-fördraget 5 .

De nuvarande nationella ansvarsreglerna, särskilt de som är grundade på culpa, lämpar sig inte för att hantera skadeståndsanspråk för skador som orsakats av AI-baserade produkter och tjänster. Enligt dessa regler måste skadelidande bevisa att den person som orsakat skadan handlade felaktigt eller felaktigt underlät att uppfylla sina skyldigheter. Särdragen hos AI, inbegripet komplexitet, autonomi och bristen på insyn (den så kallade black box-effekten), kan göra det svårt eller oskäligt kostsamt för skadelidande att identifiera den ansvariga personen och uppnå kraven för ett framgångsrikt skadeståndsanspråk. Särskilt när de begär ersättning riskerar skadelidande att ådra sig mycket höga initialkostnader och genomgå betydligt längre rättsliga förfaranden, jämfört med fall som inte rör AI. Skadelidande kan därför helt och hållet avskräckas från att begära ersättning. Dessa farhågor har också beaktats av Europaparlamentet i dess resolution av den 3 maj 2022 om artificiell intelligens i den digitala eran.  6

Om en skadelidande väcker talan kan de nationella domstolarna, som ställs inför särdragen hos AI, anpassa det sätt på vilket de tillämpar befintliga regler på ad hoc-basis för att nå ett rättvist resultat för den skadelidande. Detta kommer att skapa rättsosäkerhet. Företagen kommer att få svårt att förutse hur de befintliga reglerna för skadeståndsansvar kommer att tillämpas och därmed svårt att bedöma och försäkra sin exponering för ansvarsskyldighet. Effekten kommer att förstärkas för företag som bedriver gränsöverskridande handel, eftersom osäkerheten kommer att omfatta olika jurisdiktioner. Det kommer särskilt att påverka små och medelstora företag, som inte kan förlita sig på intern juridisk expertis eller kapitalreserver.

Nationella AI-strategier visar att flera medlemsstater överväger, eller till och med konkret planerar, lagstiftningsåtgärder om skadeståndsansvar vad gäller AI. Om EU inte agerar förväntas därför medlemsstaterna anpassa sina nationella regler om skadeståndsansvar till de utmaningar som AI innebär. Detta kommer att leda till ytterligare fragmentering och ökade kostnader för företag som är verksamma i hela EU.

Det öppna offentliga samråd som låg till grund för konsekvensbedömningen av detta förslag bekräftade de problem som beskrivs ovan. Allmänheten anser att ”black box-effekten” kan göra det svårt för skadelidande att bevisa culpa och kausalitet, och att det kan råda osäkerhet om hur domstolarna kommer att tolka och tillämpa befintliga nationella regler om skadeståndsansvar i mål som rör AI. Dessutom visade samrådet en oro hos allmänheten över hur lagstiftningsåtgärder för att anpassa regler om skadeståndsansvar som initierats av enskilda medlemsstater, och den därav följande fragmenteringen, skulle påverka kostnaderna för företag, särskilt små och medelstora företag, och förhindra spridningen av AI i hela unionen.

Syftet med detta förslag är därför att främja införandet av tillförlitlig AI för att till fullo utnyttja dess fördelar för den inre marknaden. Detta sker genom att säkerställa att offer för skador orsakade av AI får samma skydd som de som drabbas av skador som orsakas av produkter i allmänhet. Det minskar också osäkerheten om rättsläget hos företag som utvecklar eller använder AI när det gäller deras eventuella exponering för skadeståndsansvar och förhindrar uppkomsten av fragmenterade AI-specifika anpassningar av nationella bestämmelser om civilrättsligt skadeståndsansvar.

·Förenlighet med befintliga bestämmelser inom området

Detta förslag ingår i ett åtgärdspaket för att stödja spridningen av AI i Europa genom att främja spetskompetens och tillit. Paketet består av tre kompletterande arbetsflöden:

ett lagstiftningsförslag om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) 7 ,

en översyn av sektorsspecifika och övergripande produktsäkerhetsregler,

EU-regler för att hantera frågor om skadeståndsansvar i samband med AI-system.

I förslaget till rättsakt om artificiell intelligens har kommissionen föreslagit regler som syftar till att minska säkerhetsriskerna och skydda de grundläggande rättigheterna. Säkerhet och ansvar är två sidor av samma mynt: de tillämpas vid olika tidpunkter och förstärker varandra. Reglerna för att garantera säkerhet och skydda de grundläggande rättigheterna kommer att minska riskerna, men inte undanröja dem helt 8 . Om en sådan risk blir verklighet kan skada ändå uppstå. I sådana fall kommer reglerna om skadeståndsansvar i detta förslag att gälla.

Effektiva regler om skadeståndsansvar ger också ett ekonomiskt incitament att följa säkerhetsreglerna och bidrar därför till att förhindra att skador uppstår 9 . Dessutom bidrar detta förslag till verkställighet av de krav för AI-system med hög risk som införs genom rättsakten för artificiell intelligens, eftersom underlåtenhet att uppfylla dessa krav utgör en viktig faktor som utlöser lättnader i bevisbördan. Detta förslag är också förenligt med de allmänna 10 och sektorsspecifika produktsäkerhetsregler som föreslås för AI-baserade maskinprodukter 11 och radioutrustning 12 .

Kommissionen har en helhetssyn på ansvarsskyldighet i sin AI-politik genom att föreslå anpassningar av tillverkares ansvar för produkter med säkerhetsbrister enligt produktansvarsdirektivet samt den riktade harmoniseringen enligt detta förslag. Dessa två politiska initiativ är nära kopplade till varandra och utgör ett paket, eftersom anspråk som omfattas av deras respektive tillämpningsområde avser olika typer av ansvar. Produktansvarsdirektivet omfattar tillverkares strikta ansvar för produkter med säkerhetsbrister, vilket leder till ersättning för vissa typer av skador som huvudsakligen drabbar enskilda. Detta förslag omfattar nationella skadeståndsanspråk som huvudsakligen grundar sig på en persons culpa, i syfte att ersätta alla typer av skador och alla typer av skadelidande. De kompletterar varandra för att skapa ett övergripande effektivt system för civilrättsligt skadeståndsansvar.

Tillsammans kommer dessa regler att främja förtroendet för AI (och annan digital teknik) genom att säkerställa att skadelidande får effektiv ersättning om skador uppstår trots de förebyggande kraven i rättsakten om artificiell intelligens och andra säkerhetsbestämmelser.

·Förenlighet med unionens politik inom andra områden

Förslaget är också förenligt med unionens övergripande digitala strategi eftersom det bidrar till att främja en teknik för människor, en av de tre huvudpelarna i den politiska inriktning och de mål som tillkännagavs i meddelandet Att forma EU:s digitala framtid 13 .

I detta sammanhang syftar detta förslag till att bygga upp förtroendet för AI och öka dess spridning. Detta kommer att skapa synergier och kompletterar [rättsakten om cyberresiliens] 14 , som också syftar till att öka förtroendet för produkter med digitala inslag genom att minska sårbarheter på cyberområdet och bättre skydda företags- och konsumentanvändare.

Detta förslag påverkar inte de regler som fastställs i [rättsakten om digitala tjänster], som tillhandahåller en heltäckande och fullständigt harmoniserad ram för skyldigheter avseende tillbörlig aktsamhet för onlineplattformars algoritmiska beslutsfattande, inbegripet undantaget från ansvar för leverantörer av förmedlingstjänster.

Genom att främja spridningen av AI är detta förslag dessutom kopplat till initiativen inom ramen för EU-strategin för data 15 . Det stärker också unionens roll när det gäller att bidra till utformningen av globala normer och standarder och främja tillförlitlig AI som är förenlig med unionens värden och intressen.

Förslaget har också indirekta kopplingar till den europeiska gröna given 16 . I synnerhet är digital teknik, inbegripet AI, en avgörande faktor för att uppnå hållbarhetsmålen i den gröna given inom många olika sektorer (inbegripet hälso- och sjukvård, transport, miljö och jordbruk).

·Huvudsakliga effekter på ekonomin, samhället och miljön

Direktivet kommer att bidra till införandet av AI. Villkoren för införande och utveckling av AI-teknik på den inre marknaden kan förbättras avsevärt genom att man förhindrar fragmentering och ökar rättssäkerheten genom harmoniserade åtgärder på EU-nivå, jämfört med eventuella anpassningar av ansvarsreglerna på nationell nivå. I den ekonomiska studie 17 som ligger till grund för konsekvensbedömningen av detta förslag drogs – som en återhållsam uppskattning – slutsatsen att riktade harmoniseringsåtgärder för civilrättsligt ansvar för AI positivt skulle påverka produktionsvärdet av relevant gränsöverskridande handel med 5–7 % jämfört med grundscenariot. Detta mervärde skulle framför allt skapas genom minskad fragmentering och ökad rättssäkerhet när det gäller berörda parters exponering för skadeståndsansvar. Detta skulle minska berörda parters kostnader för rättslig information och representation, intern riskhantering och efterlevnad, underlätta finansiell planering och riskbedömningar för försäkringsändamål och göra det möjligt för företag – särskilt små och medelstora företag – att utforska nya marknader över gränserna. På grundval av det totala värdet på EU:s AI-marknad som påverkas av de ansvarsrelaterade problem som tas upp i detta direktiv uppskattas det att det senare kommer att generera ett ytterligare marknadsvärde på ungefär 500 miljoner–1,1 miljarder EUR.

När det gäller sociala konsekvenser kommer direktivet att öka samhällets förtroende för AI-teknik och tillgången till ett effektivt rättssystem. Det kommer att bidra till en effektiv skadeståndsordning, anpassad till AI:s särdrag, där berättigade krav på ersättning för skada når framgång. Att förbättra samhällets förtroende skulle också gynna alla företag i AI-värdekedjan, eftersom ett ökat förtroende från invånare kommer att bidra till en snabbare spridning av AI. På grund av ansvarsreglernas stimulerande effekt skulle förebyggandet av luckor i ansvarsskyldigheten också indirekt gynna alla invånare genom en högre skyddsnivå för hälsa och säkerhet (artikel 114.3 i EUF-fördraget) och undanröjande av hälsofaror (artikel 168.1 i EUF-fördraget).

När det gäller miljöpåverkan förväntas direktivet också bidra till att uppnå de relaterade målen för hållbar utveckling. Användningen av AI-applikationer är gynnsam för miljön. AI-system som används vid processoptimering gör till exempel processerna resurssnålare (t.ex. genom att minska den mängd gödselmedel och bekämpningsmedel som behövs, minska vattenförbrukningen för samma resultat osv.). Direktivet skulle också ha en positiv inverkan på målen för hållbar utveckling, eftersom effektiv lagstiftning om insyn, ansvarsutkrävande och grundläggande rättigheter kommer att styra AI-teknikens potential att gynna enskilda personer och samhället när det gäller att uppnå målen för hållbar utveckling.

2.RÄTTSLIG GRUND, SUBSIDIARITETSPRINCIPEN OCH PROPORTIONALITETSPRINCIPEN

·    Rättslig grund

Den rättsliga grunden för förslaget är artikel 114 i EUF-fördraget, där det föreskrivs att åtgärder ska vidtas som syftar till att upprätta den inre marknaden och få den att fungera.

De problem som detta förslag syftar till att ta itu med, särskilt rättsosäkerhet och rättslig fragmentering, hindrar utvecklingen av den inre marknaden och utgör därmed betydande hinder för gränsöverskridande handel med AI-baserade produkter och tjänster.

Förslaget tar itu med hinder som härrör från det faktum att företag som vill producera, sprida och driva AI-baserade produkter och tjänster över gränserna är osäkra på om och hur befintliga ansvarsordningar ska tillämpas på skador som orsakas av AI. Denna osäkerhet gäller särskilt medlemsstater som företag kommer att exportera till eller i vilka de kommer att driva sina produkter och tjänster. I ett gränsöverskridande sammanhang är den tillämpliga lagen på utomobligatoriskt ansvar som har sin grund i en skadeståndsgrundande händelse automatiskt lagen i det land där skadan uppkommer. För dessa företag är det viktigt att känna till de relevanta ansvarsriskerna och kunna försäkra sig mot dem.

Dessutom finns det konkreta tecken på att ett antal medlemsstater överväger ensidiga lagstiftningsåtgärder för att ta itu med de särskilda utmaningar som AI medför när det gäller ansvarsskyldighet. Till exempel nämns i AI-strategier som antagits i Tjeckien 18 , Italien 19 , Malta 20 , Polen 21 och Portugal 22 initiativ för att klargöra ansvarsskyldigheten. Med tanke på de stora skillnaderna mellan medlemsstaternas befintliga bestämmelser om civilrättsligt ansvar är det sannolikt att alla nationella AI-specifika ansvarsåtgärder skulle följa de olika nationella strategier som redan finns och därmed öka fragmenteringen.

Därför skulle anpassningar av ansvarsreglerna gjorda helt på en nationell grund öka hindren för införandet av AI-baserade produkter och tjänster på hela den inre marknaden och ytterligare bidra till fragmentering.

·Subsidiaritetsprincipen

Målen för detta förslag kan inte uppnås i tillräcklig utsträckning på nationell nivå eftersom framväxande skillnader i nationella regler skulle öka rättsosäkerheten och fragmenteringen, vilket skapar hinder för införandet av AI-baserade produkter och tjänster på hela den inre marknaden. Osäkerheten om rättsläget skulle särskilt påverka företag som är verksamma över gränserna genom att medföra ytterligare behov av juridisk information och representation, kostnader för riskhantering och uteblivna intäkter. Samtidigt skulle olika nationella regler om ersättningsanspråk för skador orsakade av AI öka transaktionskostnaderna för företag, särskilt för gränsöverskridande handel, vilket skulle medföra betydande hinder för den inre marknaden. Rättsosäkerhet och fragmentering påverkar dessutom i oproportionerligt hög grad nystartade företag och små och medelstora företag, vilket innebär de flesta företag och den största andelen investeringar på de relevanta marknaderna.

I avsaknad av harmoniserade EU-regler för ersättning av skador orsakade av AI-system skulle leverantörer, operatörer och användare av AI-system å ena sidan och skadelidande personer å andra sidan ställas inför 27 olika skadeståndsordningar, vilket skulle leda till olika skyddsnivåer och snedvrida konkurrensen mellan företag från olika medlemsstater.

Harmoniserade åtgärder på EU-nivå skulle avsevärt förbättra villkoren för spridning och utveckling av AI-teknik på den inre marknaden genom att förhindra fragmentering och öka den rättsliga förutsebarheten. Detta mervärde skulle framför allt skapas genom minskad fragmentering och ökad rättssäkerhet när det gäller berörda parters exponering för skadeståndsansvar. Dessutom är det bara EU-åtgärder som konsekvent kan uppnå den önskade effekten att främja konsumenternas förtroende för AI-baserade produkter och tjänster genom att förebygga ansvarsluckor kopplade till särdragen hos AI på hela den inre marknaden. Detta skulle säkerställa en enhetlig (minsta) skyddsnivå för alla skadelidande (enskilda personer och företag) och konsekventa incitament för att förebygga skador och säkerställa ansvarsskyldighet.

·Proportionalitetsprincipen

Förslaget bygger på en stegvis strategi. I det första steget uppnås målen med en metod som innebär minsta möjliga ingrepp. I det andra steget görs en ny bedömning av behovet av strängare eller mer omfattande åtgärder.

Det första steget är begränsat till åtgärder om bevisbördan för att ta itu med de AI-specifika problem som identifierats. Det bygger på de materiella ansvarsvillkor som för närvarande finns i nationella regler, såsom kausalitet eller culpa, men fokuserar på riktade profilrelaterade åtgärder, vilket säkerställer att skadelidande har samma skyddsnivå som i ärenden där AI-system inte är inblandade. Med utgångspunkt i de olika verktyg som finns tillgängliga i nationell lagstiftning för att minska bevisbördan 23 har man i detta förslag valt att använda motbevisbara presumtioner som det verktyg som innebär minst ingrepp. Sådana presumtioner förekommer ofta i nationella ansvarssystem och balanserar sökandenas och motparternas intressen. Samtidigt är de utformade för att ge incitament till efterlevnad av befintliga aktsamhetskrav som fastställts på unionsnivå eller nationell nivå. Förslaget leder inte till en omvänd bevisbörda, för att undvika att leverantörer, operatörer och användare av AI-system exponeras för högre ansvarsrisker, vilket kan hämma innovationen och minska användningen av AI-baserade produkter och tjänster.

Det andra steget i förslaget säkerställer att man vid bedömningen av effekterna av det första steget, när det gäller skydd av skadelidande och upptagning av AI, tar hänsyn till framtida teknisk, regleringsmässig och rättslig utveckling när man omprövar behovet av att harmonisera andra delar av skadeståndsanspråk eller andra verktyg som rör skadeståndsanspråk, inbegripet i situationer där strikt ansvar skulle vara lämpligare, i enlighet med Europaparlamentets begäran. Vid denna bedömning skulle man också sannolikt överväga om en sådan harmonisering skulle behöva kombineras med obligatorisk försäkring för att säkerställa effektivitet.

·Val av instrument

Ett direktiv är det lämpligaste instrumentet för detta förslag, eftersom det ger önskad harmoniseringseffekt och rättslig förutsebarhet, samtidigt som det ger medlemsstaterna flexibilitet att friktionsfritt integrera de harmoniserade åtgärderna i sina nationella ansvarssystem.

Ett obligatoriskt instrument skulle förhindra luckor i skyddet till följd av partiellt eller ofullständigt genomförande. Även om ett icke-bindande instrument skulle vara mindre inkräktande är det osannolikt att det skulle hantera de identifierade problemen på ett effektivt sätt. Genomförandegraden för icke-bindande instrument är svår att förutsäga och det finns inte tillräckliga indikationer på att en rekommendation skulle vara övertygande nog för att åstadkomma en konsekvent anpassning av nationella lagstiftning.

Denna effekt är än mer osannolik för privaträttsliga åtgärder, i vilka regler om utomobligatoriskt skadeståndsansvar ingår. Detta område kännetecknas av långvariga rättsliga traditioner, vilket gör att medlemsstaterna är ovilliga att genomföra koordinerade reformer om de inte drivs av tydliga utsikter till fördelar för den inre marknaden inom ramen för ett bindande EU-instrument eller av behovet av att anpassa sig till ny teknik i den digitala ekonomin.

Ett annat skäl till att en rekommendation sannolikt inte kommer att genomföras på ett konsekvent sätt är de befintliga betydande skillnaderna mellan medlemsstaternas ansvarsramar.

1.RESULTAT AV EFTERHANDSUTVÄRDERINGAR, SAMRÅD MED BERÖRDA PARTER OCH KONSEKVENSBEDÖMNINGAR

·Samråd med berörda parter

En omfattande samrådsstrategi genomfördes för att säkerställa ett brett deltagande av berörda parter under hela policycykeln för detta förslag. Samrådsstrategin baserades på både offentliga och flera riktade samråd (webbinarier, bilaterala diskussioner med företag och olika organisationer).

Efter de inledande frågorna om ansvarsskyldighet, som ingick i det offentliga samrådet om vitboken om AI och kommissionens rapport om konsekvenser för säkerhet och ansvar, var ett särskilt offentligt samråd tillgängligt på nätet mellan den 18 oktober 2021 och den 10 januari 2022 i syfte att samla in synpunkter från ett brett spektrum av berörda parter, däribland konsumenter, civilsamhällesorganisationer, branschorganisationer, företag, inklusive små och medelstora företag, och offentliga myndigheter. Efter analys av alla mottagna svar offentliggjorde kommissionen både en sammanfattning och de enskilda svaren på sin webbplats 24 .

Sammanlagt inkom 233 svar från svarande från 21 medlemsstater samt från tredjeländer. På det hela taget bekräftade de flesta berörda parter problemen med bevisbörda, rättsosäkerhet och fragmentering och ställde sig bakom åtgärder på EU-nivå.

EU-medborgare, konsumentorganisationer och akademiska institutioner bekräftade med en överväldigande majoritet behovet av EU-åtgärder för att minska skadelidandes problem med bevisbördan. Samtidigt som företagen erkände de negativa effekterna av osäkerheten kring tillämpningen av ansvarsreglerna var de mer försiktiga och bad om riktade åtgärder för att undvika att begränsa innovationen.

En liknande bild framkom när det gäller policy-alternativen. EU-medborgare, konsumentorganisationer och akademiska institutioner stödde starkt åtgärder avseende bevisbördan och harmonisering av strikt ansvar i kombination med obligatorisk försäkring. Företag var mer delade när det gällde policy-alternativen, och skillnaderna berodde delvis på deras storlek. En majoritet av de företag som svarade ansåg att strikt ansvar var oproportionerligt. Harmoniseringen av lättnader i bevisbördan fick mer stöd, särskilt bland små och medelstora företag. Företagen varnade dock för att helt omvända bevisbördan.

Därför utvecklades och förfinades det rekommenderade alternativet mot bakgrund av återkoppling från berörda parter under hela konsekvensbedömningsprocessen för att hitta en balans mellan de behov som uttrycktes och de farhågor som framfördes av alla relevanta intressentgrupper.

·Insamling och användning av sakkunnigutlåtanden

Förslaget bygger på fyra års analys och nära medverkan från berörda parter, däribland akademiker, företag, konsumentorganisationer, medlemsstater och medborgare. Det förberedande arbetet inleddes 2018 i och med inrättandet av expertgruppen för ansvarsfrågor och ny teknik (konstellationen för ny teknik). Expertgruppen utarbetade i november 2019 en rapport 25 som bedömde de utmaningar som vissa av AI:s särdrag innebär för nationella civilrättsliga skadeståndsregler.

Expertgruppens rapport kompletterades med tre ytterligare tre externa studier:

En komparativrättslig studie som bygger på en jämförande rättslig analys av europeisk skadeståndsrätt med fokus på AI-relaterade frågor 26 ,

en studie ur perspektivet på ekonomiskt beteende, om effekterna av riktade anpassningar av ansvarsordningen på konsumenternas beslutsfattande, särskilt deras förtroende och vilja att använda AI-baserade produkter och tjänster 27 ,

en ekonomisk studie 28 som omfattar ett antal frågor: de utmaningar som de som lidit skada av AI-applikationer står inför jämfört med de som lidit skada av enheter utan AI, när de försöker få ersättning för sin förlust, huruvida och i vilken utsträckning företag är osäkra på hur de nuvarande ansvarsreglerna tillämpas på deras verksamhet som involverar AI, och huruvida effekterna av rättsosäkerhet kan hämma investeringar i AI, huruvida ytterligare fragmentering av de nationella ansvarslagarna skulle minska den inre marknadens effektivitet vad gäller AI-applikationer och AI-tjänster, och huruvida och i vilken utsträckning harmonisering av vissa aspekter av det nationella skadeståndsansvaret genom EU-lagstiftning skulle minska dessa problem och underlätta EU-företagens allmänna upptagning av AI-teknik.

·Konsekvensbedömning

I linje med sin politik för bättre lagstiftning har kommissionen gjort en konsekvensbedömning av detta förslag som har granskats av kommissionens nämnd för lagstiftningskontroll. Mötet i nämnden för lagstiftningskontroll den 6 april 2022 ledde till ett positivt yttrande med kommentarer.

Tre alternativ bedömdes:

Alternativ 1: tre åtgärder för att minska bevisbördan för skadelidande som försöker bevisa sitt skadeståndsanspråk.

Alternativ 2: åtgärderna i alternativ 1 + harmonisering av regler för strikt ansvar avseende AI-användningsfall med en särskild riskprofil, kombinerat med en obligatorisk försäkring.

Alternativ 3: en stegvis strategi som består av

ett första steg: åtgärderna enligt alternativ 1,

ett andra steg: en översynsmekanism för att på nytt särskilt bedöma behovet av att harmonisera strikt ansvar för AI-användningsfall med en särskild riskprofil (eventuellt i kombination med en obligatorisk försäkring).

De politiska alternativen jämfördes genom en multikriterieanalys med beaktande av deras ändamålsenlighet, effektivitet, samstämmighet och proportionalitet. Resultaten av multikriterie- och känslighetsanalysen visar att alternativ 3, som minskar bevisbördan för AI-relaterade anspråk + en riktad översyn av strikt ansvar, eventuellt i kombination med obligatorisk försäkring, rankas högst och därför är det alternativ som föredras för detta förslag.

Det rekommenderade alternativet skulle säkerställa att personer som lidit skada på grund av AI-baserade produkter och tjänster (fysiska personer, företag och andra offentliga eller privata enheter) inte är mindre skyddade än de som lidit skada på grund av traditionell teknik. Det skulle öka förtroendet för AI och främja dess spridning.

Det skulle dessutom minska rättsosäkerheten och förhindra fragmentering, och på så sätt hjälpa företag, främst små och medelstora företag, som vill förverkliga den fulla potentialen hos EU:s inre marknad genom att introducera AI-baserade produkter och tjänster över gränserna. Det rekommenderade alternativet skapar också bättre förutsättningar för försäkringsgivare att kunna erbjuda täckning av AI-relaterad verksamhet, vilket är avgörande för företags, särskilt små och medelstora företags, riskhantering. Det uppskattas nämligen att det rekommenderade alternativet skulle generera ett ökat AI-marknadsvärde i EU-27 på ungefär 500 miljoner–1,1 miljarder EUR år 2025.

·Grundläggande rättigheter

Ett av de viktigaste syftena med bestämmelser om civilrättsligt ansvar är att se till att skadelidande kan begära ersättning. Genom att garantera en effektiv kompensation bidrar dessa regler till skyddet av rätten till ett effektivt rättsmedel och till en opartisk domstol (artikel 47 i Europeiska unionens stadga om de grundläggande rättigheterna, stadgan), samtidigt som potentiellt ansvariga personer uppmuntras att förebygga skador, för att undvika ansvarsskyldighet.

Med detta förslag strävar kommissionen efter att säkerställa att skadelidande vilkas skador har orsakas av AI har ett likvärdigt skydd enligt reglerna om civilrättsligt ansvar som skadelidande vilkas skador har orsakats utan medverkan av AI. Förslaget kommer att möjliggöra en effektiv privat tillämpning av de grundläggande rättigheterna och bevara rätten till ett effektivt rättsmedel när AI-specifika risker har förverkligats. Förslaget kommer särskilt att bidra till att skydda de grundläggande rättigheterna, såsom rätten till liv (artikel 2 i stadgan), rätten till fysisk och mental integritet (artikel 3) och rätten till egendom (artikel 17). Beroende på varje medlemsstats civilrättsliga system och traditioner kommer skadelidande dessutom att kunna begära ersättning för skada på andra rättsliga intressen, såsom kränkningar av den personliga värdigheten (artiklarna 1 och 4 i stadgan), respekt för privatlivet och familjelivet (artikel 7), likhet inför lagen (artikel 20) och icke-diskriminering (artikel 21).

Dessutom kompletterar detta förslag andra delar av kommissionens AI-politik som bygger på förebyggande reglerings- och tillsynskrav som direkt syftar till att undvika kränkningar av de grundläggande rättigheterna (såsom diskriminering). Dessa är rättsakten om artificiell intelligens, den allmänna dataskyddsförordningen, rättsakten om digitala tjänster och EU-lagstiftning om icke-diskriminering och likabehandling. Samtidigt skapar eller harmoniserar detta förslag inte aktsamhetskraven eller ansvarsskyldigheten för olika enheter vars verksamhet regleras genom dessa rättsakter, och det skapar därför inte några nya skadeståndsanspråk och påverkar inte de undantag från ansvar som föreskrivs i dessa andra rättsakter. Genom detta förslag införs endast lättnader i bevisbördan för skadelidande vilka har lidit skador orsakade av AI-system, vad gäller anspråk som kan grundas på nationell lagstiftning eller på dessa andra EU-lagar. Genom att komplettera dessa andra delar skyddar detta förslag skadelidandes privaträttsliga rätt till ersättning, inbegripet ersättning för kränkningar av de grundläggande rättigheterna.

4.BUDGETKONSEKVENSER

Detta förslag påverkar inte Europeiska unionens budget.

5.ÖVRIGA INSLAG

·Genomförandeplaner och tillsyn, utvärdering, tillsynsprogram och riktad översyn

I detta förslag föreslås en stegvis strategi. För att säkerställa att tillräckliga bevis finns tillgängliga för den riktade översynen i det andra steget kommer kommissionen att utarbeta en tillsynsplan med närmare uppgifter om hur och hur ofta uppgifter och andra nödvändiga styrkande underlag kommer att samlas in.

Tillsynsmekanismen skulle kunna omfatta följande typer av uppgifter och styrkande underlag:

Medlemsstaternas rapportering och informationsutbyte om tillämpningen av åtgärder för att minska bevisbördan i nationella rättsliga förfaranden eller förfaranden för tvistlösning utanför domstol.

Information som samlats in av kommissionen eller marknadskontrollmyndigheterna enligt rättsakten om artificiell intelligens (särskilt artikel 62) eller andra relevanta instrument.

Information och analyser till stöd för utvärderingen av rättsakten om artificiell intelligens och de rapporter som kommissionen ska utarbeta om genomförandet av den akten.

Information och analyser till stöd för bedömningen av relevanta framtida policyåtgärder inom ramen för säkerhetslagstiftningen enligt den s.k. gamla metoden för att säkerställa att produkter som släpps ut på unionsmarknaden uppfyller höga hälso-, säkerhets- och miljökrav.

Information och analyser till stöd för kommissionens rapport om tillämpningen av direktivet om motorfordonsförsäkring vad gäller den tekniska utvecklingen (särskilt autonoma och halvautonoma fordon) i enlighet med artikel 28c.2 a i det direktivet.

·Ingående redogörelse för de specifika bestämmelserna i förslaget

1. Syfte och tillämpningsområde (artikel 1)

Syftet med detta direktiv är att förbättra den inre marknadens funktion genom att fastställa enhetliga krav för vissa aspekter av utomobligatoriskt civilrättsligt skadeståndsansvar för en skada som orsakats av AI-system. Det är en uppföljning av Europaparlamentets resolution 2020/2014(INL) och anpassar privaträtten efter behoven i samband med övergången till en digital ekonomi.

Valet av lämpliga rättsliga verktyg är begränsat, med tanke på karaktären på frågan om bevisbörda och de särdrag hos AI som utgör ett problem för befintliga ansvarsregler. I detta avseende lättar detta direktiv på ett mycket målinriktat och proportionerligt sätt på bevisbördan genom användning av offentliggörande och motbevisbara presumtioner. För dem som gör anspråk på skadestånd för en skada fastställer direktivet en möjlighet att få information om AI-system med hög risk som ska registreras eller dokumenteras i enlighet med rättsakten om artificiell intelligens. Utöver detta kommer de motbevisbara presumtionerna att ge dem som begär ersättning för skada som orsakats av AI-system en mer rimlig bevisbörda och möjlighet att vinna framgång med motiverade skadeståndsanspråk.

Sådana verktyg är inte nya. De kan hittas i nationella lagstiftningsordningar. Dessa nationella verktyg utgör därför användbara referenspunkter för hur man ska hantera de problem som AI ger upphov till för befintliga ansvarsregler på ett sätt som i så liten utsträckning som möjligt inkräktar på de olika nationella rättsordningarna.

På frågan om mer långtgående förändringar, såsom omvänd bevisbörda eller en icke motbevisbar presumtion, gav företagen dessutom negativ återkoppling i samråden. Riktade åtgärder för att minska bevisbördan i form av motbevisbara presumtioner valdes som ett pragmatiskt och lämpligt sätt att hjälpa skadelidande att uppfylla sin bevisbörda på ett så målinriktat och proportionerligt sätt som möjligt.

I artikel 1 anges direktivets syfte och tillämpningsområde: det är tillämplig på utomobligatoriska civilrättsliga skadeståndsanspråk för skador som orsakats av ett AI-system, när sådana anspråk görs inom ramen för culpabaserade ansvarssystem. Detta innebär system som föreskriver ett lagstadgat ansvar för att ersätta skada som vållats genom en avsiktlig eller försumlig handling eller underlåtenhet. De åtgärder som föreskrivs i detta direktiv kan friktionsfritt passa in i befintliga system för civilrättsligt ansvar, eftersom de återspeglar en strategi som inte berör definitionen av grundläggande begrepp som ”culpa” eller ”skada”, eftersom innebörden av dessa begrepp varierar avsevärt mellan medlemsstaterna. Utöver de presumtioner som fastställs i direktivet påverkar detta direktiv således inte unionens eller nationella regler som exempelvis fastställer vilken part som har bevisbördan, vilken grad av säkerhet som krävs när det gäller beviskrav eller hur culpa definieras.

Dessutom påverkar detta direktiv inte befintliga regler som reglerar ansvarsvillkoren inom transportsektorn och de som fastställs i rättsakten om digitala tjänster.

Även om detta direktiv inte är tillämpligt på straffrättsligt ansvar kan det vara tillämpligt på statligt ansvar. Statliga myndigheter omfattas också av bestämmelserna i rättsakten om artificiell intelligens eftersom de omfattas av de skyldigheter som föreskrivs i den.

Detta direktiv ska inte tillämpas retroaktivt, utan endast på skadeståndsanspråk som uppstår från och med dagen för dess införlivande.

Förslaget till detta direktiv har antagits tillsammans med förslaget till översyn av direktiv 85/374/EEG om produktansvar, i ett paket som syftar till att anpassa ansvarsreglerna till den digitala tidsåldern och AI, för att säkerställa den nödvändiga anpassningen mellan dessa två kompletterande rättsliga instrument.

2.Definitioner (artikel 2)

Definitionerna i artikel 2 följer definitionerna i rättsakten om artificiell intelligens för att säkerställa enhetlighet.

I artikel 2.6 b föreskrivs att skadeståndsanspråk inte bara kan göras gällande av den skadelidande utan även av personer som skadelidandes rätt har överlåtits eller subrogerats till. Subrogation innebär att en tredje part (t.ex. ett försäkringsbolag) övertar en annan parts lagliga rätt att driva in en skuld eller ett skadestånd. En person har således rätt att göra gällande en annan persons rättigheter för egen räkning. Subrogation skulle även omfatta arvingar till avlidna skadelidande.

Dessutom föreskrivs i artikel 2.6 c att en skadeståndstalan även kan väckas av någon som agerar på en eller flera skadelidande parters vägnar, i enlighet med unionsrätten eller nationell rätt. Denna bestämmelse syftar till att ge fler möjligheter för personer som skadats av ett AI-system att få sina anspråk bedömda av en domstol, även i fall där det kan verka för kostsamt eller besvärligt att genomdriva en enskild talan, eller där en gemensam talan kan medföra storskalighetsfördelar. För att göra det möjligt för skadelidande av skador som orsakas av AI-system att hävda sina rättigheter enligt detta direktiv genom företrädartalan ändras genom artikel 6 bilaga I till direktiv (EU) 2020/1828.

3.Utlämnande av bevis (artikel 3)

Detta direktiv syftar till att ge personer som begär ersättning för skada som orsakats av AI-system med hög risk effektiva medel för att identifiera potentiellt ansvariga personer och relevanta bevis för ett anspråk. Samtidigt syftar sådana medel till att utesluta felaktigt identifierade potentiella motparter, vilket sparar tid och kostnader för de berörda parterna och minskar domstolarnas arbetsbörda.

I detta avseende föreskrivs i artikel 3.1 i direktivet att en domstol får besluta om utlämnande av relevanta bevis om specifika AI-system med hög risk som misstänks ha orsakat skada. Begäran om bevis riktas till leverantören av ett AI-system, en person som omfattas av leverantörens skyldigheter enligt artikel 24 eller artikel 28.1 i rättsakten om artificiell intelligens eller en användare i enlighet med rättsakten om artificiell intelligens. Begäran bör stödjas av fakta och bevis som är tillräckliga för att fastställa rimligheten i en avsedd skadeståndstalan, och det begärda beviset bör stå till adressatens förfogande. Begäranden kan inte riktas till parter som inte har några skyldigheter enligt rättsakten om artificiell intelligens och därför inte har tillgång till beviset.

Enligt artikel 3.2 kan sökanden begära utlämnande av bevis från leverantörer eller användare som inte är motpart endast om alla rimliga försök att samla in bevis från motparten gjorts och dessa misslyckats.

För att de rättsliga medlen ska vara effektiva föreskrivs i artikel 3.3 i direktivet att en domstol även får förordna om bevarande av sådana bevis.

I enlighet med artikel 3.4 första stycket får domstolen besluta om sådant utlämnande endast i den utsträckning som är nödvändig för att styrka kravet, med tanke på att informationen kan utgöra avgörande bevis för den skadelidandes anspråk vid skada som inbegriper AI-system.

Genom att begränsa skyldigheten att lämna ut eller bevara bevis till nödvändiga och proportionella bevis syftar artikel 3.4 första stycket till att säkerställa proportionalitet vid utlämnande av bevis, dvs. att begränsa utlämnandet till ett nödvändigt minimum och förhindra generella begäranden.

Artikel 3.4 andra och tredje styckena syftar vidare till att uppnå en balans mellan sökandens rättigheter och behovet av att säkerställa att ett sådant utlämnande omfattas av skyddsåtgärder för att skydda alla berörda parters legitima intressen, såsom företagshemligheter eller konfidentiell information.

I detta sammanhang syftar artikel 3.4 fjärde stycket till att säkerställa att processuella rättsmedel mot ett beslut om utlämnande eller bevarande finns tillgängliga för den person som är föremål för beslutet.

Genom artikel 3.5 införs en presumtion om bristande iakttagande av ett aktsamhetskrav. Detta är ett processuellt verktyg som endast är relevant i fall där det är den faktiska motparten i ett skadeståndsanspråk som bär konsekvenserna av att inte efterkomma en begäran om utlämnande eller bevarande av bevis. Motparten ska ha rätt att motbevisa den presumtionen. Den åtgärd som anges i denna punkt syftar till att främja utlämnande men också till att påskynda domstolsförfaranden.

4.Presumtion om kausalitet vid culpa (artikel 4)

När det gäller skada som orsakas av AI-system syftar detta direktiv till att tillhandahålla en effektiv grund för att begära ersättning i samband med den culpa som ger sig uttryck genom bristande iakttagande av ett aktsamhetskrav enligt unionsrätten eller nationell rätt.

Det kan vara en utmaning för sökanden att fastställa kausalitet mellan ett sådant bristande iakttagande och den AI-producerade utdatan, eller underlåtenhet att producera utdata, som gav upphov till den relevanta skadan. Därför har en riktad motbevisbar presumtion om kausalitet fastställts i artikel 4.1 när det gäller detta orsakssamband. En sådan presumtion är den minst betungande åtgärden för att tillgodose behovet av skälig ersättning till skadelidande.

Motpartens culpa måste bevisas av sökanden i enlighet med tillämpliga unionsbestämmelser eller nationella regler. Sådan culpa kan exempelvis fastställas för bristande iakttagande av ett aktsamhetskrav enligt rättsakten om artificiell intelligens eller enligt andra regler som fastställts på unionsnivå, såsom de som reglerar användningen av automatiserad övervakning och beslutsfattande för plattformsarbete eller de som reglerar driften av obemannade luftfartyg. Sådan culpa kan också presumeras av domstolen på grundval av bristande efterlevnad av ett domstolsbeslut om utlämnande eller bevarande av bevis enligt artikel 3.5. Det är dock endast lämpligt att införa en presumtion om kausalitet när det kan anses sannolikt att en viss culpa har påverkat det relevanta AI-systemets utdata eller avsaknad av utdata, vilket kan bedömas på grundval av de övergripande omständigheterna i ärendet. Samtidigt måste sökanden fortfarande bevisa att AI-systemet (dvs. dess utdata eller underlåtenhet att producera uteffekt) orsakade skadan.

I punkterna 2) och 3) görs åtskillnad mellan å ena sidan anspråks som görs gällande mot leverantören av ett AI-system med hög risk eller mot en person som omfattas av leverantörens skyldigheter enligt rättsakten om artificiell intelligens och, å andra sidan, anspråk som görs gällande mot användaren av sådana system. I detta avseende följer den de respektive bestämmelserna och de relevanta villkoren i rättsakten om artificiell intelligens. När det gäller anspråk som grundar sig på artikel 4.2 måste motparternas efterlevnad av de skyldigheter som anges i den punkten också bedömas mot bakgrund av riskhanteringssystem och systemets resultat, dvs. riskhanteringsåtgärder, enligt rättsakten om artificiell intelligens.

När det gäller AI-system med hög risk enligt definitionen i rättsakten om artificiell intelligens fastställs i artikel 4.4 ett undantag från presumtionen om kausalitet, om motparten visar att tillräcklig bevisning och sakkunskap är rimligt tillgänglig för sökanden för att bevisa kausaliteten. Denna möjlighet kan ge motparter incitament att uppfylla sina upplysningsskyldigheter, med åtgärder som fastställs i rättsakten för artificiell intelligens för att säkerställa en hög grad av insyn i AI:n, eller sina dokumentations- och registreringskrav.

När det gäller AI-system som inte medför en hög risk fastställs i artikel 4.5 ett villkor för att presumtionen om kausalitet ska vara tillämplig. Enligt detta villkor ska, för att presumtionen ska gälla, en domstol fastställa att det är orimligt svårt för sökanden att bevisa ett orsakssamband. Sådana svårigheter ska bedömas mot bakgrund av särdragen hos vissa AI-system, såsom autonomi och brist på insyn, som i praktiken gör det mycket svårt att förklara AI-systemets inre funktion, vilket inverkar negativt på sökandens förmåga att bevisa orsakssambandet mellan motpartens culpa och AI-utdatan.

I fall där motparten använder AI-systemet i samband med en privat icke-yrkesmässig verksamhet föreskrivs i artikel 4.6 att presumtionen om kausalitet endast bör gälla om motparten har gjort materiella ingrepp på villkoren för AI-systemets drift, eller om motparten varit skyldig och i stånd att fastställa ett AI-systems driftsvillkor och har underlåtit att göra detta. Detta villkor motiveras av behovet av att balansera de skadelidandes och icke-yrkesmässiga användarnas intressen genom att från tillämpningen av presumtionen om kausalitet undanta de fall där icke-yrkesmässiga användare inte ökar risken genom sitt beteende.

Slutligen föreskrivs i artikel 4.7 att motparten har rätt att motbevisa den presumtion om kausalitet som grundar sig på artikel 4.1.

Sådana effektiva regler om civilrättsligt ansvar har den ytterligare fördelen att de ger alla som är involverade i verksamhet som rör AI-system ett ytterligare incitament att respektera sina skyldigheter när det gäller deras förväntade beteende.

5.Utvärdering och riktad översyn (artikel 5)

Olika nationella rättssystem föreskriver olika system för strikt ansvar. Delar av ett sådant system på unionsnivå föreslogs också av Europaparlamentet i dess resolution på eget initiativ av den 20 oktober 2020, bestående av ett begränsat strikt ansvarssystem för viss AI-baserad teknik och en förenklad bevisbörda enligt reglerna om culpabaserat skadeståndsansvar. De offentliga samråden visade också att de svarande föredrar ett sådant system (utom företag som inte är små och medelstora företag), oavsett om det är kopplat till obligatorisk försäkring eller inte.

Förslaget tar dock hänsyn till skillnaderna mellan nationella rättstraditioner och det faktum att de typer av produkter och tjänster som är utrustade med AI-system som kan påverka allmänheten i stort och äventyra viktiga rättsliga rättigheter, såsom rätten till liv, hälsa och egendom, och som därför skulle kunna omfattas av ett strikt ansvarssystem, ännu inte finns allmänt tillgängliga på marknaden.

Ett tillsynsprogram inrättas för att förse kommissionen med information om incidenter som involverar AI-system. Vid den riktade översynen bedömer man om ytterligare åtgärder behövs, såsom införande av ett strikt ansvarssystem eller obligatorisk försäkring.

6.Införlivande (artikel 7)

När medlemsstaterna till kommissionen anmäler nationella införlivandeåtgärder för att följa detta direktiv bör de också tillhandahålla förklarande dokument som innehåller tillräckligt tydlig och exakt information, och som för varje bestämmelse i detta direktiv anger de nationella bestämmelser som säkerställer dess införlivande. Detta är nödvändigt för att kommissionen, för varje bestämmelse i direktivet som ska införlivas, ska kunna identifiera den relevanta delen av de nationella införlivandeåtgärder som skapar motsvarande rättsliga skyldigheter i den nationella rättsordningen, oavsett vilken form medlemsstaterna väljer.



2022/0303 (COD)

Förslag till

EUROPAPARLAMENTETS OCH RÅDETS DIREKTIV

Om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens
(direktivet om skadeståndsansvar gällande AI)

(Text av betydelse för EES)

EUROPAPARLAMENTET OCH EUROPEISKA UNIONENS RÅD HAR ANTAGIT DETTA DIREKTIV

med beaktande av fördraget om Europeiska unionens funktionssätt, särskilt artikel 114,

med beaktande av Europeiska kommissionens förslag,

efter översändande av utkastet till lagstiftningsakt till de nationella parlamenten,

med beaktande av Europeiska ekonomiska och sociala kommitténs yttrande 29 ,

med beaktande av Regionkommitténs yttrande 30 ,

i enlighet med det ordinarie lagstiftningsförfarandet, och

av följande skäl:

(1)Artificiell intelligens (AI) är en uppsättning möjliggörande tekniker som kan bidra till en uppsjö av fördelar över hela spektrumet av ekonomi och samhälle. Den har stor potential för tekniska framsteg och möjliggör nya affärsmodeller inom många sektorer av den digitala ekonomin.

(2)Samtidigt kan artificiell intelligens, beroende på omständigheterna kring den specifika tillämpningen och användningen, ge upphov till risker och skada intressen och rättigheter som skyddas av unionsrätten eller nationell rätt. Till exempel kan användningen av AI inverka negativt på ett antal grundläggande rättigheter, däribland liv, fysisk integritet samt icke-diskriminering och likabehandling. I Europaparlamentets och rådets förordning (EU).../... [rättsakten om artificiell intelligens] 31 föreskrivs krav som syftar till att minska riskerna som hotar säkerhet och grundläggande rättigheter, medan andra unionsrättsakter reglerar allmänna 32 och sektorsspecifika produktsäkerhetsbestämmelser som även är tillämpliga på maskinprodukter 33 och radioutrustning 34 som omfattar AI. Sådana krav, som syftar till att minska de risker som hotar säkerhet och grundläggande rättigheter, är avsedda att förebygga, övervaka och hantera risker och därmed hantera oron i samhället, men de ger inte individuell hjälp till dem som har lidit skada orsakad av AI. Befintliga krav föreskriver i synnerhet tillstånd, kontroller, övervakning och administrativa sanktioner i samband med AI-system för att förebygga skador. De föreskriver inte ersättning till den skadelidande för skada som orsakats av ett AI-systems utdata eller dess underlåtenhet att producera utdata.

(3)När en skadelidande person begär ersättning för den skada som lidits kräver medlemsstaternas allmänna regler baserade på culpa vanligtvis att den skadelidande visar att den person som potentiellt är ansvarig för skadan har begått en skadlig handling eller underlåtenhet av oaktsamhet eller avsiktligt (culpa), samt att det föreligger ett orsakssamband mellan det och den aktuella skadan. När AI inskrider emellan en persons handling eller underlåtenhet och skadan kan dock särdragen hos vissa AI-system, såsom bristande insyn, självständigt beteende och komplexitet, göra det orimligt svårt, för att inte säga omöjligt, för den skadelidande personen att uppfylla denna bevisbörda. I synnerhet kan det vara orimligt svårt att bevisa att en specifik inmatning som den potentiellt ansvarsskyldiga personen är ansvarig för har orsakat specifika utdata från AI-systemet som lett till den aktuella skadan.

(4)I sådana fall kan ersättningsnivån enligt nationella bestämmelser om civilrättsligt ansvar vara lägre än i ärenden där annan teknik än AI varit del i att orsaka skadan. Sådana kompensationsluckor kan bidra till en lägre grad av samhällelig acceptans av AI och lägre förtroende för AI-baserade produkter och tjänster.

(5)För att dra nytta av de ekonomiska och samhälleliga fördelarna med AI och främja omställningen till den digitala ekonomin är det nödvändigt att på ett målinriktat sätt anpassa vissa nationella bestämmelser om civilrättsligt ansvar till dessa särdrag hos vissa AI-system. Sådana anpassningar bör bidra till samhällets och konsumenternas förtroende och därigenom främja spridningen av AI. Sådana anpassningar bör också upprätthålla förtroendet för rättssystemet genom att säkerställa att offer för skador som orsakats på grund av inblandning av AI får samma effektiva ersättning som offer för skador som orsakats av annan teknik.

(6)Berörda parter – skadelidande, potentiellt ansvarsskyldiga personer, försäkringsgivare – står inför ett osäkert rättsläge när det gäller hur nationella domstolar, när dessa ställs inför de specifika utmaningar som AI innebär, kan tillämpa de befintliga ansvarsreglerna i enskilda fall för att uppnå rättvisa resultat. I avsaknad av unionsåtgärder kommer åtminstone vissa medlemsstater sannolikt att anpassa sina regler om civilrättsligt ansvar för att hantera kompensationsluckor och rättsosäkerhet som har kopplingar till särdragen hos vissa AI-system. Detta skulle skapa rättslig fragmentering och hinder på den inre marknaden för företag som utvecklar eller tillhandahåller innovativa AI-baserade produkter eller tjänster. Små och medelstora företag skulle drabbas särskilt hårt.

(7)Syftet med detta direktiv är att bidra till en väl fungerande inre marknad genom att harmonisera vissa nationella regler om utomobligatoriskt skadeståndsansvar, för att säkerställa att personer som begär ersättning för skada som orsakats dem av ett AI-system åtnjuter en skyddsnivå som motsvarar den som gäller för personer som begär ersättning för skada som orsakats utan att ett AI-system är inblandat. Detta mål kan inte i tillräcklig utsträckning uppnås av medlemsstaterna eftersom de aktuella hindren för den inre marknaden är kopplade till risken för ensidiga och fragmenterade regleringsåtgärder på nationell nivå. Med tanke på den digitala karaktären hos de produkter och tjänster som omfattas av detta direktiv är det senare särskilt relevant i ett gränsöverskridande sammanhang.

(8)Målet att säkerställa rättssäkerhet och förebygga kompensationsluckor i fall där AI-system är involverade kan därför bättre uppnås på unionsnivå. Unionen kan därför vidta åtgärder i enlighet med subsidiaritetsprincipen enligt artikel 5 i EU-fördraget. I enlighet med proportionalitetsprincipen i samma artikel går detta direktiv inte utöver vad som är nödvändigt för att uppnå detta mål.

(9)Det är därför nödvändigt att på ett målinriktat sätt harmonisera specifika aspekter av regler om skadeståndsansvar baserade på culpa på unionsnivå. En sådan harmonisering bör öka den rättsliga förutsebarheten och skapa lika villkor för AI-system och därigenom förbättra den inre marknadens funktion när det gäller produktion och spridning av AI-baserade produkter och tjänster.

(10)För att säkerställa proportionalitet är det lämpligt att på ett målinriktat sätt harmonisera endast de culpabaserade regler om skadeståndsansvar som reglerar bevisbördan för personer som begär ersättning för skada som orsakats av AI-system. Detta direktiv bör inte harmonisera allmänna aspekter av civilrättsligt skadeståndsansvar som regleras på olika sätt i nationella bestämmelser, såsom definitionen av culpa eller kausalitet, de olika typer av skador som ger upphov till skadeståndsanspråk, ansvarsfördelningen mellan flera skadevållare, medverkande beteende, beräkning av skadestånd eller preskriptionstider.

(11)Medlemsstaternas lagstiftning om tillverkarnas ansvar för skada orsakad av defekter hos deras produkter har redan harmoniserats på unionsnivå genom rådets direktiv 85/374/EEG 35 . Dessa lagar påverkar emellertid inte medlemsstaternas regler om inom- eller utomobligatoriskt ansvar, såsom garantier, culpa eller strikt ansvar, som grundar sig på andra skäl än produktens defekt. Översynen av rådets direktiv 85/374/EEG syftar till att klargöra och säkerställa att skadelidande personer kan begära ersättning för skador som orsakats av defekta produkter som omfattar AI, men det bör förtydligas att bestämmelserna i detta direktiv inte påverkar de rättigheter som en skadelidande person kan ha enligt nationella bestämmelser om genomförande av direktiv 85/374/EEG. På transportområdet bör unionslagstiftning som reglerar transportföretagens ansvar inte påverkas av detta direktiv.

(12)[Rättsakten om digitala tjänster 36 ] harmoniserar fullt ut de regler som är tillämpliga på leverantörer av förmedlingstjänster på den inre marknaden och täcker de samhällsrisker som härrör från de tjänster som erbjuds av dessa leverantörer, även när det gäller de AI-system som de använder. Detta direktiv påverkar inte de bestämmelser i [rättsakten om digitala tjänster] som tillhandahåller en heltäckande och fullständigt harmoniserad ram för skyldigheter avseende tillbörlig aktsamhet för värdtjänstleverantörers algoritmiska beslutsfattande, inbegripet undantaget från ansvar för spridning av olagligt innehåll som laddats upp av tjänstemottagare om villkoren i den förordningen är uppfyllda.

(13)Med undantag för de presumtioner som fastställs i detta direktiv harmoniserar det inte den nationella lagstiftningen om vilken part som har bevisbördan eller vilken grad av säkerhet som krävs när det gäller beviskraven. 

(14)Detta direktiv bör följa en strategi för minimiharmonisering. En sådan strategi gör det möjligt för sökanden, i fall av skada som orsakas av AI-system, att åberopa förmånligare bestämmelser i nationell rätt. Nationella lagar skulle till exempel kunna upprätthålla den omvända bevisbördan inom ramen för nationella skadeståndsordningar baserade på culpa eller ordningar för strikt ansvar, vilka redan existerar i varierande form i nationell lagstiftning och eventuellt är tillämpliga på skador som orsakas av AI-system.

(15)Överensstämmelse med [rättsakten om artificiell intelligens] bör också säkerställas. Det är därför lämpligt att i detta direktiv använda samma definitioner för AI-system, leverantörer och användare. Därutöver bör detta direktiv endast omfatta skadeståndsanspråk när skadan orsakas av utdata från ett AI-system eller ett AI-systems underlåtenhet att producera utdata genom en persons culpa, till exempel en leverantör eller en användare enligt [rättsakten om artificiell intelligens]. Det finns inget behov av att täcka skadeståndsanspråk när en skada orsakats av en mänsklig bedömning följd av en mänsklig handling eller försummelse, när AI-systemet endast tillhandahållit information eller råd som beaktats av den berörda mänskliga aktören. I det senare fallet är det möjligt att spåra skadan till en mänsklig handling eller underlåtenhet, eftersom AI-systemets utdata inte inskrider mellan den mänskliga handlingen eller underlåtenheten och skadan, varmed fastställandet av kausalitet inte är svårare än i situationer där ett AI-system inte varit inblandat.

(16)Tillgång till information om specifika AI-system med hög risk som misstänks ha orsakat en skada är en viktig faktor för att fastställa om kompensation ska begäras och för att styrka skadeståndsanspråk. För AI-system med hög risk föreskriver [rättsakten om artificiell intelligens] dessutom krav på särskild dokumentation, information och loggföring, men den ger inte en skadelidande person rätt att få tillgång till den informationen. Det är därför lämpligt att fastställa regler om utlämnande av relevanta bevis för dem som förfogar över denna, i syfte att fastställa ansvar. Detta bör också medföra ytterligare ett incitament att följa de relevanta kraven i [rättsakten om artificiell intelligens] för dokumentering eller registrering av relevant information.

(17)Det stora antalet personer som vanligen är inblandade i utformningen, utvecklingen, införandet och driften av AI-system med hög risk gör det svårt för skadelidande personer att identifiera den person som potentiellt är ansvarig för den skada som orsakats, och att bevisa förutsättningarna för skadeståndsanspråk. För att göra det möjligt för skadelidande personer att avgöra om ett skadeståndsanspråk är välgrundat är det lämpligt att ge potentiella sökande en rätt att begära att en domstol förelägger att relevanta bevis ska utlämnas, innan de väcker talan om skadeståndsanspråk. Ett sådant utlämnande bör endast föreläggas om den potentiella sökanden lägger fram fakta och information som tillräckligt stöder rimligheten i ett skadeståndsanspråk, och om den potentiella sökanden tidigare har begärt att leverantören, den person som omfattas av leverantörens skyldigheter eller användaren lämnar ut bevis som de förfogar över, om specifika AI-system med hög risk som misstänks ha orsakat skadan, och denna begäran har vägrats. Möjligheten till förelägganden om utlämnande bör leda till en minskning av onödiga tvister och att kostnader för eventuella parter, förorsakade av käromål som är obefogade eller sannolikt inte når framgång, undviks. Vägran av en leverantör, den person som omfattas av en leverantörs skyldigheter eller en användare, som föregår en begäran till domstol om utlämnande av bevis, bör inte leda till en presumtion om att den person som vägrar en sådan utlämning inte rättar sig efter relevanta aktsamhetskrav.

(18)Begränsningen av bevisutlämning när det gäller AI-system med hög risk är förenlig med [rättsakten om artificiell intelligens], som föreskriver vissa specifika dokumentations-, registrerings- och informationsskyldigheter för operatörer som deltar i utformning, utveckling och införande av AI-system med hög risk. En sådan förenlighet säkerställer också nödvändig proportionalitet genom att undvika att operatörer av AI-system som utgör en lägre eller ingen risk förväntas dokumentera information på en nivå lik den som krävs för AI-system med hög risk enligt [rättsakten om artificiell intelligens].

(19)Nationella domstolar bör i tvistemålsprocesser kunna förelägga en person, som redan omfattas av en skyldighet enligt [rättsakten om artificiell intelligens] att dokumentera eller registrera information, att, antingen som motpart eller som tredje man vid talan, lämna ut eller bevara relevanta bevis rörande en skada orsakad av ett AI-system med hög risk, oavsett om personen är en leverantör, en person som omfattas av leverantörens skyldigheter eller en användare av ett AI-system. Det kan finnas situationer där de bevis som är relevanta i ett mål innehas av enheter som inte skulle vara part vid talan om skadestånd men som enligt [rättsakten om artificiell intelligens] är skyldiga att dokumentera eller registrera sådana bevis. Det är därför nödvändigt att fastställa de villkor enligt vilka tredje man vid ett skadeståndsanspråk kan föreläggas att lämna ut relevanta bevis.

(20)För att upprätthålla en balans mellan intressena hos de parter som berörs av skadeståndsanspråket och intressena hos berörd tredje man bör domstolarna endast förelägga att bevis ska lämnas ut om det är nödvändigt och proportionellt för att stödja ett skadeståndsanspråk eller ett potentiellt skadeståndsanspråk. Utlämnande bör i detta avseende endast avse bevis som är nödvändiga för ett beslut om respektive skadeståndsanspråk, till exempel endast de delar av relevanta register eller datamängder som krävs för att kunna bevisa bristande efterlevnad av ett krav som är fastställt i [rättsakten om artificiell intelligens]. För att säkerställa proportionaliteten i sådana åtgärder för utlämning eller bevarande bör nationella domstolar ha effektiva medel på plats för att skydda involverade sakägares legitima intressen, såsom skydd av företagshemligheter i den mening som avses i Europaparlamentets och rådets direktiv (EU) 2016/943 37 och av konfidentiell information, såsom information som rör allmän eller nationell säkerhet. När det gäller företagshemligheter eller påstådda företagshemligheter som en domstol har identifierat som konfidentiella i den mening som avses i direktiv (EU) 2016/943, bör nationella domstolar ha befogenhet att vidta särskilda åtgärder för att säkerställa konfidentialiteten för företagshemligheter under och efter rättegång, samtidigt som en rättvis och proportionell balans uppnås mellan intressena för en innehavare av en företagshemlighet att bibehålla hemligheten å ena sidan, och intressena för en skadelidande å andra sidan. Detta bör inbegripa åtgärder för att begränsa tillgången till dokument som innehåller företagshemligheter samt förhandlingar eller handlingar och utskrifter därav, till ett begränsat antal personer. När de nationella domstolarna beslutar om sådana åtgärder bör de ta hänsyn till behovet av att säkerställa rätten till ett effektivt rättsmedel och rätten till en opartisk domstol, de berörda parternas och, i tillämpliga fall, tredje mans legitima intressen samt till sådan skada som någon av parterna och, i tillämpliga fall, tredje man skulle kunna åsamkas till följd av ett bifall till eller avslag på ansökan om sådana åtgärder. För att säkerställa en proportionell tillämpning av en åtgärd gentemot tredje man om utlämning i talan om skadeståndsanspråk bör nationella domstolar endast förelägga utlämning från tredje man om bevisen inte kan erhållas från motparten.

(21)Även om nationella domstolar genom olika åtgärder har möjlighet att verkställa sina förelägganden om utlämnande skulle sådana verkställande åtgärder kunna ge upphov till dröjsmål med skadeståndsanspråken och därmed potentiellt tillfoga parterna ytterligare kostnader. För skadelidande personer kan sådana dröjsmål och merkostnader göra det svårare för dem att få tillgång till ett effektivt rättsmedel. Om motparten vid ett ersättningsanspråk efter domstolsföreläggande underlåter att lämna ut bevis som denna förfogar över är det därför lämpligt att fastställa en presumtion om bristande efterlevnad av aktsamhetskraven, som de nämnda bevisen avser att bevisa. Denna presumtion, som kan vederläggas, kommer att förkorta tvisternas varaktighet och främja ett mer effektivt rättegångsförfarande. Motparten bör kunna vederlägga denna presumtion genom att lägga fram bevis för motsatsen.

(22)För att komma till rätta med svårigheterna att bevisa att en specifik inmatning som den potentiellt ansvarsskyldiga personen är ansvarig för har orsakat specifika utdata från AI-systemet, som lett till den aktuella skadan, är det lämpligt att på vissa villkor föreskriva en presumtion om kausalitet. Medan sökanden i en talan om ansvar på grund av culpa vanligen måste bevisa en skada, en mänsklig handling eller underlåtenhet som utgör motpartens culpa och ett orsakssamband mellan de båda, harmoniserar detta direktiv inte de rekvisit enligt vilka nationella domstolar fastställer culpa. Rekvisiten regleras fortsatt av tillämplig nationell lagstiftning och, i det fall de har harmoniserats, av tillämplig unionslagstiftning. Detta direktiv harmoniserar inte heller de förhållanden som är hänförliga till en skada, vilka också regleras av tillämplig nationell lagstiftning och unionsrätt, såsom frågan om vilka skador som kan ersättas. För att presumtionen om kausalitet enligt detta direktiv ska vara tillämplig bör motpartens culpa fastställas som en mänsklig handling eller underlåtenhet som inte uppfyller ett aktsamhetskrav enligt unionsrätten eller nationell rätt som är direkt avsett att skydda mot den uppkomna skadan. Denna presumtion kan således till exempel tillämpas vid en talan om ersättning för personskada när en domstol fastställer motpartens culpa på grund av bristande efterlevnad av de bruksanvisningar som är avsedda att förhindra skada för fysiska personer. Bristande efterlevnad med aktsamhetskrav som inte är direkt avsedda att skydda mot uppkomna skador leder inte till att presumtionen tillämpas; till exempel så skulle en leverantörs underlåtenhet att inlämna erforderlig dokumentation till de behöriga myndigheterna inte leda till en tillämpning av presumtionen vid skadeståndsanspråk till följd av personskada. Det bör även krävas att man fastställer att det på grundval av omständigheterna i det enskilda fallet kan anses vara rimligt att anta att culpan har påverkat utdata som producerats av ett AI-system eller en underlåtenhet av ett AI-system att producera utdata. Slutligen bör en sökande fortfarande vara skyldig att bevisa att utdata eller underlåtenhet att producera en utdata har orsakat skadan.

(23)Sådan culpa kan fastställas med avseende på bristande efterlevnad av unionsregler som specifikt reglerar AI-system med hög risk, såsom de krav som införs för vissa AI-system med hög risk genom [rättsakten för artificiell intelligens], krav som kan införas genom framtida sektorspecifik lagstiftning för andra AI-system med hög risk i enlighet med [artikel 2.2 i rättsakten för artificiell intelligens], eller aktsamhetskrav kopplade till vissa verksamheter och som är tillämpliga oavsett om AI används för den verksamheten eller inte. Samtidigt varken skapar eller harmoniserar direktivet kraven, eller ansvaret som enheter vars verksamhet regleras genom dessa rättsakter har, varigenom direktivet inte skapar nya skadeståndsanspråk. Fastställandet av överträdelse av ett sådant krav, som innebär culpa, kommer att göras i enlighet med sådana tillämpliga unionsrättsliga bestämmelser, eftersom detta direktiv varken inför nya krav eller påverkar befintliga krav. Exempelvis påverkas inte undantaget från ansvar för leverantörer av förmedlingstjänster och de krav på tillbörlig aktsamhet som de omfattas av enligt [rättsakten om digitala tjänster] av detta direktiv. På samma sätt ska efterlevnaden av de krav som ställs på onlineplattformar för att undvika otillåten överföring till allmänheten av upphovsrättsskyddade verk fastställas i enlighet med direktiv (EU) 2019/790 om upphovsrätt och närstående rättigheter på den digitala inre marknaden, och annan relevant unionslagstiftning om upphovsrätt. 

(24)På områden som inte harmoniserats genom unionsrätten fortsätter nationell rätt att gälla och culpa fastställs enligt tillämplig nationell rätt. Alla nationella ansvarsordningar har aktsamhetskrav, med olika uppförandenormer som uttryck för principen om hur en förnuftig person bör handla, som också säkerställer säker drift av AI-system för att förhindrar att erkända rättsliga intressen skadas. Sådana aktsamhetskrav skulle till exempel kunna innebära att användare av AI-system måste välja ett visst AI-system för vissa uppdrag, med konkreta egenskaper, eller exkludera vissa segment av en befolkning från att exponeras för ett visst AI-system. Nationell lagstiftning kan också införa särskilda förpliktelser avsedda att förebygga risker för vissa verksamheter, som är tillämpliga oaktat om AI används i verksamheterna, till exempel trafikregler, eller förpliktelser särskilt utformade för AI-system, såsom ytterligare nationella krav för användare av AI-system med hög risk i enlighet med artikel 29.2 i [rättsakten om artificiell intelligens]. Detta direktiv varken inför sådana krav eller påverkar förutsättningarna för fastställande av culpa i fall där sådana krav överträds.

(25)Även när culpa bestående av åsidosättande av ett aktsamhetskrav som är direkt avsett att skydda mot en uppkommen skada konstateras, bör inte varje fall av culpa leda till en tillämpning av den motbevisbara presumtionen som kopplar culpan till AI:ns utdata. En sådan presumtion bör endast gälla om det på grundval av omständigheterna vid en skadas uppkomst kan anses vara rimligt att anta att culpan har påverkat de utdata som ett AI-system har producerat eller ett AI-systems underlåtenhet att producera utdata, vilket har orsakat skadan. Till exempel kan det vara rimligt att anta att culpa har påverkat utdata, eller en underlåtenhet att producera utdata, när vållandet består av att man brister i aktsamhetskravet när det gäller avgränsningen av verksamhetsområdet för ett AI-system, och en skada har uppkommit utanför det området. Däremot skulle åsidosättandet av ett krav på att lämna in vissa handlingar eller på registrering hos en viss myndighet inte rimligen kunna anses sannolikt ha påverkat utdata som ett AI-system producerar eller en underlåtenhet av ett AI-system att producera utdata, även om ett sådant åsidosättande kan vara föreskrivet för den specifika verksamheten eller till och med vara uttryckligen tillämpligt på AI-systemets drift.

(26)Detta direktiv omfattar culpa som består av bristande efterlevnad av vissa krav, förtecknade i kapitlen 2 och 3 i [rättsakten om artificiell intelligens] för leverantörer och användare av AI-system med hög risk, vars bristande efterlevnad under vissa omständigheter kan leda till en presumtion om kausalitet. Rättsakten om artificiell intelligens föreskriver en fullständig harmonisering av kraven för AI-system, om inte annat uttryckligen anges i denna. Den harmoniserar de särskilda kraven för AI-system med hög risk. När det gäller skadeståndsanspråk där en presumtion om kausalitet enligt detta direktiv tillämpas, fastställs således att leverantörer eller personer som omfattas av en leverantörs skyldigheter enligt [rättsakten om artificiell intelligens], kan vara culpösa endast genom bristande efterlevnad av sådana krav. Med hänsyn till att det i praktiken kan vara svårt för sökanden att bevisa sådan bristande efterlevnad när motparten är en leverantör av ett AI-system, bör det i det här direktivet, i full överensstämmelse med logiken i [rättsakten om artificiell intelligens], också föreskrivas att de åtgärder som leverantörer vidtar inom riskhanteringssystemet och resultaten av riskhanteringssystemen, dvs. beslutet att anta eller inte anta vissa riskhanterande åtgärder, bör beaktas när man fastställer huruvida en leverantör har uppfyllt de relevanta krav i rättsakten om artificiell intelligens som avses i detta direktiv. Det riskhanteringssystem som inrättas av leverantören i enlighet med [rättsakten om artificiell intelligens] är en kontinuerlig iterativ process som pågår under hela livscykeln för AI-system med hög risk, genom vilken leverantören säkerställer efterlevnad av obligatoriska krav som är avsedda att minska riskerna, vilket innebär att systemet kan vara en användbar del i bedömningen av sådan efterlevnad. Detta direktiv omfattar även fall där en användare är culpös och där culpan består av bristande efterlevnad av vissa specifika krav som fastställs i [rättsakten om artificiell intelligens]. Dessutom kan culpa hos användare av AI-system med hög risk fastställas till följd av bristande efterlevnad av andra aktsamhetskrav som föreskrivs i unionsrätten eller nationell rätt, mot bakgrund av artikel 29.2 i [rättsakten om artificiell intelligens].

(27)Även om vissa AI-systems särdrag, såsom autonomi och brist på insyn, skulle kunna göra det orimligt svår för sökanden att uppfylla bevisbördan kan det finnas situationer där sådana svårigheter inte föreligger på grund av att det skulle kunna finnas tillräcklig bevisning och sakkunskap tillgänglig för att sökanden ska kunna bevisa ett orsakssamband, Detta kan till exempel vara fallet med AI-system med hög risk där sökanden rimligen kan få tillgång till tillräcklig bevisning och sakkunskap genom dokumentations- och loggföringskrav i [rättsakten om artificiell intelligens]. I sådana situationer bör domstolarna inte tillämpa presumtionen.

(28)Presumtionen om kausalitet skulle också kunna tillämpas på AI-system som inte har hög risk, eftersom det kan finnas orimliga bevissvårigheter för en sökande. Till exempel skulle sådana svårigheter kunna bedömas mot bakgrund av särdragen hos vissa AI-system, såsom autonomi och brist på insyn, som i praktiken gör det mycket svårt att förklara AI-systemets inre funktion, vilket inverkar negativt på en sökandes förmåga att bevisa ett orsakssamband mellan motpartens culpa och AI-utdata. En nationell domstol bör tillämpa presumtionen om sökanden har det orimligt svårt att bevisa kausalitet, eftersom sökanden måste förklara hur ett AI-system leddes av en mänsklig handling eller underlåtenhet, som utgör culpa, för att producera utdata eller underlåta att producera en utdata, som gav upphov till skada. Sökanden bör dock varken vara skyldig att förklara det berörda AI-systemets egenskaper eller hur dessa egenskaper gör det svårare att fastställa orsakssamband.

(29)Tillämpningen av presumtionen om kausalitet är avsedd att säkerställa en liknande skyddsnivå för en skadelidande person som den i situationer där AI inte är inblandad och där kausalitet därför kan vara lättare att bevisa. Att lätta på bevisbördan med avseende på kausalitet är dock inte alltid lämpligt enligt detta direktiv, när motparten inte är en yrkesmässig användare utan snarare en person som använder ett AI-system för sin privata verksamhet. Under sådana omständigheter måste det, för att balansera en skadelidande persons och en icke-yrkesmässig användares intressen, beaktas huruvida sådana icke-professionella användare genom sitt beteende kan öka risken för att ett AI-system orsakar skada. Om en leverantör av ett AI-system har uppfyllt alla sina skyldigheter och systemet följaktligen har ansetts vara tillräckligt säkert för att släppas ut på marknaden för en viss användning av icke-yrkesmässiga användare och det sedan används för detta ändamål, bör en presumtion om kausalitet inte gälla i samband med att sådana icke-yrkesmässiga användare endast inleder driften av ett sådant system. En icke-yrkesmässig användare som köper ett AI-system och endast startar upp det i enlighet med systemets syfte, utan att materiellt inkräkta i villkoren för driften, bör inte omfattas av den presumtion om kausalitet som fastställs i detta direktiv. Om en nationell domstol fastställer att en icke-yrkesmässig användare inkräktat på villkoren för driften av ett AI-system materiellt, eller var skyldig och kapabel att fastställa villkoren för driften av ett AI-system och underlät att göra detta, bör emellertid presumtionen om kausalitet gälla, om alla andra villkor är uppfyllda. Detta kan till exempel vara fallet när en icke-yrkesmässig användare inte följer bruksanvisningen eller andra tillämpliga aktsamhetskrav när han eller hon väljer verksamhetsområde eller bestämmer ett AI-systems prestandavillkor. Detta påverkar inte det faktum att leverantörer bör bestämma AI-systemens avsedda ändamål, inbegripet det specifika sammanhanget och de specifika villkoren för användning, och eliminera eller minimera riskerna med systemen, beroende på vad som är lämpligt vid tidpunkten för deras utformning och utveckling, med beaktande av den avsedda användarens kunskap och expertis.

(30)Eftersom detta direktiv inför en motbevisbar presumtion bör motparten kunna motbevisa den, särskilt genom att visa att hans eller hennes culpa inte vållat skadan.

(31)Det är nödvändigt att föreskriva en översyn av detta direktiv [fem år] efter utgången av införlivandeperioden. Denna översyn bör särskilt undersöka om det finns ett behov av att skapa regler om strikt ansvar för skadeståndsanspråk mot operatörer, så länge sådana anspråk inte omfattas av andra unionsrättsliga ansvarsregler och då särskilt direktiv 85/374/EEG, i kombination med en obligatorisk försäkring för driften av vissa AI-system, såsom Europaparlamentet föreslagit 38 . Det är i enlighet med proportionalitetsprincipen lämpligt att bedöma ett sådant behov, mot bakgrund av relevant utveckling av teknik och reglering, med beaktande av effekterna för och inverkan på införandet och utbredningen av AI-system, särskilt för små och medelstora företag. Vid en sådan översyn bör man bland annat beakta risker som innebär skada på viktiga rättsliga värden, såsom liv, hälsa och egendom hos ovetande tredje man, genom användning av AI-baserade produkter och tjänster. Vid översynen bör man också analysera hur effektiva de åtgärder som föreskrivs i detta direktiv är när det gäller att hantera sådana risker samt försäkringsmarknadens utveckling av lämpliga lösningar. För att säkerställa tillgången till den information som krävs för att genomföra en sådan översyn är det nödvändigt att samla in uppgifter och andra nödvändiga styrkande underlag som avser relevanta frågor.

(32)Med tanke på behovet av att anpassa nationella regler om civilrättsligt ansvar och processrätt för att främja införandet av AI-baserade produkter och tjänster på gynnsamma villkor för den inre marknaden, samhällelig acceptans och konsumenters förtroende för AI-tekniken och rättssystemet, är det lämpligt att fastställa en tidsfrist på högst [två år efter ikraftträdandet] av detta direktiv, inom vilken medlemsstaterna ska antaga nödvändiga införlivandeåtgärder.

(33)I enlighet med den gemensamma politiska förklaringen av den 28 september 2011 från medlemsstaterna och kommissionen om förklarande dokument 39 , har medlemsstaterna åtagit sig att, när det är motiverat, låta anmälan av införlivandeåtgärder åtföljas av ett eller flera dokument som förklarar förhållandet mellan de olika delarna i direktivet och motsvarande delar i de nationella instrumenten för införlivande. Med avseende på detta direktiv anser lagstiftaren att översändandet av sådana dokument är berättigat.

HÄRIGENOM FÖRESKRIVS FÖLJANDE.

Artikel 1

Innehåll och tillämpningsområde

1.I detta direktiv fastställs gemensamma regler om

(a)utlämnande av bevis rörande system för artificiell intelligens (AI) med hög risk, för att en sökande ska kunna styrka ett utomobligatoriskt culpabaserat civilrättsligt skadeståndsanspråk,

(b)bevisbördan vid utomobligatoriska culpabaserade civilrättsliga skadeståndsanspråk som anhängiggörs vid nationella domstolar, vid skador som orsakats av ett AI-system.

2.Detta direktiv tillämpas på utomobligatoriska culpabaserade civilrättsliga skadeståndsanspråk, i fall där den skada som orsakas av ett AI-system inträffar efter [utgången av införlivandeperioden].

Detta direktiv är inte tillämpligt på straffrättsligt ansvar.

3.Detta direktiv ska inte påverka

(a)unionsrättsliga regler som reglerar förutsättningarna för ansvar på transportområdet,

(b)eventuella rättigheter som en skadelidande person kan ha enligt nationella bestämmelser som genomför direktiv 85/374/EEG,

(c)de undantag från ansvar och de krav på tillbörlig aktsamhet som fastställs i [rättsakten om digitala tjänster],

(d)nationella regler som fastställer vilken part som har bevisbördan, vilken grad av säkerhet som krävs när det gäller beviskrav, eller hur culpa definieras, med undantag för vad som föreskrivs i artiklarna 3 och 4.

4.Medlemsstaterna får anta eller bevara nationella regler som är förmånligare för sökanden när det gäller att styrka ett utomobligatoriskt civilrättsligt skadeståndsanspråk för skada som orsakats av ett AI-system, förutsatt att sådana regler är förenliga med unionsrätten.

Artikel 2

Definitioner

I detta direktiv gäller följande definitioner:

(1)AI-system: ett AI-system enligt definitionen i [artikel 3.1 i rättsakten om artificiell intelligens].

(2)AI-system med hög risk: ett AI-system som avses i [artikel 6 i rättsakten om artificiell intelligens].

(3)leverantör: en leverantör enligt definitionen i [artikel 3.2 i rättsakten om artificiell intelligens].

(4)användare: en användare enligt definitionen i [artikel 3.4 i rättsakten om artificiell intelligens].

(5)skadeståndsanspråk: ett utomobligatoriskt culpabaserat civilrättsligt skadeståndsanspråk för skada som vållats av ett AI-systems utdata eller underlåtenhet att producera utdata när utdata borde ha producerats.

(6)sökande: en person som väcker skadeståndstalan och som

(a)har lidit skada av ett AI-systems uteffekt eller underlåtenhet att producera en utdata när utdata borde ha producerats,

(b) genom lag eller avtal har övertagit eller subrogerats i en skadelidande persons rätt, eller

(c)handlar på en skadelidande persons eller flera skadelidande personers vägnar, i enlighet med unionsrätt eller nationell rätt.

7.    potentiell sökande: en fysisk eller juridisk person som överväger men ännu inte har väckt en skadeståndstalan.

8.    motpart: den person mot vilken ett skadeståndsanspråk riktas.

9.    aktsamhetskrav: erforderliga uppförandenormer, fastställda i nationell rätt eller unionsrätt, som syftar till att undvika skador på rättsliga intressen som är erkända på nationell nivå eller unionsnivå, inbegripet liv, fysisk integritet, egendom och skyddet för de grundläggande rättigheterna.

Artikel 3

Utlämnande av bevis och motbevisbar presumtion om bristande efterlevnad

 

1.Medlemsstaterna ska säkerställa att de nationella domstolarna, antingen på anmodan av en potentiell sökande som tidigare har begärt att en leverantör, en person som omfattas av en leverantörs skyldigheter enligt [artikel 24 eller artikel 28.1 i rättsakten om artificiell intelligens] eller en användare, lämnar ut relevanta bevis som de förfogar över om vissa AI-system med hög risk som misstänks ha orsakat en skada, men som har vägrats detta, eller på anmodan av en sökande, har befogenhet att förelägga om att sådana bevis ska lämnas ut av sådana personer.

Till stöd för en sådan begäran ska den potentiella sökanden lägga fram tillräckliga fakta och bevis för att stödja skadeståndsanspråkets rimlighet.

2.I samband med skadeståndsanspråk ska nationella domstolar endast förelägga en person som förtecknas i punkt 1 att lämna ut bevis om sökanden har gjort alla proportionerliga försök att samla in relevanta bevis från motparten.

3.Medlemsstaterna ska säkerställa att nationella domstolar har befogenhet att på begäran av en sökande förelägga om särskilda åtgärder för att bevara de bevis som avses i punkt 1.

4.Nationella domstolar ska begränsa bevisutlämningen till vad som är nödvändigt och proportionellt för att stödja ett skadeståndsanspråk eller potentiellt skadeståndsanspråk, och begränsa bevarandet till vad som är nödvändigt och proportionellt för att stödja ett sådant skadeståndsanspråk.

Vid fastställande av huruvida ett föreläggande om utlämnande eller bevarande av bevis är proportionerligt ska nationella domstolar beakta alla parters, inbegripet berörda tredje mans, legitima intressen, särskilt när det gäller skyddet av företagshemligheter i den mening som avses i artikel 2.1 i direktiv (EU) 2016/943 och av konfidentiell information, såsom information som rör allmän eller nationell säkerhet.

Medlemsstaterna ska säkerställa att nationella domstolar, om det beslutas om röjande av en företagshemlighet eller påstådd företagshemlighet som domstolen har identifierat som konfidentiell i den mening som avses i artikel 9.1 i direktiv (EU) 2016/943, har befogenhet att, på en vederbörligen motiverad begäran från en part eller på eget initiativ, vidta specifika åtgärder som är nödvändiga för att bevara konfidentialiteten när beviset används eller blir föremål för hänvisning i rättsliga förfaranden.

Medlemsstaterna ska också säkerställa att den person som föreläggs att lämna ut eller bevara de bevis som avses i punkterna 1 och 2 har tillgång till lämpliga rättsmedel som svar på sådana förelägganden.

5.Om en motpart vid ett skadeståndsanspråk underlåter att rätta sig efter ett beslut av en nationell domstol, i enlighet med punkterna 1 och 2, om att lämna ut eller bevara bevis som motparten har till sitt förfogande, ska den nationella domstolen, särskilt under de omständigheter som avses i artikel 4.2 eller 4.3, presumera att motparten brister i sin efterlevnad av ett aktsamhetskrav som det begärda beviset avser att bevisa, för ett skadeståndsanspråk.

Motparten ska ha rätt att motbevisa den presumtionen.

Artikel 4

Motbevisbar presumtion om orsakssamband vid culpa

1.Nationella domstolar ska, i enlighet med de krav som fastställs i denna artikel, vid tillämpningen av ansvarsregler på skadeståndsanspråk presumera att det föreligger orsakssamband mellan en motparts culpa och ett AI-systems utdata eller underlåtenhet att producera utdata, om samtliga följande villkor är uppfyllda:

(a) Sökanden har visat, eller domstolen har i enlighet med artikel 3.5 presumerat, att motparten, eller en person för vars agerande motparten är ansvarig, varit culpös genom bristande efterlevnad av ett aktsamhetskrav som föreskrivs i unionsrätten eller i nationell rätt och som direkt syftar till att skydda mot den uppkomna skadan.

(b)Det kan på grundval av omständigheterna i det enskilda fallet anses vara rimligt att anta att culpan har påverkat utdata som producerats av ett AI-system eller en underlåtenhet av ett AI-system att producera utdata.

(c)Sökanden har visat att ett AI-systems utdata eller underlåtenhet att producera utdata har orsakat skadan.

2.Vid skadeståndsanspråk gentemot en leverantör av ett AI-system med hög risk som omfattas av de krav som fastställs i kapitlen 2 och 3 i avdelning III i [rättsakten om artificiell intelligens] eller en person som omfattas av leverantörens skyldigheter enligt [artikel 24 eller artikel 28.1 i rättsakten om artificiell intelligens], ska villkoret i punkt 1 a anses ha uppfyllts endast om sökanden har visat att leverantören eller, i förekommande fall, den person som omfattas av leverantörens skyldigheter, har underlåtit att uppfylla något av de följande krav som fastställs i de kapitlen, med beaktande av de steg som tagits i och resultaten av ett riskhanteringssystem i enlighet med [artikel 9 och artikel 16 a i rättsakten om artificiell intelligens]:

(a) AI-systemet är ett system som använder teknik som inbegriper träning av modeller med data, och som inte utvecklats på grundval av tränings-, validerings- och testningsdatauppsättningar som uppfyller de kvalitetskriterier som avses i [artikel 10.2-10.4 i rättsakten om artificiell intelligens].

(b) AI-systemet har inte utformats och utvecklats på ett sätt som uppfyller insynskravet i [artikel 13 i rättsakten om artificiell intelligens].

(c)AI-systemet har inte utformats och utvecklats på ett sätt om gör det möjligt för fysiska personer att utöva effektiv tillsyn under den period då AI-systemet används i enlighet med [artikel 14 i rättsakten om artificiell intelligens].

(d)AI-systemet har inte utformats och utvecklats för att, mot bakgrund av dess avsedda ändamål, uppnå en lämplig nivå av noggrannhet, robusthet och cybersäkerhet i enlighet med [artikel 15 och artikel 16 a i rättsakten om artificiell intelligens].

(e)Nödvändiga korrigerande åtgärder vidtogs inte omedelbart för att få AI-systemet att överensstämma med de skyldigheter som fastställs i [kapitel 2 i avdelning III i rättsakten om artificiell intelligens] eller för att dra tillbaka eller återkalla systemet, beroende på vad som är lämpligt, i enlighet med [artikel 16 g och artikel 21 i rättsakten om artificiell intelligens].

3.Vid skadeståndsanspråk gentemot en användare av ett AI-system med hög risk, som omfattas av kraven i kapitlen 2 och 3 i titel III i [rättsakten om artificiell intelligens], ska villkoret i punkt 1 a anses ha uppfyllts om sökanden bevisar att användaren

(a)inte fullgjort sina skyldigheter att använda eller övervaka AI-systemet i enlighet med de åtföljande bruksanvisningarna eller, i förekommande fall, tillfälligt upphävt eller avbrutit dess användning i enlighet med [artikel 29 i rättsakten om artificiell intelligens], eller

(b)exponerat AI-systemet för indata under dennas kontroll, som inte är relevant med hänsyn till systemets avsedda ändamål i enlighet med [artikel 29.3 i rättsakten].

4.Vid skadeståndsanspråk avseende ett AI-system med hög risk ska nationella domstolar inte tillämpa den presumtion som fastställs i punkt 1 om motparten visar att sökanden har tillräcklig bevisning och sakkunskap tillgänglig för att bevisa det orsakssamband som avses i punkt 1.

5.Vid skadeståndsanspråk avseende ett AI-system som inte är ett AI-system med hög risk, ska presumtionen som fastställs i punkt 1 endast tillämpas om den nationella domstolen anser att det vore orimligt svårt för sökanden att bevisa det orsakssamband som avses i punkt 1.

6.Vid skadeståndsanspråk gentemot en motpart som har använt ett AI-system inom ramen för personlig, icke-yrkesmässig verksamhet, ska den presumtion som fastställs i punkt 1 endast gälla om motparten har gjort materiella ingrepp i ett AI-systems driftsvillkor, eller om motparten varit skyldig och i stånd att fastställa ett AI-systems driftsvillkor och har underlåtit att göra detta.

7.Motparten ska ha rätt att motbevisa den presumtion som fastställs i punkt 1.

Artikel 5

Utvärdering och riktad översyn

1.Senast den [DATUM fem år efter utgången av införlivandeperioden] ska kommissionen se över tillämpningen av detta direktiv och lägga fram en rapport till Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén, vid behov åtföljd av ett lagstiftningsförslag.

2.Rapporten ska undersöka effekterna av artiklarna 3 och 4 när det gäller att uppnå de mål som eftersträvas med detta direktiv. Den bör särskilt utvärdera lämpligheten av regler om strikt ansvar för skadeståndsanspråk gentemot operatörer av vissa AI-system, under förutsättning att de inte redan omfattas av andra unionsrättsliga regler om skadeståndsansvar, och av behovet av försäkringsskydd, samtidigt som hänsyn tas till effekterna och inverkan på spridningen och upptagandet av AI-system, särskilt för små och medelstora företag.

3.Kommissionen ska inrätta ett tillsynsprogram för utarbetandet av den rapport som avses i punkterna 1 och 2, som fastställer hur och med vilka intervall uppgifterna och andra nödvändiga bevis kommer att samlas in. Övervakningsprogrammet ska närmare ange vilka åtgärder som ska vidtas av kommissionen och av medlemsstaterna när det gäller att samla in och analysera data och andra uppgifter. Inom ramen för det programmet ska medlemsstaterna överlämna relevanta uppgifter och bevis till kommissionen senast den [31 december det andra hela året efter utgången av införlivandeperioden] och i slutet av varje efterföljande år.

Artikel 6

Ändring av direktiv (EU) 2020/1828

I bilaga I till direktiv (EU) 2020/1828 40 ska följande punkt läggas till som punkt 67:

”67) Europaparlamentets och rådets direktiv (EU) …/… av den … om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens (direktivet om skadeståndsansvar gällande AI) (EUT L …, …, s. …).”

Artikel 7

Införlivande

1.Medlemsstaterna ska senast [två år efter ikraftträdandet] sätta i kraft de lagar och andra författningar som är nödvändiga för att följa detta direktiv. De ska genast överlämna texten till dessa bestämmelser till kommissionen.

När en medlemsstat antar dessa bestämmelser ska de innehålla en hänvisning till detta direktiv eller åtföljas av en sådan hänvisning när de offentliggörs. Närmare föreskrifter om hur hänvisningen ska göras ska varje medlemsstat själv utfärda.

2.Medlemsstaterna ska till kommissionen överlämna texten till de centrala bestämmelser i nationell rätt som de antar inom det område som omfattas av detta direktiv.

Artikel 8

Ikraftträdande

Detta direktiv träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.

Artikel 9

Adressater

Detta direktiv riktar sig till medlemsstaterna.

Utfärdat i Bryssel den

På Europaparlamentets vägnar    På rådets vägnar

Ordförande     Ordförande 

(1)    European Enterprise survey on the use of technologies based on AI, Ipsos 2020, slutrapport, s. 58.
(
https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 )
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_sv.pdf
(3)    Vitbok om artificiell intelligens – en europeisk strategi för spetskompetens och tillit (19.2.2020 – COM/2020/65 final).
(4)    Rapport från kommissionen till Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén om konsekvenser för säkerhet och ansvar när det gäller artificiell intelligens, sakernas internet och robotteknik (19.2.2020 – COM/2020/64 final).
(5)    Europaparlamentets resolution av den 20 oktober 2020 med rekommendationer till kommissionen om en skadeståndsordning för artificiell intelligens (2020/2014(INL)).
(6)    Europaparlamentets resolution av den 3 maj 2022 om artificiell intelligens i den digitala eran (2020/2266 (INI)).
(7)    Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (COM(2021 206 final).
(8)    Endast ett fåtal användningsfall för AI är uttryckligen förbjudna enligt rättsakten om artificiell intelligens.
(9)    SWD (2021) 84 final, konsekvensbedömning som åtföljer rättsakten om artificiell intelligens, s. 88.
(10)    Förslag till Europaparlamentets och rådets förordning om allmän produktsäkerhet (COM/2021/346 final).
(11)    Förslag till Europaparlamentets och rådets förordning om maskinprodukter (COM/2021/202 final).
(12)    Kommissionens delegerade förordning (EU) 2022/30 av den 29 oktober 2021 om komplettering av Europaparlamentets och rådets direktiv 2014/53/EU vad gäller tillämpningen av de väsentliga krav som avses i artikel 3.3 d, e och f i det direktivet (EUT L 7, 12.1.2022, s. 6).
(13)    Meddelande från kommissionen, Att forma EU:s digitala framtid, COM/2020/67 final.
(14)    Proposal for a Regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements - COM(2022) 454 final (inte översatt till svenska).
(15)    Kommissionens meddelande En europeisk strategi för data (COM/2020/66 final).
(16)    Meddelande från kommissionen till Europaparlamentet, Europeiska rådet, rådet, Europeiska ekonomiska och sociala kommittén samt Regionkommittén: Den europeiska gröna given (COM(2019) 640 final).
(17)    Deloitte, Study to support the Commission’s IA on liability for Artificial intelligence, 2021 (den ekonomiska studien).
(18)    Tjeckiens nationella strategi för artificiell intelligens, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, National strategies on Artificial Intelligence – A European perspective, 2021 års upplaga – en JRC-OECD-rapport: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , s. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;.
(20)    Deloitte, Study to support the Commission’s IA on liability for Artificial intelligence, 2021 s. 96.
(21)    Se Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019–2027 (Policy för utveckling av artificiell intelligens i Polen för 2019–2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102-3.
(22)    AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., s. 113.
(23)    I första hand strikt ansvar, omvänd bevisbörda eller lättnader i bevisbördan i form av presumtioner som inte kan motbevisas eller som kan motbevisas.
(24)    Tillgänglig på < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_sv >
(25)    Liability for artificial intelligence and other emerging digital technologies, november 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en  
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence, 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services, slutrapport 2021.
(28)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.
(29)    EUT C , , s. .
(30)    EUT C , , s. .
(31)    [Förslag till förordning om harmoniserade regler för artificiell intelligens (lagen om artificiell intelligens) COM(2021) 206 final.]
(32)    [Förslag till Europaparlamentets och rådets förordning om allmän produktsäkerhet, (COM(2021) 346 final].
(33)    [Förslag till Europaparlamentets och rådets förordning om maskinprodukter, (COM(2021) 202 final)].
(34)    Kommissionens delegerade förordning (EU) 2022/30 av den 29 oktober 2021 om komplettering av Europaparlamentets och rådets direktiv 2014/53/EU vad gäller tillämpningen av de väsentliga krav som avses i artikel 3.3 d, e och f i det direktivet (EUT L 7, 12.1.2022, s. 6).
(35)    Rådets direktiv 85/374/EEG av den 25 juli 1985 om tillnärmning av medlemsstaternas lagar och andra författningar om skadeståndsansvar för produkter med säkerhetsbrister (EGT L 210, 7.8.1985, s. 29).
(36)    [Förslag till Europaparlamentets och rådets förordning om en inre marknad för digitala tjänster (rättsakten om digitala tjänster) (COM(2020) 825 final)]
(37)    Europaparlamentets och rådets direktiv (EU) 2016/943 av den 8 juni 2016 om skydd mot att icke röjd know-how och företagsinformation (företagshemligheter) olagligen anskaffas, utnyttjas och röjs (EUT L 157, 15.6.2016, s. 1).
(38)    Europaparlamentets resolution av den 20 oktober 2020 med rekommendationer till kommissionen om en skadeståndsordning för artificiell intelligens (2020/2014(INL)) (EUT C 404 6.10.2021, s. 107)
(39)    EUT C 369, 17.12.2011, s. 14.
(40)    Europaparlamentets och rådets direktiv (EU) 2020/1828 av den 25 november 2020 om grupptalan för att skydda konsumenters kollektiva intressen och om upphävande av direktiv 2009/22/EG (EUT L 409, 4.12.2020, s. 1).
Top