EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52022PC0496

Forslag til EUROPA-PARLAMENTETS OG RÅDETS DIREKTIV om tilpasning af reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens (Direktivet om AI-ansvar)

COM/2022/496 final

Bruxelles, den 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Forslag til

EUROPA-PARLAMENTETS OG RÅDETS DIREKTIV

om tilpasning af reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
(Direktivet om AI-ansvar)

(EØS-relevant tekst)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


BEGRUNDELSE

1.BAGGRUND FOR FORSLAGET

·Forslagets begrundelse og formål

Denne begrundelse ledsager forslaget til direktiv om tilpasning af regler om civilretligt ansvar uden for kontraktforhold for kunstig intelligens (AI). I en repræsentativ undersøgelse fra 2020 1 rangerede ansvar blandt de tre største hindringer for europæiske virksomheders anvendelse af kunstig intelligens. Det blev nævnt som den mest relevante eksterne hindring (43 %) for virksomheder, der planlægger at anvende kunstig intelligens, men endnu ikke har indført kunstig intelligens.

I sine politiske retningslinjer fastlagde Kommissionens formand, Ursula von der Leyen, en koordineret europæisk tilgang til kunstig intelligens 2 . I sin hvidbog om kunstig intelligens af 19. februar 2020 3 forpligtede Kommissionen sig til at fremme udbredelsen af kunstig intelligens og imødegå de risici, der er forbundet med nogle af dens anvendelser, ved at fremme ekspertise og tillid. I rapporten om AI-ansvar 4 , der ledsager hvidbogen, identificerede Kommissionen de specifikke udfordringer, som kunstig intelligens udgør for de eksisterende ansvarsregler. I sine konklusioner af 9. juni 2020 om Europas digitale fremtid i støbeskeen hilste Rådet høringen om de politiske forslag i hvidbogen om kunstig intelligens velkommen og opfordrede Kommissionen til at fremsætte konkrete forslag. Den 20. oktober 2020 vedtog Europa-Parlamentet en lovgivningsmæssig initiativbeslutning i henhold til artikel 225 i TEUF med anmodning til Kommissionen om at vedtage et forslag til en ansvarsordning for kunstig intelligens baseret på artikel 114 i traktaten om Den Europæiske Unions funktionsmåde (TEUF) 5 .

De nuværende nationale regler om ansvar, navnlig baseret på culpa, er ikke egnede til at behandle erstatningskrav for skader forårsaget af AI-baserede produkter og tjenester. I henhold til sådanne regler skal skadelidte bevise, at en person, der har forvoldt skaden, har gjort sig skyldig i en uretmæssig handling eller undladelse. De særlige karakteristika ved kunstig intelligens, herunder kompleksitet, autonomi og uigennemsigtighed (den såkaldte "sorte boks"-effekt), kan gøre det vanskeligt eller uoverkommeligt dyrt for ofrene at identificere den ansvarlige person og bevise kravene for et vellykket erstatningskrav. Navnlig kan ofre, når de kræver erstatning, pådrage sig meget høje startomkostninger og stå over for betydeligt længere retssager sammenlignet med sager, der ikke involverer kunstig intelligens. Ofrene kan derfor blive afskrækket fra overhovedet at kræve erstatning. Disse bekymringer blev også fastholdt af Europa-Parlamentet i dets beslutning af 3. maj 2022 om kunstig intelligens i en digital tidsalder.  6

Hvis et offer anlægger sag, vil de nationale domstole, der står over for de særlige karakteristika ved kunstig intelligens, muligvis på ad hoc basis tilpasse den måde, hvorpå de anvender de eksisterende regler for at nå frem til et retfærdigt resultat for offeret. Dette vil skabe retsusikkerhed. Virksomhederne vil have vanskeligt ved at forudsige, hvordan de eksisterende ansvarsregler vil blive anvendt, og dermed vil de have svært ved at vurdere og forsikre deres eksponering for erstatningsansvar. Virkningen vil blive forstærket for virksomheder, der handler på tværs af grænserne, da usikkerheden vil dække forskellige jurisdiktioner. Den vil især berøre små og mellemstore virksomheder (SMV'er), som ikke kan trække på intern juridisk ekspertise eller kapitalreserver.

Nationale strategier for kunstig intelligens viser, at flere medlemsstater overvejer eller endda konkret planlægger lovgivningsmæssige foranstaltninger om civilretligt ansvar for kunstig intelligens. Det forventes derfor, at medlemsstaterne, hvis EU ikke handler, vil tilpasse deres nationale ansvarsregler til udfordringerne i forbindelse med kunstig intelligens. Dette vil føre til yderligere fragmentering og øgede omkostninger for virksomheder, der er aktive i hele EU.

Den åbne offentlige høring, der dannede grundlag for konsekvensanalysen af dette forslag, bekræftede de ovenfor nævnte problemer. Efter offentlighedens opfattelse kan "sorte boks"-effekten gøre det vanskeligt for offeret at bevise skyld og årsagssammenhæng, og der kan være usikkerhed om, hvordan domstolene vil fortolke og anvende de eksisterende nationale ansvarsregler i sager, der involverer kunstig intelligens. Desuden afdækkede høringen en offentlig bekymring med hensyn til, hvordan lovgivningsmæssige tiltag til tilpasning af ansvarsregler, der er iværksat af de enkelte medlemsstater, og den deraf følgende fragmentering vil påvirke omkostningerne for virksomheder, navnlig SMV'er, og forhindre udbredelsen af kunstig intelligens i hele Unionen.

Formålet med dette forslag er således at fremme udbredelsen af pålidelig kunstig intelligens for at høste de fulde fordele for det indre marked. Dette gøres ved at sikre, at ofre for skader forårsaget af kunstig intelligens får samme beskyttelse som ofre for skader forårsaget af produkter i almindelighed. Det mindsker også retsusikkerheden for virksomheder, der udvikler eller anvender kunstig intelligens med hensyn til deres mulige eksponering for ansvar, ligesom det forhindrer, at der opstår fragmenterede AI-specifikke tilpasninger af de nationale regler om civilretligt ansvar.

·Sammenhæng med de gældende regler på samme område

Dette forslag er en del af en pakke af foranstaltninger, der skal støtte udbredelsen af kunstig intelligens i Europa ved at fremme ekspertise og tillid. Denne pakke omfatter tre komplementære arbejdsgange:

et lovgivningsforslag om horisontale regler for systemer med kunstig intelligens (retsakten om kunstig intelligens) 7  

en revision af sektorspecifikke og horisontale produktsikkerhedsregler

EU-regler til håndtering af spørgsmål om erstatningsansvar i forbindelse med AI-systemer.

I forslaget til retsakten om kunstig intelligens har Kommissionen foreslået regler, der har til formål at mindske sikkerhedsrisici og beskytte de grundlæggende rettigheder. Sikkerhed og ansvar er to sider af samme sag: de gælder på forskellige tidspunkter og styrker hinanden. Selv om regler, der skal garantere sikkerheden og beskytte de grundlæggende rettigheder, vil mindske risiciene, fjerner de ikke disse risici fuldt ud 8 . Hvis der opstår en sådan risiko, kan der stadig opstå skader. I sådanne tilfælde vil ansvarsreglerne i dette forslag finde anvendelse.

Effektive regler om ansvar giver også et økonomisk incitament til at overholde sikkerhedsreglerne og bidrager derfor til at forhindre, at der opstår skader 9 . Desuden bidrager dette forslag til håndhævelse af de krav til højrisiko-AI-systemer, der er fastsat i retsakten om kunstig intelligens, fordi den manglende overholdelse af disse krav udgør et vigtigt element, der udløser lempelse af bevisbyrden. Dette forslag er også i overensstemmelse med de foreslåede generelle 10 og sektorspecifikke produktsikkerhedsregler for AI-baserede maskinprodukter 11 og radioudstyr 12 .

Kommissionen anlægger en holistisk tilgang i sin AI-politik for ansvar ved at foreslå tilpasninger af producentens ansvar for defekte produkter i henhold til direktivet om produktansvar samt den målrettede harmonisering i henhold til dette forslag. Disse to politiske initiativer er tæt forbundne og udgør en pakke, da krav, der falder ind under deres anvendelsesområde, vedrører forskellige former for ansvar. Direktivet om produktansvar dækker producentens ansvar uden culpa for defekte produkter, hvilket fører til erstatning for visse typer skader, som primært rammer enkeltpersoner. Dette forslag omfatter nationale erstatningskrav, der hovedsagelig er baseret på en persons skyld med henblik på at yde erstatning for enhver form for skade og til enhver form for offer. De supplerer hinanden, så de udgør en overordnet effektiv ordning for civilretligt ansvar.

Sammen vil disse regler fremme tilliden til kunstig intelligens (og andre digitale teknologier) ved at sikre, at ofre får effektiv erstatning, hvis der opstår skader på trods af de forebyggende krav i retsakten om kunstig intelligens og andre sikkerhedsregler.

·Sammenhæng med Unionens politik på andre områder

Forslaget hænger sammen med Unionens digitale strategi, idet det bidrager til at fremme teknologi, der tjener alle, hvilket er en af de tre hovedsøjler til støtte for de politiske retningslinjer og målsætninger, der blev annonceret i meddelelsen om "Europas digitale fremtid i støbeskeen" 13 .

I denne forbindelse har dette forslag til formål at opbygge tillid til kunstig intelligens og øge udbredelsen heraf. Dette vil skabe synergier og supplere [retsakten om cyberrobusthed] 14 , som også har til formål at øge tilliden til produkter med digitale elementer ved at mindske cybersårbarheder og beskytte erhvervsbrugere og almindelige forbrugere bedre.

Dette forslag berører ikke de regler, der er fastsat i [retsakten om digitale tjenester], som fastsætter en omfattende og fuldt harmoniseret ramme for due diligence-forpligtelser i forbindelse med onlineplatformes algoritmiske beslutningstagning, herunder dens ansvarsfritagelse for udbydere af formidlingstjenester.

Ved at fremme udbredelsen af kunstig intelligens er dette forslag desuden knyttet til initiativerne under EU's strategi for data 15 . Forslaget styrker også Unionens rolle med hensyn til at bidrage til udformningen af globale normer og standarder og fremme pålidelig kunstig intelligens, der er i overensstemmelse med Unionens værdier og interesser.

Forslaget har også indirekte forbindelser med den europæiske grønne pagt 16 . Navnlig digitale teknologier, herunder kunstig intelligens, er en afgørende katalysator for at nå bæredygtighedsmålene i den grønne pagt i mange forskellige sektorer (herunder sundhedspleje, transport, miljø og landbrug).

·Vigtigste økonomiske, sociale og miljømæssige virkninger

Direktivet vil bidrage til udbredelsen af kunstig intelligens. Betingelserne for udrulning og udvikling af AI-teknologier i det indre marked kan forbedres betydeligt ved at forebygge fragmentering og øge retssikkerheden gennem harmoniserede foranstaltninger på EU-plan sammenlignet med mulige tilpasninger af ansvarsreglerne på nationalt plan. I den økonomiske undersøgelse 17 , der ligger til grund for konsekvensanalysen af dette forslag, blev det — som et konservativt skøn — konkluderet, at målrettede harmoniseringsforanstaltninger vedrørende civilretligt ansvar for kunstig intelligens vil have en positiv indvirkning på produktionsværdien af den relevante grænseoverskridende handel på 5-7 % sammenlignet med referencescenariet. Denne merværdi vil navnlig blive skabt gennem mindre fragmentering og øget retssikkerhed med hensyn til interessenternes eksponering for erstatningsansvar. Dette vil mindske interessenternes juridiske oplysninger/repræsentation, interne risikostyrings- og overholdelsesomkostninger, lette den finansielle planlægning og risikoestimater til forsikringsformål og sætte virksomheder — navnlig SMV'er — i stand til at udforske nye markeder på tværs af grænserne. På grundlag af den samlede værdi af EU's marked for kunstig intelligens, der er berørt af de ansvarsrelaterede problemer, der behandles i dette direktiv, anslås det, at sidstnævnte vil generere en yderligere markedsværdi på mellem ca. 500 mio. EUR og ca. 1,1 mia. EUR.

Med hensyn til sociale virkninger vil direktivet øge samfundets tillid til AI-teknologier og adgangen til et effektivt retssystem. Det vil bidrage til en effektiv civilretlig ansvarsordning, der er tilpasset de særlige forhold, der gør sig gældende for kunstig intelligens, hvor begrundede krav om skadeserstatning er vellykkede. Øget tillid i samfundet vil også gavne alle virksomheder i AI-værdikæden, fordi en styrkelse af borgernes tillid vil bidrage til en hurtigere udbredelse af kunstig intelligens. På grund af ansvarsreglernes tilskyndende virkning vil forebyggelse af mangler i ansvaret også indirekte være til gavn for alle borgere gennem et øget beskyttelsesniveau for sundhed og sikkerhed (artikel 114, stk. 3, i TEUF) og mindskelse af kilderne til sundhedsrisici (artikel 168, stk. 1, i TEUF).

Med hensyn til miljøvirkninger forventes direktivet også at bidrage til at nå de relaterede mål for bæredygtig udvikling. Udbredelsen af AI-applikationer er til gavn for miljøet. F.eks. gør AI-systemer, der anvendes til procesoptimering, processer mindre ressourcekrævende (f.eks. ved at reducere mængden af gødningsstoffer og pesticider, reducere vandforbruget ved samme output osv.). Direktivet vil også have en positiv indvirkning på målene for bæredygtig udvikling, fordi effektiv lovgivning om gennemsigtighed, ansvarlighed og grundlæggende rettigheder vil rette AI's potentiale til at gavne enkeltpersoner og samfundet mod en opfyldelse af målene for bæredygtig udvikling.

2.RETSGRUNDLAG, NÆRHEDSPRINCIPPET OG PROPORTIONALITETSPRINCIPPET

·    Retsgrundlag

Retsgrundlaget for forslaget er artikel 114 i TEUF, som indeholder bestemmelser om vedtagelse af foranstaltninger, der skal sikre det indre markeds oprettelse og funktion.

De problemer, som dette forslag har til formål at løse, navnlig retsusikkerhed og retlig fragmentering, hindrer udviklingen af det indre marked og udgør dermed betydelige hindringer for grænseoverskridende handel med AI-baserede produkter og tjenesteydelser.

Forslaget omhandler hindringer, der skyldes, at virksomheder, der ønsker at producere, udbrede og drive AI-baserede produkter og tjenester på tværs af grænserne, er usikre på, om og hvordan de eksisterende ansvarsordninger finder anvendelse på skader forårsaget af kunstig intelligens. Denne usikkerhed vedrører især de medlemsstater, som virksomhederne vil eksportere til, eller hvorfra de vil stille deres produkter og tjenesteydelser til rådighed. I en grænseoverskridende sammenhæng er den lov, der finder anvendelse på ansvar uden for kontraktforhold som følge af en skadevoldende handling, loven i det land, hvor skaden er indtrådt. For disse virksomheder er det vigtigt at kende de relevante ansvarsrisici og være i stand til at forsikre sig mod dem.

Desuden er der konkrete tegn på, at en række medlemsstater overvejer ensidige lovgivningsmæssige foranstaltninger for at imødegå de specifikke udfordringer, som kunstig intelligens udgør med hensyn til ansvar. De strategier for kunstig intelligens, der er vedtaget i Tjekkiet 18 , Italien 19 , Malta 20 , Polen 21 og Portugal 22 , nævner f.eks. initiativer til afklaring af ansvar. I betragtning af den store forskel mellem medlemsstaternes eksisterende regler om civilretligt ansvar er det sandsynligt, at enhver national AI-specifik foranstaltning vedrørende erstatningsansvar vil følge eksisterende indbyrdes varierende nationale tilgange og dermed øge fragmenteringen.

Derfor vil tilpasninger af ansvarsregler, der træffes på et rent nationalt grundlag, øge hindringerne for udrulningen af AI-baserede produkter og tjenester i hele det indre marked og bidrage yderligere til fragmentering.

·Nærhedsprincippet

Målene med dette forslag kan ikke i tilstrækkelig grad opfyldes på nationalt plan, fordi nye divergerende nationale regler vil øge retsusikkerheden og fragmenteringen og skabe hindringer for udbredelsen af AI-baserede produkter og tjenester i hele det indre marked. Retsusikkerhed vil især påvirke virksomheder, der er aktive på tværs af grænserne, ved at kræve yderligere juridisk(e) oplysninger/repræsentation, risikostyringsomkostninger og mistede indtægter. Samtidig vil forskellige nationale regler om erstatningskrav for skader forårsaget af kunstig intelligens øge transaktionsomkostningerne for virksomheder, navnlig i forbindelse med grænseoverskridende handel, hvilket vil medføre betydelige hindringer for det indre marked. Desuden påvirker retsusikkerhed og fragmentering i uforholdsmæssig høj grad nystartede virksomheder og SMV'er, som tegner sig for de fleste virksomheder og den største andel af investeringerne på de relevante markeder.

I mangel af harmoniserede EU-regler for erstatning for skader forårsaget af AI-systemer vil udbydere, operatører og brugere af AI-systemer på den ene side og skadelidte på den anden side stå over for 27 forskellige ansvarsordninger, hvilket vil føre til forskellige beskyttelsesniveauer og forvride konkurrencen mellem virksomheder fra forskellige medlemsstater.

Harmoniserede foranstaltninger på EU-plan vil i væsentlig grad forbedre betingelserne for udrulning og udvikling af AI-teknologier i det indre marked ved at forebygge fragmentering og øge retssikkerheden. Denne merværdi vil navnlig blive skabt gennem mindre fragmentering og øget retssikkerhed med hensyn til interessenternes eksponering for erstatningsansvar. Desuden er det kun en EU-indsats, der konsekvent kan opnå den ønskede virkning med hensyn til at fremme forbrugernes tillid til AI-baserede produkter og tjenester ved at forhindre mangler i ansvaret i forbindelse med de specifikke karakteristika ved kunstig intelligens i hele det indre marked. Dette vil sikre et konsekvent (mindste) beskyttelsesniveau for alle ofre (enkeltpersoner og virksomheder) og konsekvente incitamenter til at forebygge skader og sikre ansvarlighed.

·Proportionalitetsprincippet

Forslaget er baseret på en trinvis tilgang. I første fase nås målene med en minimalt invasiv tilgang. Anden fase omfatter en fornyet vurdering af behovet for strengere eller mere omfattende foranstaltninger.

Første fase er begrænset til de byrdefulde foranstaltninger til afhjælpning af de AI-specifikke problemer, der er identificeret. Den bygger på de materielle ansvarsbetingelser, der i øjeblikket findes i nationale regler, såsom årsagssammenhæng eller culpa, men fokuserer på målrettede overvågningsrelaterede foranstaltninger, der sikrer, at ofre har samme beskyttelsesniveau som i sager, der ikke involverer AI-systemer. Ud fra de forskellige redskaber, der er til rådighed i national ret til at lette bevisbyrden 23 , har man i dette forslag desuden valgt at anvende afbeviselige formodninger som det mindst interventionistiske redskab. Sådanne formodninger findes ofte i de nationale erstatningsansvarsordninger, og de afvejer sagsøgeres og sagsøgtes interesser. Samtidig er de udformet med henblik på at tilskynde til overholdelse af eksisterende omsorgsforpligtelser, der er fastsat på EU-plan eller nationalt plan. Forslaget fører ikke til en omvendt bevisbyrde for at undgå at udsætte udbydere, operatører og brugere af AI-systemer for højere ansvarsrisici, hvilket kan hæmme innovationen og mindske udbredelsen af AI-baserede produkter og tjenester.

Anden fase i forslaget sikrer, at der ved vurderingen af virkningen af første fase med hensyn til beskyttelse af ofre og udbredelse af kunstig intelligens tages hensyn til den fremtidige teknologiske, lovgivningsmæssige og juridiske udvikling i forbindelse med en revurdering af behovet for at harmonisere andre elementer i erstatningskrav eller andre værktøjer i forbindelse med erstatningskrav, herunder i situationer, hvor objektivt ansvar ville være mere hensigtsmæssigt, sådan som Europa-Parlamentet har anmodet om. En sådan vurdering vil sandsynligvis også tage hensyn til, om en sådan harmonisering skal kombineres med obligatorisk forsikring for at sikre effektivitet.

·Valg af retsakt

Et direktiv er det mest velegnede instrument til dette forslag, da det giver den ønskede harmoniseringseffekt og retssikkerhed, samtidig med at det giver medlemsstaterne fleksibilitet til at integrere de harmoniserede foranstaltninger uden gnidninger i deres nationale ansvarsordninger.

Et obligatorisk instrument vil forhindre huller i beskyttelsen som følge af delvis eller ingen gennemførelse. Selv om et ikkebindende instrument ville være mindre indgribende, er det usandsynligt, at det vil løse de konstaterede problemer på en effektiv måde. Gennemførelsesgraden for ikkebindende instrumenter er vanskelig at forudsige, og der er ikke tilstrækkelige tegn på, at en henstillings overtalende virkning vil være stærk nok til at sikre en konsekvent tilpasning af de nationale love.

Denne virkning er endnu mere usandsynlig for privatretlige foranstaltninger, som reglerne om ansvar uden for kontraktforhold er en del af. Dette område er kendetegnet ved mangeårige retstraditioner, som gør medlemsstaterne tilbageholdende med at gennemføre koordinerede reformer, medmindre de er drevet af en klar udsigt til fordele for det indre marked i henhold til et bindende EU-instrument eller behovet for at tilpasse sig nye teknologier i den digitale økonomi.

De eksisterende betydelige forskelle mellem medlemsstaternes ansvarsrammer er en anden grund til, at en henstilling sandsynligvis ikke vil blive gennemført på en konsekvent måde.

1.RESULTATER AF EFTERFØLGENDE EVALUERINGER, HØRINGER AF INTERESSEREDE PARTER OG KONSEKVENSANALYSER

·Høringer af interesserede parter

Der blev gennemført en omfattende høringsstrategi for at sikre bred deltagelse af interessenter i hele politikcyklussen for dette forslag. Høringsstrategien var baseret på både offentlige og flere målrettede høringer (webinarer, bilaterale drøftelser med virksomheder og forskellige organisationer).

Efter de indledende spørgsmål om ansvar, som indgik i den offentlige høring om hvidbogen om kunstig intelligens og Kommissionens rapport om sikkerhed og ansvar, blev der afholdt en særlig offentlig onlinehøring fra den 18. oktober 2021 til den 10. januar 2022 for at indhente synspunkter fra en bred vifte af interessenter, herunder forbrugere, civilsamfundsorganisationer, industrisammenslutninger, virksomheder (herunder SMV'er) og offentlige myndigheder. Efter at have analyseret alle de modtagne svar offentliggjorde Kommissionen et resumé af resultaterne og de individuelle svar på sit websted 24 .

Der indkom i alt 233 svar fra respondenter fra 21 medlemsstater samt fra tredjelande. Generelt bekræftede de fleste interessenter problemerne med bevisbyrde, retsusikkerhed og fragmentering, og de støttede tiltag på EU-plan.

EU-borgere, forbrugerorganisationer og akademiske institutioner bekræftede i overvældende grad behovet for en EU-indsats for at lette ofrenes problemer med bevisbyrden. Selv om virksomhederne erkendte de negative virkninger af usikkerheden vedrørende anvendelsen af ansvarsreglerne, var de mere forsigtige og anmodede om målrettede foranstaltninger for at undgå at begrænse innovationen.

Et lignende billede tegnede sig med hensyn til de politiske løsningsmodeller. EU-borgere, forbrugerorganisationer og akademiske institutioner støttede kraftigt foranstaltninger vedrørende bevisbyrden og harmonisering af ansvar uden culpa (benævnt "objektivt ansvar") kombineret med obligatorisk forsikring. Virksomhederne var mere splittede med hensyn til de politiske løsningsmodeller, idet forskellene til dels afhang af deres størrelse. Objektivt ansvar blev anset for uforholdsmæssigt af de fleste respondenter fra erhvervslivet. En harmonisering af lempelsen af bevisbyrden fik mere støtte, især blandt SMV'er. Virksomhederne advarede dog mod en fuldstændig omvending af bevisbyrden.

Derfor blev den foretrukne løsningsmodel udviklet og finjusteret i lyset af feedback fra interessenter under hele konsekvensanalyseprocessen for at finde en balance mellem de behov, der blev givet udtryk for, og de betænkeligheder, som alle relevante interessentgrupper havde givet udtryk for.

·Indhentning og brug af ekspertbistand

Forslaget bygger på fire års analyser og tæt inddragelse af interessenter, herunder akademikere, virksomheder, forbrugerorganisationer, medlemsstater og borgere. Det forberedende arbejde blev indledt i 2018 med oprettelsen af ekspertgruppen om ansvar og ny teknologi (New Technologies Formation). Ekspertgruppen udarbejdede en rapport i november 2019 25 , som vurderede de udfordringer, som visse karakteristika ved kunstig intelligens udgør for de nationale regler om civilretligt ansvar.

Inputtet fra ekspertgruppens rapport blev suppleret med yderligere tre eksterne undersøgelser:

en sammenlignende retsundersøgelse baseret på en sammenlignende juridisk analyse af europæisk erstatningsret med fokus på centrale AI-relaterede spørgsmål 26

en adfærdsøkonomisk undersøgelse af konsekvenserne af målrettede tilpasninger af ansvarsordningen for forbrugernes beslutningstagning, navnlig deres tillid og vilje til at tage AI-baserede produkter og tjenester i brug 27

en økonomisk undersøgelse 28 , der dækker en række emner: de udfordringer, som ofre for AI-applikationer står over for sammenlignet med ofre for andet udstyr end AI-udstyr, når de forsøger at opnå erstatning for deres tab; hvorvidt og i hvilket omfang virksomheder er usikre på anvendelsen af de nuværende ansvarsregler på deres aktiviteter, der involverer kunstig intelligens, og om virkningen af retsusikkerhed kan hæmme investeringer i kunstig intelligens; om yderligere fragmentering af de nationale erstatningsansvarslove vil mindske effektiviteten af det indre marked for AI-applikationer og -tjenester, og hvorvidt og i hvilket omfang harmonisering af visse aspekter af det nationale civilretlige ansvar via EU-lovgivningen vil mindske disse problemer og lette EU-virksomhedernes generelle anvendelse af AI-teknologi.

·Konsekvensanalyse

I overensstemmelse med sin politik for bedre regulering har Kommissionen foretaget en konsekvensanalyse af dette forslag, som blev behandlet af Kommissionens Udvalg for Forskriftskontrol. Udvalget for Forskriftskontrols møde den 6. april 2022 førte til en positiv udtalelse med bemærkninger.

Tre løsningsmodeller blev vurderet:

Løsningsmodel 1: tre foranstaltninger til at lette bevisbyrden for ofre, der forsøger at bevise deres erstatningskrav.

Løsningsmodel 2: foranstaltningerne under løsningsmodel 1 + harmonisering af reglerne om objektivt ansvar for AI-brugssager med en særlig risikoprofil kombineret med en obligatorisk forsikring.

Løsningsmodel 3: en trinvis fremgangsmåde bestående af:

en første fase: foranstaltningerne under løsningsmodel 1

en anden fase: en revisionsmekanisme, der navnlig skal revurdere behovet for at harmonisere det objektive ansvar for AI-brugssager med en særlig risikoprofil (eventuelt kombineret med en obligatorisk forsikring).

De politiske løsningsmodeller blev sammenlignet ved hjælp af en multikriterieanalyse, hvor der blev taget hensyn til deres effektivitet, sammenhæng og proportionalitet. Resultaterne af multikriterie- og følsomhedsanalysen viser, at løsningsmodel 3, der letter bevisbyrden for AI-relaterede krav, + målrettet gennemgang vedrørende objektivt ansvar, eventuelt kombineret med obligatorisk forsikring, rangerer højest og derfor er det foretrukne politiske valg i forbindelse med dette forslag.

Den foretrukne løsningsmodel vil sikre, at ofre for AI-baserede produkter og tjenester (fysiske personer, virksomheder og andre offentlige eller private enheder) ikke er mindre beskyttet end ofre for traditionelle teknologier. Det vil øge tilliden til kunstig intelligens og fremme udbredelsen heraf.

Desuden vil det mindske retsusikkerheden og forhindre fragmentering og dermed hjælpe virksomheder og frem for alt SMV'er, der ønsker at udnytte EU's indre markeds fulde potentiale ved at udbrede AI-baserede produkter og tjenester på tværs af grænserne. Den foretrukne løsningsmodel skaber også bedre betingelser for, at forsikringsselskaberne kan tilbyde dækning af AI-relaterede aktiviteter, hvilket er afgørende for, at virksomheder, navnlig SMV'er, kan styre deres risici. Det anslås nemlig, at den foretrukne løsningsmodel vil generere en øget markedsværdi for kunstig intelligens i EU-27 på mellem ca. 500 mio. EUR og ca. 1,1 mia. EUR i 2025.

·Grundlæggende rettigheder

En af de vigtigste funktioner i reglerne om civilretligt ansvar er at sikre, at skadelidte kan kræve erstatning. Ved at sikre en effektiv erstatning bidrager disse regler til beskyttelsen af retten til effektive retsmidler og til en upartisk domstol (artikel 47 i EU's charter om grundlæggende rettigheder, i det følgende benævnt "chartret"), samtidig med at de giver potentielt ansvarlige personer et incitament til at forebygge skader for at undgå ansvar.

Med dette forslag sigter Kommissionen mod at sikre, at ofre for skader forårsaget af kunstig intelligens har samme beskyttelsesniveau i henhold til reglerne om civilretligt ansvar som ofre for skader, der er forvoldt uden inddragelse af kunstig intelligens. Forslaget vil muliggøre en effektiv privat håndhævelse af de grundlæggende rettigheder og bevare retten til effektive retsmidler, når AI-specifikke risici er blevet til virkelighed. Forslaget vil navnlig bidrage til at beskytte grundlæggende rettigheder, såsom retten til livet (chartrets artikel 2), retten til fysisk og mental integritet (artikel 3) og ejendomsretten (artikel 17). Desuden vil ofre, afhængigt af den enkelte medlemsstats civilretlige system og traditioner, kunne kræve erstatning for skade på andre retlige interesser, såsom krænkelser af den personlige værdighed (artikel 1 og 4 i chartret), respekt for privatliv og familieliv (artikel 7), retten til lighed (artikel 20) og ikke-forskelsbehandling (artikel 21).

Desuden supplerer dette forslag andre dele af Kommissionens AI-politik baseret på forebyggende lovgivningsmæssige og tilsynsmæssige krav, der direkte har til formål at undgå krænkelser af de grundlæggende rettigheder (såsom forskelsbehandling). Det drejer sig om retsakten om kunstig intelligens, den generelle forordning om databeskyttelse, retsakten om digitale tjenester og EU-lovgivningen om ikkeforskelsbehandling og ligebehandling. Samtidig skaber eller harmoniserer dette forslag ikke pligten til at udvise omhu eller ansvaret for forskellige enheder, hvis aktiviteter er reguleret i henhold til disse retsakter, og det skaber derfor ikke nye erstatningskrav eller påvirker ansvarsfritagelserne i henhold til disse andre retsakter. Dette forslag indfører kun lempelser af bevisbyrden for ofre for skader forårsaget af AI-systemer i forbindelse med krav, der kan være baseret på national lovgivning eller på disse øvrige EU-love. Ved at supplere disse andre dele beskytter dette forslag ofrets ret til erstatning i henhold til privatretten, herunder erstatning for krænkelser af grundlæggende rettigheder.

4.VIRKNINGER FOR BUDGETTET

Dette forslag vil ikke få virkninger for Den Europæiske Unions budget.

5.ANDRE FORHOLD

·Gennemførelsesplaner og overvågning, evaluering, overvågningsprogram og målrettet revision

Dette forslag indeholder en trinvis tilgang. For at sikre, at der er tilstrækkelig dokumentation til rådighed for den målrettede revision i anden fase, vil Kommissionen udarbejde en overvågningsplan med nærmere oplysninger om, hvordan og hvor ofte der vil blive indsamlet data og anden nødvendig dokumentation.

Overvågningsmekanismen kan omfatte følgende typer data og dokumentation:

rapportering og udveksling af oplysninger mellem medlemsstaterne om anvendelse af foranstaltninger til at lette bevisbyrden i forbindelse med nationale retslige eller udenretslige tvistbilæggelsesprocedurer

oplysninger indsamlet af Kommissionen eller markedsovervågningsmyndighederne i henhold til retsakten om kunstig intelligens (navnlig artikel 62) eller andre relevante instrumenter

oplysninger og analyser til støtte for evalueringen af retsakten om kunstig intelligens og de rapporter, som Kommissionen skal udarbejde om gennemførelsen af denne retsakt

oplysninger og analyser til støtte for vurderingen af relevante fremtidige politiske foranstaltninger i henhold til sikkerhedslovgivningen efter den "gamle metode" for at sikre, at produkter, der bringes i omsætning på EU-markedet, opfylder høje sundheds-, sikkerheds- og miljøkrav

oplysninger og analyser til støtte for Kommissionens rapport om anvendelsen af motorkøretøjsforsikringsdirektivet på den teknologiske udvikling (navnlig autonome og semi-autonome køretøjer) i henhold til direktivets artikel 28c, stk. 2, litra a).

·Nærmere redegørelse for de enkelte bestemmelser i forslaget

1. Emne og anvendelsesområde (artikel 1)

Formålet med dette direktiv er at forbedre det indre markeds funktion ved at fastsætte ensartede krav til visse aspekter af civilretligt ansvar uden for kontraktforhold for skader forårsaget af AI-systemer. Det følger op på Europa-Parlamentets beslutning 2020/2014(INL) og tilpasser privatretten til behovene i forbindelse med omstillingen til den digitale økonomi.

Valget af egnede retlige værktøjer er begrænset i betragtning af arten af spørgsmålet om bevisbyrde og de særlige karakteristika ved kunstig intelligens, der udgør et problem for de eksisterende ansvarsregler. I denne henseende letter dette direktiv bevisbyrden på en meget målrettet og forholdsmæssig måde gennem anvendelse af offentliggørelse og afbeviselige formodninger. Ifølge direktivet har personer, der søger erstatning for skade, mulighed for at indhente oplysninger om højrisiko-AI-systemer, der skal registreres/dokumenteres i henhold til retsakten om kunstig intelligens. Derudover vil de afbeviselige formodninger give dem, der søger erstatning for skader forårsaget af AI-systemer, en mere rimelig bevisbyrde og en mulighed for at få medhold i begrundede erstatningskrav.

Sådanne værktøjer er ikke nye. De findes i de nationale lovgivninger. Disse nationale værktøjer udgør derfor nyttige referencepunkter for, hvordan de problemer, som kunstig intelligens rejser i forbindelse med eksisterende ansvarsregler, kan håndteres på en måde, der griber mindst muligt ind i de forskellige nationale retssystemer.

Når virksomhederne blev spurgt om mere vidtrækkende ændringer såsom omvendt bevisbyrde eller en uafkræftelig formodning, gav de desuden negativ feedback under høringerne. Målrettede foranstaltninger til at lette bevisbyrden i form af afkræftelige formodninger blev valgt som pragmatiske og hensigtsmæssige metoder til at hjælpe ofrene med at løfte deres bevisbyrde på den mest målrettede og forholdsmæssige måde.

I artikel 1 angives direktivets genstand og anvendelsesområde: det finder anvendelse på civilretlige erstatningskrav uden for kontraktforhold, der er forårsaget af et AI-system, når sådanne krav fremsættes i henhold til culpabaserede ansvarsordninger. Det vil sige ordninger, der fastsætter et lovbestemt ansvar for erstatning for skader, der er forvoldt forsætligt eller som følge af en uagtsom handling eller undladelse. Foranstaltningerne i dette direktiv kan problemfrit indpasses i de eksisterende ordninger for civilretligt ansvar, da de afspejler en tilgang, der ikke berører definitionen af grundlæggende begreber som "skyld" eller "skade", eftersom betydningen af disse begreber varierer betydeligt fra medlemsstat til medlemsstat. Ud over de formodninger, der fastsættes i direktivet, berører det således ikke EU-regler eller nationale regler, der f.eks. bestemmer, hvilken part der har bevisbyrden, hvilken grad af sikkerhed der kræves med hensyn til bevisstandarden, eller hvordan skyld defineres.

Desuden berører dette direktiv ikke de eksisterende regler, der regulerer betingelserne for ansvar i transportsektoren og dem, der er fastsat i retsakten om digitale tjenester.

Selv om dette direktiv ikke finder anvendelse med hensyn til strafferetligt ansvar, kan det finde anvendelse på statens ansvar. Statslige myndigheder er også omfattet af bestemmelserne i retsakten om kunstig intelligens som genstand for de forpligtelser, der er fastsat heri.

Dette direktiv finder ikke anvendelse med tilbagevirkende kraft, men kun på erstatningskrav, der opstår fra datoen for dets gennemførelse.

Forslaget til dette direktiv er blevet vedtaget sammen med forslaget om en revision af produktansvarsdirektiv 85/374/EØF i en pakke, der har til formål at tilpasse ansvarsreglerne til den digitale tidsalder og kunstig intelligens og sikre den nødvendige tilpasning mellem disse to supplerende retlige instrumenter.

2.Definitioner (artikel 2)

Definitionerne i artikel 2 følger definitionerne i retsakten om kunstig intelligens for at sikre konsekvens.

I henhold til artikel 2, stk. 6, litra b), kan erstatningskrav ikke kun anlægges af skadelidte, men også af personer, der er indtrådt i skadelidtes rettigheder. Subrogation er tredjemands (f.eks. et forsikringsselskabs) overtagelse af en anden parts juridiske ret til at inddrive gæld eller skadeserstatning. En person har således ret til at gøre en andens rettigheder gældende til egen fordel. Subrogation vil også omfatte arvinger til et afdødt offer.

Desuden fastsættes det i artikel 2, stk. 6, litra c), at en person, der handler på vegne af en eller flere skadelidte, også kan anlægge erstatningssøgsmål i overensstemmelse med EU-retten eller national ret. Denne bestemmelse har til formål at give personer, der har lidt skade som følge af et AI-system, flere muligheder for at få deres krav vurderet af en domstol, selv i tilfælde, hvor individuelle søgsmål kan synes at være for dyre eller for besværlige at anlægge, eller hvor fælles søgsmål kan indebære en skalamæssig fordel. For at gøre det muligt for ofre for skader forårsaget af AI-systemer at håndhæve deres rettigheder i forbindelse med dette direktiv gennem gruppesøgsmål ændres bilag I til direktiv (EU) 2020/1828 ved artikel 6.

3.Fremlæggelse af beviser (artikel 3)

Dette direktiv har til formål at give personer, der søger erstatning for skader forårsaget af højrisiko-AI-systemer, effektive midler til at identificere potentielt ansvarlige personer og relevante beviser for et krav. Samtidig tjener sådanne midler til at udelukke uretmæssigt identificerede potentielle sagsøgte, spare tid og omkostninger for de involverede parter og reducere sagsbyrden for domstolene.

I denne henseende fastsættes det i direktivets artikel 3, stk. 1, at en domstol kan kræve fremlæggelse af relevante beviser for specifikke højrisiko-AI-systemer, der mistænkes for at have forvoldt skade. Anmodninger om bevis stiles til udbyderen af et AI-system, en person, der er underlagt udbyderens forpligtelser i henhold til artikel 24 eller artikel 28, stk. 1, i retsakten om kunstig intelligens, eller en bruger i henhold til retsakten om kunstig intelligens. Anmodningerne bør understøttes af kendsgerninger og dokumentation, der er tilstrækkelige til at fastslå troværdigheden af det påtænkte erstatningskrav, og de ønskede beviser bør være til rådighed for adressaterne. Anmodninger kan ikke rettes til parter, der ikke har nogen forpligtelser i henhold til retsakten om kunstig intelligens, og som derfor ikke har adgang til beviserne.

I henhold til artikel 3, stk. 2, kan sagsøger kun anmode om fremlæggelse af beviser fra udbydere eller brugere, der ikke er sagsøgte, hvis alle forholdsmæssige forsøg på at indsamle beviser fra sagsøgte har været forgæves.

For at de retslige midler kan være effektive, bestemmes det i direktivets artikel 3, stk. 3, at en domstol også kan træffe afgørelse om sikring af sådanne bevismidler.

Som fastsat i artikel 3, stk. 4, første afsnit, kan retten kun anordne en sådan fremlæggelse i det omfang, det er nødvendigt for at understøtte kravet, eftersom oplysningerne kan være afgørende beviser for skadelidtes krav i tilfælde af skade, der involverer AI-systemer.

Ved at begrænse forpligtelsen til at fremlægge eller sikre beviser til nødvendige og forholdsmæssige beviser har artikel 3, stk. 4, første afsnit, til formål at sikre proportionalitet i fremlæggelsen af beviser, dvs. at begrænse fremlæggelsen til det nødvendige minimum og forhindre generelle anmodninger.

Artikel 3, stk. 4, andet og tredje afsnit, har endvidere til formål at finde en balance mellem klagerens rettigheder og behovet for at sikre, at en sådan videregivelse er underlagt sikkerhedsforanstaltninger for at beskytte alle berørte parters legitime interesser, såsom forretningshemmeligheder eller fortrolige oplysninger.

I samme forbindelse har artikel 3, stk. 4, fjerde afsnit, til formål at sikre, at den person, der er genstand for kendelsen, har adgang til proceduremæssige retsmidler mod påbud om fremlæggelse eller sikring.

Artikel 3, stk. 5, indfører en formodning om manglende overholdelse af omsorgspligten. Dette er et proceduremæssigt redskab, der kun er relevant i tilfælde, hvor det er den faktiske sagsøgte i et erstatningskrav, der bærer konsekvenserne af, en anmodning om fremlæggelse eller sikring af beviser ikke er blevet efterkommet. Sagsøgte har ret til at afkræfte denne formodning. Foranstaltningen i dette stykke har til formål at fremme fremlæggelsen, men også at fremskynde retssager.

4.Formodning om årsagssammenhæng i tilfælde af fejl (artikel 4)

For så vidt angår skader forårsaget af AI-systemer har dette direktiv til formål at skabe et effektivt grundlag for at kræve erstatning i forbindelse med den fejl, der består i manglende overholdelse af en omsorgspligt i henhold til EU-retten eller national ret.

Det kan være en udfordring for sagsøgerne at fastslå en årsagssammenhæng mellem en sådan manglende overholdelse og det output, som AI-systemet producerer, eller AI-systemets manglende evne til at producere et output, der gav anledning til den relevante skade. Der er derfor fastsat en målrettet afkræftelig formodning om årsagssammenhæng i artikel 4, stk. 1, vedrørende denne årsagssammenhæng. En sådan formodning er den mindst byrdefulde foranstaltning til at imødekomme behovet for rimelig erstatning til ofret.

Sagsøgtes skyld skal bevises af sagsøgeren i henhold til de gældende EU-regler eller nationale regler. En sådan fejl kan f.eks. fastslås for manglende overholdelse af en pligt til at udvise omhu i henhold til retsakten om kunstig intelligens eller i henhold til andre regler, der er fastsat på EU-plan, såsom regler for brugen af automatiseret overvågning og beslutningstagning i forbindelse med platformsarbejde eller regler for drift af ubemandede luftfartøjer. En sådan fejl kan også antages af retten på grund af manglende overholdelse af en retskendelse om fremlæggelse eller sikring af bevismateriale i henhold til artikel 3, stk. 5. Det er dog kun hensigtsmæssigt at indføre en formodning om årsagssammenhæng, når det kan anses for sandsynligt, at den givne fejl har påvirket det relevante AI-systems output eller mangel herpå, hvilket kan vurderes på grundlag af sagens samlede omstændigheder. Samtidig skal sagsøgeren stadig bevise, at AI-systemet (dvs. dets output eller manglende output) har givet anledning til skaden.

I punkt 2) og 3) sondres der mellem på den ene side krav, der rejses mod udbyderen af et højrisiko-AI-system eller mod en person, der er underlagt udbyderens forpligtelser i henhold til retsakten om kunstig intelligens, og på den anden side krav, der rejses mod brugeren af sådanne systemer. I denne henseende følger den de respektive bestemmelser og relevante betingelser i retsakten om kunstig intelligens. I tilfælde af krav baseret på artikel 4, stk. 2, skal sagsøgtes overholdelse af de forpligtelser, der er anført i dette stykke, også vurderes i lyset af risikostyringssystemet og dets resultater, dvs. risikostyringsforanstaltninger, i henhold til retsakten om kunstig intelligens.

I tilfælde af højrisiko-AI-systemer som defineret i retsakten om kunstig intelligens fastsætter artikel 4, stk. 4, en undtagelse fra formodningen om årsagssammenhæng, hvis sagsøgte påviser, at tilstrækkelig dokumentation og ekspertise er rimeligt tilgængelig for sagsøger til at bevise årsagssammenhængen. Denne mulighed kan tilskynde de sagsøgte til at overholde deres offentliggørelsesforpligtelser med foranstaltninger, der er fastsat i retsakten om kunstig intelligens, for at sikre en høj grad af gennemsigtighed i forbindelse med kunstig intelligens eller med dokumenterings- og registreringskrav.

For så vidt angår AI-systemer, der ikke indebærer en høj risiko, fastsætter artikel 4, stk. 5, en betingelse for, at formodningen om årsagssammenhæng finder anvendelse, idet sidstnævnte er betinget af, at retten fastslår, at det er uforholdsmæssigt vanskeligt for sagsøger at bevise årsagssammenhængen. Sådanne vanskeligheder skal vurderes i lyset af visse AI-systemers karakteristika, såsom autonomi og uigennemsigtighed, som gør det meget vanskeligt i praksis at forklare AI-systemets interne funktion, hvilket har en negativ indvirkning på sagsøgerens evne til at bevise årsagssammenhængen mellem sagsøgtes fejl og AI-outputtet.

I tilfælde, hvor sagsøgte anvender AI-systemet i forbindelse med en personlig ikke-erhvervsmæssig aktivitet, fastsætter artikel 4, stk. 6, at formodningen om årsagssammenhæng kun bør finde anvendelse, hvis sagsøgte i væsentlig grad har grebet ind i betingelserne for AI-systemets drift, eller hvis sagsøgte var forpligtet til og i stand til at fastlægge betingelserne for AI-systemets drift og undlod at gøre dette. Denne betingelse er begrundet i behovet for at afveje skadelidtes og ikke-erhvervsmæssige brugeres interesser ved at undtage de tilfælde, hvor ikke-erhvervsmæssige brugere ikke øger risici gennem deres adfærd, fra anvendelsen af formodningen om årsagssammenhæng.

Endelig bestemmer artikel 4, stk. 7, at sagsøgte har ret til at afkræfte formodningen om årsagssammenhæng på grundlag af artikel 4, stk. 1.

Sådanne effektive regler om civilretligt ansvar har den yderligere fordel, at de giver alle, der er involveret i aktiviteter i forbindelse med AI-systemer, et yderligere incitament til at opfylde deres forpligtelser med hensyn til deres forventede adfærd.

5.Evaluering og målrettet revision (artikel 5)

Forskellige nationale retssystemer indeholder forskellige ordninger for objektivt ansvar. Elementer til en sådan ordning på EU-plan blev også foreslået af Europa-Parlamentet i dets initiativbeslutning af 20. oktober 2020, der består af en ordning med begrænset objektivt ansvar for visse AI-baserede teknologier og en lettere bevisbyrde i henhold til culpabaserede ansvarsregler. De offentlige høringer afslørede også en præference for en sådan ordning blandt respondenterne (undtagen for virksomheder, der ikke er SMV'er), uanset om de er koblet sammen med obligatorisk forsikring eller ej.

Forslaget tager imidlertid hensyn til forskellene mellem de nationale retstraditioner og det forhold, at den type produkter og tjenester, der er udstyret med AI-systemer, som kan påvirke den brede offentlighed og bringe vigtige juridiske rettigheder såsom retten til liv, sundhed og ejendom i fare, og som derfor kan være omfattet af en ordning med objektivt ansvar, endnu ikke er bredt tilgængelige på markedet.

Der indføres et overvågningsprogram for at give Kommissionen oplysninger om hændelser, der involverer AI-systemer. Den målrettede revision vil vurdere, om der er behov for yderligere foranstaltninger, såsom indførelse af en ordning med objektivt ansvar og/eller obligatorisk forsikring.

6.Gennemførelse (Artikel 7)

Når medlemsstaterne underretter Kommissionen om nationale gennemførelsesforanstaltninger for at efterkomme dette direktiv, bør de også fremlægge forklarende dokumenter, der giver tilstrækkeligt klare og præcise oplysninger og for hver bestemmelse i dette direktiv angiver den eller de nationale bestemmelser, der sikrer dets gennemførelse. Dette er nødvendigt for at gøre det muligt for Kommissionen for hver bestemmelse i direktivet, der kræver gennemførelse, at identificere den relevante del af de nationale gennemførelsesforanstaltninger, der skaber den tilsvarende retlige forpligtelse i den nationale retsorden, uanset hvilken form medlemsstaterne vælger.



2022/0303 (COD)

Forslag til

EUROPA-PARLAMENTETS OG RÅDETS DIREKTIV

om tilpasning af reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
(Direktivet om AI-ansvar)

(EØS-relevant tekst)

EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR —

under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 114,

under henvisning til forslag fra Europa-Kommissionen,

efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,

under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg 29 ,

under henvisning til udtalelse fra Regionsudvalget 30 ,

efter den almindelige lovgivningsprocedure, og

ud fra følgende betragtninger:

(1)Kunstig intelligens ("AI") er en række støtteteknologier, der kan bidrage til en bred vifte af fordele på tværs af hele spektret af økonomien og samfundet. Den har et stort potentiale for teknologiske fremskridt og muliggør nye forretningsmodeller i mange sektorer af den digitale økonomi.

(2)Samtidig kan kunstig intelligens, afhængigt af omstændighederne ved dens specifikke anvendelse og anvendelse, skabe risici og skade interesser og rettigheder, der er beskyttet af EU-retten eller national ret. F.eks. kan anvendelsen af kunstig intelligens have en negativ indvirkning på en række grundlæggende rettigheder, herunder liv, fysisk integritet og med hensyn til ikkeforskelsbehandling og ligebehandling. Europa-Parlamentets og Rådets forordning (EU).../... [retsakten om kunstig intelligens] 31 indeholder krav, der har til formål at mindske risici for sikkerheden og de grundlæggende rettigheder, mens andre EU-retsakter regulerer generelle 32 og sektorspecifikke produktsikkerhedsregler, der også finder anvendelse på AI-baserede maskinprodukter 33 og radioudstyr 34 . Selv om sådanne krav, der har til formål at mindske risici for sikkerheden og de grundlæggende rettigheder, har til formål at forebygge, overvåge og imødegå risici og dermed adressere samfundsmæssige bekymringer, giver de ikke individuel afhjælpning til dem, der har lidt skade forårsaget af kunstig intelligens. De eksisterende krav indeholder navnlig bestemmelser om tilladelser, kontroller, overvågning og administrative sanktioner i forbindelse med AI-systemer med henblik på at forebygge skader. De indeholder ikke bestemmelser om erstatning til skadelidte for skader forårsaget af et output eller manglende output fra et AI-system.

(3)Når en skadelidt søger skadeserstatning, kræver medlemsstaternes generelle regler om culpaansvar normalt, at den pågældende skal bevise en uagtsom eller forsætlig skadevoldende handling eller undladelse ("fejl") fra den person, der potentielt er ansvarlig for skaden, samt en årsagsforbindelse mellem denne fejl og den relevante skade. Når kunstig intelligens er placeret mellem en persons handling eller undladelse og skaden, kan de særlige karakteristika ved visse AI-systemer, såsom uigennemsigtighed, autonom adfærd og kompleksitet, gøre det uforholdsmæssigt vanskeligt, hvis ikke umuligt, for skadelidte at løfte denne bevisbyrde. Det kan navnlig være uforholdsmæssigt vanskeligt at bevise, at et specifikt input, som den potentielt ansvarlige person er ansvarlig for, har forårsaget et specifikt AI-systemoutput, der førte til den pågældende skade.

(4)I sådanne tilfælde kan erstatningsniveauet i henhold til de nationale regler om civilretligt ansvar være lavere end i tilfælde, hvor andre teknologier end kunstig intelligens er involveret i at forvolde skade. Sådanne kompensationsmangler kan bidrage til en lavere grad af samfundsmæssig accept af kunstig intelligens og tillid til AI-baserede produkter og tjenester.

(5)For at høste de økonomiske og samfundsmæssige fordele ved kunstig intelligens og fremme omstillingen til den digitale økonomi er det nødvendigt på en målrettet måde at tilpasse visse nationale regler om civilretligt ansvar til de specifikke karakteristika ved visse AI-systemer. Sådanne tilpasninger bør bidrage til samfundets og forbrugernes tillid og dermed fremme udbredelsen af kunstig intelligens. Sådanne tilpasninger bør også opretholde tilliden til retssystemet ved at sikre, at ofre for skader forårsaget af kunstig intelligens har samme effektive erstatning som ofre for skader forårsaget af andre teknologier.

(6)Interesserede parter — skadelidte, der lider skade, potentielt ansvarlige personer, forsikringsselskaber — står over for retsusikkerhed med hensyn til, hvordan de nationale domstole, når de står over for de specifikke udfordringer i forbindelse med kunstig intelligens, kan anvende de eksisterende ansvarsregler i individuelle sager for at opnå retfærdige resultater. Hvis der ikke træffes foranstaltninger på EU-plan, vil i det mindste nogle medlemsstater sandsynligvis tilpasse deres regler om civilretligt ansvar for at afhjælpe mangler i forbindelse med erstatning og retsusikkerhed i forbindelse med visse AI-systemers særlige karakteristika. Dette vil skabe retlig fragmentering og hindringer for det indre marked for virksomheder, der udvikler eller leverer innovative AI-baserede produkter eller tjenester. Små og mellemstore virksomheder vil blive særlig hårdt ramt.

(7)Formålet med dette direktiv er at bidrage til et velfungerende indre marked ved at harmonisere visse nationale regler om culpaansvar uden for kontraktforhold for at sikre, at personer, der kræver erstatning for skader, som de har lidt som følge af et AI-system, nyder samme beskyttelsesniveau som personer, der kræver erstatning for skader forvoldt uden et AI-systems medvirken. Dette mål kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne, da de relevante hindringer for det indre marked er forbundet med risikoen for ensidige og fragmenterede reguleringsforanstaltninger på nationalt plan. I betragtning af den digitale karakter af de produkter og tjenester, der er omfattet af dette direktivs anvendelsesområde, er sidstnævnte særlig relevant i en grænseoverskridende sammenhæng.

(8)Målet om at sikre retssikkerhed og forebygge kompensationsmangler i tilfælde, hvor AI-systemer er involveret, kan således bedre nås på EU-plan. Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i TEU. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går dette direktiv ikke videre, end hvad der er nødvendigt for at nå dette mål.

(9)Det er derfor nødvendigt målrettet at harmonisere specifikke aspekter af culpabaserede ansvarsregler på EU-plan. En sådan harmonisering bør øge retssikkerheden og skabe lige vilkår for AI-systemer og dermed forbedre det indre markeds funktion med hensyn til produktion og formidling af AI-baserede produkter og tjenester.

(10)For at sikre proportionalitet bør kun de culpabaserede ansvarsregler, der regulerer bevisbyrden for personer, der kræver erstatning for skader forårsaget af AI-systemer, harmoniseres målrettet. Dette direktiv bør ikke harmonisere de generelle aspekter af civilretligt ansvar, som reguleres forskelligt af de nationale regler om civilretligt ansvar, såsom definitionen af skyld eller årsagssammenhæng, de forskellige typer skader, der giver anledning til erstatningskrav, fordelingen af ansvaret på flere skadevoldere, bidragsadfærd, beregning af skader eller forældelsesfrister.

(11)Medlemsstaternes lovgivning om producenters ansvar for skader forårsaget af defekter ved deres produkter er allerede harmoniseret på EU-plan ved Rådets direktiv 85/374/EØF 35 . Disse love berører imidlertid ikke medlemsstaternes regler om ansvar i eller uden for kontraktforhold, såsom culpa, objektivt ansvar eller garanti, der er baseret på andre grundlag end en defekt i produktet. Samtidig med at revisionen af Rådets direktiv 85/374/EØF har til formål at præcisere og sikre, at skadelidte kan kræve erstatning for skader forårsaget af defekte AI-baserede produkter, bør det derfor præciseres, at bestemmelserne i dette direktiv ikke berører rettigheder, som en skadelidt måtte have i henhold til nationale regler til gennemførelse af direktiv 85/374/EØF. På transportområdet bør EU-lovgivningen om transportvirksomheders ansvar desuden ikke berøres af dette direktiv.

(12)[Retsakten om digitale tjenester 36 ] harmoniserer fuldt ud de regler, der gælder for udbydere af formidlingstjenester i det indre marked, og dækker de samfundsmæssige risici, der stammer fra de tjenester, der tilbydes af disse udbydere, herunder for så vidt angår de AI-systemer, de anvender. Dette direktiv berører ikke bestemmelserne i [retsakten om digitale tjenester], der fastsætter en omfattende og fuldt harmoniseret ramme for due diligence-forpligtelser i forbindelse med hostingtjenesteudbyderes algoritmiske beslutningstagning, herunder fritagelse for ansvar for udbredelse af ulovligt indhold, der uploades af modtagere af deres tjenester, hvis betingelserne i nævnte forordning er opfyldt.

(13)Bortset fra de formodninger, der fastsættes i direktivet, harmoniserer direktivet ikke de nationale lovgivninger om, hvilken part der har bevisbyrden, eller hvilken grad af sikkerhed der kræves med hensyn til beviskravene. 

(14)Dette direktiv bør følge en tilgang med minimumsharmonisering. En sådan tilgang gør det muligt for sagsøgere i tilfælde af skader forårsaget af AI-systemer at påberåbe sig gunstigere regler i national ret. De nationale lovgivninger kan således f.eks. opretholde omvendt bevisbyrde i henhold til nationale culpabaserede ordninger eller nationale ordninger for ansvar uden culpa (benævnt "objektivt ansvar"), hvor der allerede findes mange forskellige nationale lovgivninger, som muligvis finder anvendelse på skader forårsaget af AI-systemer.

(15)Der bør også sikres overensstemmelse med [retsakten om kunstig intelligens]. Det er derfor hensigtsmæssigt, at dette direktiv anvender de samme definitioner for så vidt angår AI-systemer, -udbydere og -brugere. Desuden bør dette direktiv kun omfatte erstatningskrav, når skaden er forårsaget af et output eller manglende output fra et AI-system på grund af en personfejl, f.eks. hos udbyderen eller brugeren, i henhold til [retsakten om kunstig intelligens]. Der er ikke behov for at dække erstatningskrav, når skaden er forårsaget af en menneskelig vurdering efterfulgt af en menneskelig handling eller undladelse, mens AI-systemet kun gav oplysninger eller råd, som den relevante menneskelige aktør tog hensyn til. I sidstnævnte tilfælde er det muligt at spore skaden tilbage til en menneskelig handling eller undladelse, da AI-systemets output ikke er placeret mellem den menneskelige handling eller undladelse og skaden, og det er derfor ikke vanskeligere at fastslå årsagssammenhængen end i situationer, hvor der ikke er et AI-system involveret.

(16)Adgang til oplysninger om specifikke højrisiko-AI-systemer, der mistænkes for at have forvoldt skade, er en vigtig faktor for at fastslå, om der skal kræves erstatning, og for at underbygge erstatningskrav. For højrisiko-AI-systemer indeholder [retsakten om kunstig intelligens] desuden specifikke krav til dokumentation, information og registrering, men giver ikke skadelidte ret til at få adgang til disse oplysninger. Der bør derfor fastsættes regler om fremlæggelse af relevante beviser for dem, der råder over dem, med henblik på at fastslå ansvaret. Dette bør også give et yderligere incitament til at opfylde de relevante krav i [retsakten om kunstig intelligens] om at dokumentere eller registrere de relevante oplysninger.

(17)Det store antal personer, der normalt er involveret i udformning, udvikling, udbredelse og drift af højrisiko-AI-systemer, gør det vanskeligt for skadelidte at identificere den person, der potentielt er ansvarlig for den forvoldte skade, og at bevise betingelserne for et erstatningskrav. For at gøre det muligt for skadelidte at afgøre, om et erstatningskrav er begrundet, er det hensigtsmæssigt at give potentielle sagsøgere ret til at anmode en domstol om at kræve fremlæggelse af relevante beviser, inden der fremsættes et erstatningskrav. En sådan fremlæggelse bør kun pålægges, hvis den potentielle sagsøger fremlægger kendsgerninger og oplysninger, der er tilstrækkelige til at underbygge troværdigheden af et erstatningskrav, og den pågældende forinden har anmodet udbyderen, den person, der er underlagt en udbyders forpligtelser, eller brugeren, om at fremlægge sådan dokumentation for specifikke højrisiko-AI-systemer, som mistænkes for at have forvoldt skade, hvilket er blevet afvist. Påbud om fremlæggelse af oplysninger bør føre til en reduktion af unødvendige retssager og undgå omkostninger for eventuelle retssubjekter som følge af krav, der er uberettigede eller sandsynligvis ikke vil blive taget til følge. Hvis tjenesteyderen, den person, der er underlagt en udbyders forpligtelser, eller brugeren forud for anmodningen til retten nægter at udlevere bevismateriale, bør det ikke udløse en formodning om, at den person, der nægter at udlevere bevismateriale, ikke har overholdt sine relevante omsorgspligter.

(18)Begrænsningen af fremlæggelse af dokumentation for så vidt angår højrisiko-AI-systemer er i overensstemmelse med [retsakten om kunstig intelligens], som fastsætter visse specifikke dokumentations-, registrerings- og oplysningsforpligtelser for operatører, der er involveret i udformningen, udviklingen og udbredelsen af højrisiko-AI-systemer. En sådan sammenhæng sikrer også den nødvendige proportionalitet ved at undgå, at operatører af AI-systemer, der udgør en lavere eller ingen risiko, forventes at dokumentere oplysninger på et niveau svarende til det, der kræves for højrisiko-AI-systemer i henhold til [retsakten om kunstig intelligens].

(19)De nationale domstole bør i forbindelse med civile retssager kunne kræve fremlæggelse eller sikring af relevant bevismateriale vedrørende den skade, der er forårsaget af højrisiko-AI-systemer, fra personer, der allerede er forpligtet til at dokumentere eller registrere oplysninger i henhold til [retsakten om kunstig intelligens], hvad enten der er tale om udbydere, personer, der er omfattet af de samme forpligtelser som udbydere, eller brugere af et AI-system, enten som sagsøgte eller tredjeparter i forbindelse med kravet. Der kan være situationer, hvor det bevismateriale, der er relevant for sagen, indehaves af enheder, der ikke er parter i erstatningskravet, men som er forpligtet til at dokumentere eller registrere sådanne beviser i henhold til [retsakten om kunstig intelligens]. Det er derfor nødvendigt at fastsætte betingelserne for, at sådanne tredjeparter i forbindelse med kravet kan pålægges at fremlægge de relevante beviser.

(20)For at opretholde balancen mellem interesserne hos de parter, der er involveret i erstatningskravet, og hos de berørte tredjeparter bør domstolene kun kræve fremlæggelse af beviser, hvis dette er nødvendigt og forholdsmæssigt for at understøtte kravet eller det potentielle erstatningskrav. I denne forbindelse bør fremlæggelsen kun vedrøre beviser, der er nødvendige for at træffe afgørelse om det pågældende erstatningskrav, f.eks. kun de dele af de relevante registre eller datasæt, der er nødvendige for at bevise manglende overholdelse af et krav, der er fastsat i [retsakten om kunstig intelligens]. For at sikre proportionaliteten af sådanne afslørings- eller beskyttelsesforanstaltninger bør de nationale domstole have effektive midler til at beskytte alle involverede parters legitime interesser, f.eks. beskyttelse af forretningshemmeligheder som omhandlet i Europa-Parlamentets og Rådets direktiv (EU) 2016/943 37 samt af fortrolige oplysninger såsom oplysninger vedrørende den offentlige eller nationale sikkerhed. For så vidt angår forretningshemmeligheder eller påståede forretningshemmeligheder, som retten har identificeret som fortrolige i henhold til direktiv (EU) 2016/943, bør de nationale domstole have beføjelse til at træffe specifikke foranstaltninger for at sikre fortroligheden af forretningshemmeligheder under og efter sagens behandling, samtidig med at der opnås en rimelig og forholdsmæssig balance mellem forretningshemmelighedshaverens interesse i at bevare fortroligheden og den skadelidtes interesse. Dette bør omfatte foranstaltninger til at begrænse adgangen til dokumenter, der indeholder forretningshemmeligheder, og adgang til høringer eller dokumenter og udskrifter heraf til et begrænset antal personer. Når de nationale domstole træffer afgørelse om sådanne foranstaltninger, bør de tage hensyn til behovet for at sikre adgang til effektive retsmidler og til en upartisk domstol, parternes og, hvor det er relevant, tredjeparters legitime interesser og eventuel skade for en af parterne eller, hvor det er relevant, for tredjeparter som følge af, at sådanne foranstaltninger efterkommes eller afvises. For at sikre en forholdsmæssig anvendelse af en oplysningsforanstaltning over for tredjeparter i forbindelse med erstatningskrav bør de nationale domstole desuden kun kræve fremlæggelse fra tredjemand, hvis beviserne ikke kan indhentes fra sagsøgte.

(21)Selv om de nationale domstole har midlerne til at fuldbyrde deres påbud om fremlæggelse af oplysninger ved hjælp af forskellige foranstaltninger, kan sådanne håndhævelsesforanstaltninger forsinke erstatningskrav og dermed potentielt skabe yderligere omkostninger for sagens parter. For skadelidte kan sådanne forsinkelser og yderligere udgifter gøre deres adgang til effektive retsmidler vanskeligere. Når en sagsøgt i et erstatningskrav undlader at fremlægge beviser, som en domstol har påbudt vedkommende at fremlægge, er det derfor hensigtsmæssigt at formode, at de omsorgsforpligtelser, som bevismaterialet skulle bevise, ikke er blevet overholdt. Denne afkræftelige formodning vil afkorte sagsbehandlingstiden og fremme mere effektive retssager. Sagsøgte bør kunne afkræfte denne formodning ved at fremlægge modbevis.

(22)For at afhjælpe vanskelighederne med at bevise, at et specifikt input, som den potentielt ansvarlige person er ansvarlig for, har forårsaget et specifikt AI-systemoutput, der førte til den pågældende skade, er det hensigtsmæssigt på visse betingelser at fastsætte en formodning om årsagssammenhæng. Selv om sagsøger i et culpabaseret krav normalt skal bevise skaden, den menneskelige handling eller undladelse, der udgør en fejl fra sagsøgtes side, og årsagssammenhængen mellem de to, harmoniserer dette direktiv ikke de betingelser, hvorunder den nationale domstol fastslår skyld. De er fortsat omfattet af gældende national ret og, hvis den er harmoniseret, af gældende EU-ret. Tilsvarende harmoniserer dette direktiv ikke betingelserne vedrørende skaden, f.eks. hvilke skader der kan erstattes, som også reguleres af gældende national ret og EU-ret. For at formodningen om årsagssammenhæng i henhold til dette direktiv finder anvendelse, bør sagsøgtes skyld fastslås som en menneskelig handling eller undladelse, der ikke opfylder en pligt til at udvise omhu i henhold til EU-retten eller national ret, og som direkte har til formål at beskytte mod den skade, der er indtrådt. Denne formodning kan således f.eks. finde anvendelse på et krav om erstatning for fysisk skade i tilfælde, hvor retten fastslår, at sagsøgte har gjort sig skyldig i manglende overholdelse af brugsanvisningen, som har til formål at forhindre, at fysiske personer lider skade. Manglende udvisning af rettidig omhu, der ikke direkte tog sigte på at beskytte mod den skade, der opstod, fører ikke til anvendelse af formodningen, f.eks. ville en udbyders manglende indgivelse af den krævede dokumentation til de kompetente myndigheder ikke føre til anvendelse af formodningen i forbindelse med erstatningskrav på grund af fysisk skade. Det bør også være nødvendigt at fastslå, at det på grundlag af sagens omstændigheder kan anses for rimeligt sandsynligt, at fejlen har påvirket det output, som AI-systemet genererer, eller AI-systemets manglende evne til at producere et output. Endelig bør sagsøgeren fortsat være forpligtet til at bevise, at outputtet eller det manglende output har givet anledning til skaden.

(23)En sådan fejl kan fastslås med hensyn til manglende overholdelse af EU-regler, der specifikt regulerer højrisiko-AI-systemer, såsom de krav, der er indført for visse højrisiko-AI-systemer ved [retsakten om kunstig intelligens], krav, der kan indføres ved fremtidig sektorspecifik lovgivning for andre højrisiko-AI-systemer i henhold til [artikel 2, stk. 2, i retsakten om kunstig intelligens], eller omsorgspligt, der er knyttet til visse aktiviteter, og som finder anvendelse, uanset om der anvendes kunstig intelligens til den pågældende aktivitet. Samtidig skaber eller harmoniserer dette direktiv hverken kravene til eller ansvaret for enheder, hvis aktiviteter er reguleret i henhold til disse retsakter, og skaber derfor ikke nye erstatningskrav. Konstatering af en overtrædelse af et sådant krav, der udgør culpa, vil ske i henhold til bestemmelserne i disse gældende regler i EU-retten, da dette direktiv hverken indfører nye krav eller berører eksisterende krav. F.eks. berøres fritagelsen for ansvar for udbydere af formidlingstjenester og de due diligence-forpligtelser, som de er underlagt i henhold til [retsakten om digitale tjenester], ikke af dette direktiv. Tilsvarende skal overholdelsen af de krav, der pålægges onlineplatforme for at undgå uautoriseret overføring til offentligheden af ophavsretligt beskyttede værker, fastsættes i henhold til direktiv (EU) 2019/790 om ophavsret og beslægtede rettigheder på det digitale indre marked og anden relevant EU-lovgivning om ophavsret. 

(24)På områder, der ikke er harmoniseret af EU-retten, finder national ret fortsat anvendelse, og der konstateres fejl i henhold til gældende national ret. Alle nationale ansvarsordninger indeholder pligter til at udvise omhu, der som adfærdskodeks tager udgangspunkt i forskellige udtryk for princippet om, hvordan en fornuftig person bør handle, og som også sikrer en sikker drift af AI-systemer for at forhindre skade på anerkendte juridiske interesser. En sådan pligt til rettidig omhu kan f.eks. kræve, at brugere af AI-systemer til visse opgaver vælger et bestemt AI-system med konkrete karakteristika eller udelukker visse segmenter af en befolkning fra at blive eksponeret for et bestemt AI-system. National lovgivning kan også indføre specifikke forpligtelser, der har til formål at forebygge risici for visse aktiviteter, som finder anvendelse, uanset om kunstig intelligens anvendes til den pågældende aktivitet, f.eks. færdselsregler eller forpligtelser, der er specifikt udformet til AI-systemer, såsom yderligere nationale krav til brugere af højrisiko-AI-systemer i henhold til artikel 29, stk. 2, i [retsakten om kunstig intelligens]. Dette direktiv indfører hverken sådanne krav eller påvirker betingelserne for at fastslå skyld i tilfælde af overtrædelse af sådanne krav.

(25)Selv når en fejl, der består i en tilsidesættelse af en omsorgspligt, der direkte har til formål at beskytte mod den lidte skade, er fastslået, bør alle fejl ikke føre til anvendelse af den afkræftelige formodning, der knytter den til AI-outputtet. En sådan formodning bør kun finde anvendelse, når det ud fra de omstændigheder, hvorunder skaden indtraf, kan anses for rimeligt sandsynligt, at en sådan fejl har påvirket det output, som AI-systemet genererer, eller AI-systemets manglende evne til at producere et output, der gav anledning til skaden. Det kan f.eks. anses for rimeligt sandsynligt, at fejlen har påvirket outputtet eller ikke har frembragt et output, når denne fejl består i at tilsidesætte en pligt til at udvise omhu med hensyn til at begrænse AI-systemets anvendelsesområde, og skaden er sket uden for anvendelsesområdet. Tværtimod kan en tilsidesættelse af et krav om at indgive visse dokumenter eller til at lade sig registrere hos en given myndighed, selv om dette kan forudses for den pågældende aktivitet eller endda udtrykkeligt finde anvendelse på driften af et AI-system, ikke anses for med rimelig sandsynlighed at have påvirket det output, der produceres af AI-systemet, eller AI-systemets manglende produktion af output.

(26)Dette direktiv omfatter den fejl, der udgør manglende overholdelse af visse af de anførte krav i kapitel 2 og 3 i [retsakten om kunstig intelligens] for udbydere og brugere af højrisiko-AI-systemer, og hvis manglende overholdelse under visse betingelser kan føre til en formodning om årsagssammenhæng. Retsakten om kunstig intelligens indeholder bestemmelser om fuld harmonisering af kravene til AI-systemer, medmindre andet udtrykkeligt er fastsat heri. Den harmoniserer de specifikke krav til højrisiko-AI-systemer. For så vidt angår erstatningskrav, hvor der anvendes en formodning om årsagssammenhæng i henhold til dette direktiv, fastslås den potentielle fejl begået af udbydere eller personer, der er underlagt en udbyders forpligtelser i henhold til [retsakten om kunstig intelligens], derfor kun gennem manglende overholdelse af sådanne krav. Da det i praksis kan være vanskeligt for sagsøgeren at bevise en sådan manglende overholdelse, når sagsøgte er udbyder af AI-systemet, og i fuld overensstemmelse med logikken i [retsakten om kunstig intelligens], bør dette direktiv også fastsætte, at de skridt, som udbyderen har taget inden for risikostyringssystemet, og resultaterne af risikostyringssystemet, dvs. beslutningen om at vedtage eller ikke at vedtage visse risikostyringsforanstaltninger, bør tages i betragtning ved afgørelsen af, om udbyderen har opfyldt de relevante krav i den retsakt om kunstig intelligens, der er omhandlet i dette direktiv. Det risikostyringssystem, som udbyderen har indført i henhold til [retsakten om kunstig intelligens], er en kontinuerlig iterativ proces, der gennemføres i hele højrisiko-AI-systemets livscyklus, hvorved udbyderen sikrer overholdelse af obligatoriske krav, der har til formål at afbøde risici, og kan derfor være et nyttigt element i forbindelse med vurderingen af denne overholdelse. Dette direktiv omfatter også tilfælde af fejl fra brugernes side, når denne fejl består i manglende overholdelse af visse specifikke krav, der er fastsat i [retsakten om kunstig intelligens]. Desuden kan fejl begået af brugere af højrisiko-AI-systemer fastslås som følge af manglende overholdelse af andre forpligtelser til omhu, der er fastsat i EU-retten eller national ret, i lyset af artikel 29, stk. 2, i [retsakten om kunstig intelligens].

(27)Selv om de særlige karakteristika ved visse AI-systemer, såsom autonomi og uigennemsigtighed, kan gøre det uforholdsmæssigt vanskeligt for sagsøger at løfte bevisbyrden, kan der være situationer, hvor sådanne vanskeligheder ikke findes, fordi der kan være tilstrækkelig dokumentation og ekspertise til rådighed for klageren til at bevise årsagssammenhængen. Dette kan f.eks. være tilfældet i forbindelse med højrisiko-AI-systemer, hvor klageren med rimelighed kan få adgang til tilstrækkelig dokumentation og ekspertise gennem dokumentations- og logningskrav i henhold til [retsakten om kunstig intelligens]. I sådanne situationer bør retten ikke anvende formodningen.

(28)Formodningen om årsagssammenhæng kan også finde anvendelse på AI-systemer, der ikke er højrisiko-AI-systemer, fordi der kan være uforholdsmæssigt store bevisvanskeligheder for sagsøgeren. Sådanne vanskeligheder kan f.eks. vurderes i lyset af visse AI-systemers karakteristika, såsom autonomi og uigennemsigtighed, som gør det meget vanskeligt i praksis at forklare AI-systemets interne funktion, hvilket har en negativ indvirkning på sagsøgerens evne til at bevise årsagssammenhængen mellem sagsøgtes fejl og AI-outputtet. En national ret bør anvende formodningen, når sagsøgeren befinder sig i en uforholdsmæssigt vanskelig situation med hensyn til at bevise årsagssammenhængen, eftersom sagsøgeren er forpligtet til at forklare, hvordan AI-systemet blev styret af den menneskelige handling eller undladelse, der udgør en fejl i forbindelse med frembringelsen af output, eller den manglende frembringelse af et output, der gav anledning til skaden. Sagsøgeren bør imidlertid hverken være forpligtet til at forklare det pågældende AI-systems karakteristika eller hvordan disse karakteristika gør det vanskeligere at fastslå årsagssammenhængen.

(29)Anvendelsen af formodningen om årsagssammenhæng har til formål at sikre skadelidte et tilsvarende beskyttelsesniveau som i situationer, hvor kunstig intelligens ikke er involveret, og hvor årsagssammenhæng derfor kan være lettere at bevise. Ikke desto mindre er det ikke altid hensigtsmæssigt at lette bevisbyrden for årsagssammenhæng i henhold til dette direktiv, hvis sagsøgte ikke er en professionel bruger, men snarere en person, der anvender AI-systemet til sine private aktiviteter. Under sådanne omstændigheder skal der med henblik på at afbalancere interesserne mellem den skadelidte og den ikke-professionelle bruger tages hensyn til, om sådanne ikke-professionelle brugere kan øge risikoen for, at et AI-system forårsager skade som følge af deres adfærd. Hvis udbyderen af et AI-system har opfyldt alle sine forpligtelser, og det pågældende system følgelig blev anset for at være tilstrækkeligt sikkert til at blive markedsført til en given anvendelse af ikke-professionelle brugere, og det derefter anvendes til denne opgave, bør der ikke gælde en formodning om årsagssammenhæng for sådanne ikke-erhvervsmæssige brugeres blotte lancering af driften af et sådant system. En ikke-professionel bruger, der køber et AI-system og blot lancerer det i overensstemmelse med dets formål uden at gribe væsentligt ind i driftsbetingelserne, bør ikke være omfattet af den formodning om årsagssammenhæng, der er fastsat i dette direktiv. Hvis en national domstol imidlertid fastslår, at en ikke-professionel bruger i væsentlig grad har grebet ind i betingelserne for driften af et AI-system eller var forpligtet til og i stand til at fastlægge betingelserne for AI-systemets drift og ikke gjorde det, bør formodningen om årsagssammenhæng dog finde anvendelse, hvis alle de øvrige betingelser er opfyldt. Dette kan f.eks. være tilfældet, når den ikke-professionelle bruger ikke overholder brugsanvisningen eller andre gældende forpligtelser til at udvise omhu ved valg af driftsområde eller ved fastsættelse af ydeevnebetingelser for AI-systemet. Dette berører ikke det forhold, at udbyderen bør fastlægge det tilsigtede formål med et AI-system, herunder den specifikke kontekst og anvendelsesbetingelserne, og fjerne eller minimere risiciene ved systemet, alt efter hvad der er relevant på tidspunktet for udformningen og udviklingen, under hensyntagen til den tilsigtede brugers viden og ekspertise.

(30)Da dette direktiv indfører en afkræftelig formodning, bør sagsøgte kunne afkræfte den, navnlig ved at påvise, at dennes fejl ikke kunne have forvoldt skaden.

(31)Det er nødvendigt at fastsætte bestemmelser om en revision af dette direktiv [fem år] efter udløbet af gennemførelsesperioden. Denne revision bør navnlig undersøge, om der er behov for at indføre regler om objektivt ansvar for krav mod operatøren, så længe de ikke allerede er omfattet af andre EU-ansvarsregler, navnlig direktiv 85/374/EØF, kombineret med en obligatorisk forsikring for driften af visse AI-systemer, som foreslået af Europa-Parlamentet 38 . I overensstemmelse med proportionalitetsprincippet er det hensigtsmæssigt at vurdere et sådant behov i lyset af den relevante teknologiske og lovgivningsmæssige udvikling i de kommende år under hensyntagen til virkningen og indvirkningen på udrulningen og udbredelsen af AI-systemer, navnlig for SMV'er. En sådan gennemgang bør bl.a. tage hensyn til risici, der involverer skade på vigtige juridiske værdier som f.eks. liv, sundhed og ejendom for tredjeparter, der ikke er vidne til det, gennem driften af AI-baserede produkter eller tjenester. Denne revision bør også omfatte en analyse af effektiviteten af de foranstaltninger, der er fastsat i dette direktiv, med hensyn til at håndtere sådanne risici, samt af forsikringsmarkedets udvikling af passende løsninger. For at sikre tilgængeligheden af de oplysninger, der er nødvendige for at foretage en sådan gennemgang, er det nødvendigt at indsamle data og andet nødvendigt bevismateriale, der dækker de relevante spørgsmål.

(32)I betragtning af behovet for at foretage tilpasninger af de nationale civilretlige regler og procedureregler for at fremme udbredelsen af AI-baserede produkter og tjenester på gunstige vilkår på det indre marked, samfundsmæssig accept og forbrugernes tillid til AI-teknologi og retssystemet bør der fastsættes en frist på senest [to år efter ikrafttrædelsen] af dette direktiv for medlemsstaterne til at vedtage de nødvendige gennemførelsesforanstaltninger.

(33)I henhold til den fælles politiske erklæring af 28. september 2011 fra medlemsstaterne og Kommissionen om forklarende dokumenter 39 har medlemsstaterne forpligtet sig til i tilfælde, hvor det er berettiget, at lade meddelelsen af gennemførelsesforanstaltninger ledsage af et eller flere dokumenter, der forklarer forholdet mellem et direktivs bestanddele og de tilsvarende dele i de nationale gennemførelsesinstrumenter. I forbindelse med dette direktiv finder lovgiver, at fremsendelsen af sådanne dokumenter er berettiget —

VEDTAGET DETTE DIREKTIV:

Artikel 1

Genstand og anvendelsesområde

1.Dette direktiv fastsætter fælles regler for:

(a)fremlæggelse af dokumentation for højrisikosystemer med kunstig intelligens (AI) for at gøre det muligt for en sagsøger at underbygge et civilretligt erstatningskrav uden for kontraktforhold

(b)bevisbyrden i tilfælde af civilretlige erstatningskrav uden for kontraktforhold, der er baseret på culpa, og som indbringes for nationale domstole for skader forårsaget af et AI-system.

2.Dette direktiv finder anvendelse på civilretlige erstatningskrav uden for kontraktforhold i tilfælde, hvor den skade, der er forårsaget af et AI-system, indtræffer efter [udløbet af gennemførelsesperioden].

Dette direktiv finder ikke anvendelse på strafferetligt ansvar.

3.Dette direktiv berører ikke:

(a)EU-retlige regler om betingelserne for erstatningsansvar på transportområdet

(b)de rettigheder, som skadelidte kan have i henhold til de nationale regler til gennemførelse af direktiv 85/374/EØF

(c)ansvarsfritagelserne og due diligence-forpligtelserne som fastsat i [retsakten om digitale tjenester]

(d)nationale regler, der bestemmer, hvilken part der har bevisbyrden, hvilken grad af sikkerhed der kræves med hensyn til beviskravene, eller hvordan culpa defineres, bortset fra hvad der er fastsat i artikel 3 og 4.

4.Medlemsstaterne kan vedtage eller opretholde nationale regler, der er gunstigere for skadelidte til at underbygge et civilretligt erstatningskrav uden for kontrakt, hvor skaden er forårsaget af et AI-system, forudsat at sådanne regler er forenelige med EU-retten.

Artikel 2

Definitioner

I dette direktiv forstås ved:

(1)"AI-system": et AI-system som defineret i [artikel 3, stk. 1, i retsakten om kunstig intelligens]

(2)"højrisiko-AI-system": et AI-system som omhandlet i [artikel 6 i retsakten om kunstig intelligens]

(3)"udbyder": en udbyder som defineret i [artikel 3, stk. 2, i retsakten om kunstig intelligens]

(4)"bruger": en bruger som defineret i [artikel 3, stk. 4, i retsakten om kunstig intelligens]

(5)"erstatningskrav": et civilretligt krav uden for kontraktforhold om erstatning for den skade, der er forårsaget af et output fra et AI-system, eller et sådant systems manglende output, hvor et sådant output burde have været produceret

(6)"sagsøger": en person, der fremsætter et erstatningskrav, og som:

(a)er blevet skadet af et output fra et AI-system eller af et sådant systems manglende output, hvor et sådant output burde have været produceret

(b) er indtrådt i skadelidtes rettigheder i henhold til lov eller aftale eller

(c)handler på vegne af en eller flere skadelidte i overensstemmelse med EU-retten eller national ret.

7)    "potentiel sagsøger": en fysisk eller juridisk person, der overvejer, men endnu ikke har fremsat et erstatningskrav

8)    "sagsøgt": den person, mod hvem der rejses erstatningskrav

9)    "pligt til rettidig omhu": en krævet standard for adfærd, der er fastsat i national ret eller EU-retten, med henblik på at undgå at skade retlige interesser, der er anerkendt på nationalt plan eller EU-plan, herunder liv, fysisk integritet, ejendom og beskyttelse af grundlæggende rettigheder.

Artikel 3

Fremlæggelse af beviser og afkræftelig formodning om manglende overholdelse

 

1.Medlemsstaterne sikrer, at de nationale domstole har beføjelse til enten efter anmodning fra en potentiel sagsøger, der tidligere har anmodet en udbyder, en person, der er underlagt en udbyders forpligtelser i henhold til [artikel 24 eller artikel 28, stk. 1, i retsakten om kunstig intelligens], eller en bruger om at fremlægge relevant dokumentation, som denne råder over, om et specifikt højrisiko-AI-system, der mistænkes for at have forvoldt skade, men som er blevet afvist, eller en sagsøger, at kræve fremlæggelse af sådanne beviser fra disse personer.

Til støtte for denne anmodning skal den potentielle sagsøger fremlægge faktiske omstændigheder og beviser, der er tilstrækkelige til at underbygge troværdigheden af et erstatningskrav.

2.I forbindelse med et erstatningskrav kan den nationale ret kun kræve, at en af de personer, der er anført i stk. 1, fremlægger beviserne, hvis sagsøger har gjort alle forholdsmæssige forsøg på at indsamle de relevante beviser fra sagsøgte.

3.Medlemsstaterne sikrer, at de nationale retter efter anmodning fra en sagsøger har beføjelse til at træffe særlige foranstaltninger med henblik på at sikre det i stk. 1 omhandlede bevismateriale.

4.De nationale domstole skal begrænse fremlæggelsen af beviser til det, der er nødvendigt og forholdsmæssigt for at understøtte et potentielt krav eller et erstatningskrav, og til at sikre, at det er nødvendigt og forholdsmæssigt til støtte for et sådant erstatningskrav.

Ved afgørelsen af, om et påbud om fremlæggelse eller sikring af bevismateriale er forholdsmæssigt afpasset, tager de nationale domstole hensyn til alle parters, herunder berørte tredjeparters, legitime interesser, navnlig i forbindelse med beskyttelse af forretningshemmeligheder som omhandlet i artikel 2, stk. 1, i direktiv (EU) 2016/943 samt af fortrolige oplysninger såsom oplysninger vedrørende den offentlige eller nationale sikkerhed.

Medlemsstaterne sikrer, at de nationale domstole, når der træffes afgørelse om videregivelse af en forretningshemmelighed eller en påstået forretningshemmelighed, som retten har identificeret som fortrolig i henhold til artikel 9, stk. 1, i direktiv (EU) 2016/943, efter behørigt begrundet anmodning fra en part eller på eget initiativ har beføjelse til at træffe specifikke foranstaltninger, der er nødvendige for at beskytte fortroligheden, når disse beviser anvendes eller omtales i retssager.

Medlemsstaterne sikrer også, at den person, der er pålagt at fremlægge eller sikre de beviser, der er nævnt i stk. 1 eller 2, har passende proceduremæssige retsmidler som svar på sådanne påbud.

5.Hvis en sagsøgt ikke efterkommer en kendelse fra en national ret i forbindelse med et erstatningskrav om at fremlægge eller sikre beviser, som vedkommende råder over i henhold til stk. 1 eller 2, skal en national ret antage, at sagsøgte ikke har overholdt en relevant pligt til at udvise omhu, navnlig under de omstændigheder, der er omhandlet i artikel 4, stk. 2) eller 3), som de ønskede beviser havde til formål at bevise med henblik på det pågældende erstatningskrav.

Sagsøgte skal have ret til at afkræfte denne formodning.

Artikel 4

Afkræftelig formodning om årsagsforbindelse i tilfælde af fejl

1.Med forbehold af de krav, der er fastsat i denne artikel, antager de nationale retter med henblik på anvendelsen af ansvarsreglerne på et erstatningskrav årsagsforbindelsen mellem sagsøgtes fejl og det output, som AI-systemet genererer, eller AI-systemets manglende output, hvis alle følgende betingelser er opfyldt:

(a) sagsøger har godtgjort, eller retten i henhold til artikel 3, stk. 5, har lagt til grund, at sagsøgte eller en person, hvis adfærd sagsøgte er ansvarlig for, har begået en fejl i form af manglende overholdelse af en pligt til at udvise omhu, der er fastsat i EU-retten eller national ret, og som direkte har til formål at beskytte mod den skade, der er indtrådt

(b)det på grundlag af sagens omstændigheder kan anses for rimeligt sandsynligt, at fejlen har påvirket det output, som AI-systemet genererer, eller AI-systemets manglende output

(c)sagsøgeren har godtgjort, at det output, der produceres af AI-systemet, eller AI-systemets manglende output har givet anledning til skaden.

2.I tilfælde af et erstatningskrav mod en udbyder af et højrisiko-AI-system, der er omfattet af kravene i kapitel 2 og 3 i afsnit III i [retsakten om kunstig intelligens], eller en person, der er underlagt en udbyders forpligtelser i henhold til [artikel 24 eller artikel 28, stk. 1, i retsakten om kunstig intelligens], er betingelsen i stk. 1, litra a), kun opfyldt, hvis klageren har påvist, at udbyderen eller, hvor det er relevant, den person, der er underlagt en udbyders forpligtelser, ikke har opfyldt et af følgende krav i disse kapitler under hensyntagen til de skridt, der er taget i og resultaterne af risikostyringssystemet i henhold til [artikel 9 og artikel 16, litra a), i retsakten om kunstig intelligens]:

(a) AI-systemet er et system, der gør brug af teknikker, der omfatter træning af modeller med data, og som ikke er udviklet på grundlag af trænings-, validerings- og prøvningsdatasæt, der opfylder de kvalitetskriterier, der er omhandlet i [artikel 10, stk. 2 til 4, i retsakten om kunstig intelligens]

(b) AI-systemet ikke er udformet og udviklet på en måde, der opfylder gennemsigtighedskravene i [artikel 13 i retsakten om kunstig intelligens]

(c)AI-systemet ikke er udformet og udviklet på en måde, der gør det muligt for fysiske personer at føre effektivt tilsyn i den periode, hvor AI-systemet er i brug i henhold til [artikel 14 i retsakten om kunstig intelligens]

(d)AI-systemet ikke er udformet og udviklet med henblik på i lyset af dets tilsigtede formål at opnå et passende niveau af nøjagtighed, robusthed og cybersikkerhed i henhold til [artikel 15 og artikel 16, litra a), i retsakten om kunstig intelligens] eller

(e)de nødvendige korrigerende foranstaltninger ikke straks blev truffet for at bringe AI-systemet i overensstemmelse med forpligtelserne i [afsnit III, kapitel 2, i retsakten om kunstig intelligens] eller for at trække systemet tilbage eller tilbagekalde det, alt efter hvad der er relevant, i henhold til [artikel 16, litra g), og artikel 21 i retsakten om kunstig intelligens].

3.I tilfælde af erstatningskrav mod en bruger af et højrisiko-AI-system, der er omfattet af kravene i kapitel 2 og 3 i afsnit III i [retsakten om kunstig intelligens], skal betingelsen i stk. 1, litra a), være opfyldt, hvis klageren godtgør, at brugeren:

(a)ikke har opfyldt sine forpligtelser til at anvende eller overvåge AI-systemet i overensstemmelse med de ledsagende brugsanvisninger eller, hvor det er relevant, suspendere eller afbryde dets anvendelse i henhold til [artikel 29 i retsakten om kunstig intelligens] eller

(b)har udsat AI-systemet for inputdata under sin kontrol, som ikke er relevante i forhold til systemets formål i henhold til [lovens artikel 29, stk. 3].

4.I tilfælde af erstatningskrav vedrørende et højrisiko-AI-system anvender en national domstol ikke formodningen i stk. 1, hvis sagsøgte påviser, at der er tilstrækkelig dokumentation og ekspertise til rådighed for sagsøger til at bevise den i stk. 1 omhandlede årsagssammenhæng.

5.I tilfælde af et erstatningskrav vedrørende et AI-system, der ikke er et højrisiko-AI-system, finder formodningen i stk. 1 kun anvendelse, hvis den nationale ret finder det uforholdsmæssigt vanskeligt for sagsøger at bevise den årsagssammenhæng, der er nævnt i stk. 1.

6.I tilfælde af et erstatningskrav mod en sagsøgt, der har anvendt AI-systemet i forbindelse med en personlig, ikke-erhvervsmæssig aktivitet, finder formodningen i stk. 1 kun anvendelse, hvis sagsøgte væsentligt har grebet ind i betingelserne for AI-systemets drift, eller hvis sagsøgte var forpligtet til og i stand til at fastlægge betingelserne for AI-systemets drift og undlod at gøre dette.

7.Sagsøgte har ret til at afkræfte formodningen i stk. 1.

Artikel 5

Evaluering og målrettet revision

1.Senest den [DATO fem år efter udløbet af gennemførelsesperioden] tager Kommissionen anvendelsen af dette direktiv op til revision og forelægger en rapport for Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg, eventuelt ledsaget af et lovgivningsforslag.

2.I rapporten undersøges virkningerne af artikel 3 og 4 med hensyn til at nå de mål, der forfølges med dette direktiv. Den bør navnlig evaluere hensigtsmæssigheden af regler om objektivt ansvar for krav mod operatører af visse AI-systemer, så længe de ikke allerede er omfattet af andre EU-ansvarsregler, og behovet for forsikringsdækning, samtidig med at der tages hensyn til virkningen og indvirkningen på udrulningen og udbredelsen af AI-systemer, navnlig for SMV'er.

3.Kommissionen udarbejder et overvågningsprogram med henblik på udarbejdelse af rapporten i henhold til stk. 1 og 2 med angivelse af, hvordan og med hvilke intervaller dataene og anden nødvendig dokumentation vil blive indsamlet. Programmet skal præcisere, hvilke foranstaltninger Kommissionen og medlemsstaternes skal træffe med hensyn til indsamling og analyse af dataene og den øvrige dokumentation. Med henblik på dette program meddeler medlemsstaterne Kommissionen de relevante data og dokumentation senest den [31. december i det andet hele år efter udløbet af gennemførelsesperioden] og inden udgangen af hvert efterfølgende år.

Artikel 6

Ændring af direktiv (EU) 2020/1828

I bilag I til forordning (EU) 2020/1828 40 indsættes følgende som punkt 67:

"(67) Europa-Parlamentets og Rådets direktiv (EU) .../... af... om tilpasning af regler om civilretligt ansvar uden for kontraktforhold for kunstig intelligens (AI-ansvarsdirektivet) (EUT L ... af ..., s ...).".

Artikel 7

Gennemførelse

1.Medlemsstaterne sætter de nødvendige love og administrative bestemmelser i kraft for at efterkomme dette direktiv senest den [to år efter ikrafttrædelsen]. De meddeler straks Kommissionen teksten til disse love og bestemmelser.

Lovene og bestemmelserne skal ved vedtagelsen indeholde en henvisning til dette direktiv eller skal ved offentliggørelsen ledsages af en sådan henvisning. De nærmere regler for henvisningen fastsættes af medlemsstaterne.

2.Medlemsstaterne meddeler Kommissionen teksten til de vigtigste nationale retsforskrifter, som de udsteder på det område, der er omfattet af dette direktiv.

Artikel 8

Ikrafttræden

Dette direktiv træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende. 

Artikel 9

Adressater

Dette direktiv er rettet til medlemsstaterne.

Udfærdiget i Bruxelles, den […].

På Europa-Parlamentets vegne    På Rådets vegne

Formand    Formand 

(1)    Europæisk virksomhedsundersøgelse om anvendelsen af teknologier baseret på kunstig intelligens, Ipsos 2020, endelig rapport, s. 58
(
https://op.europa.eu/da/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_da.pdf .
(3)    Hvidbog om kunstig intelligens — en europæisk tilgang til ekspertise og tillid, 19.2.2020, COM(2020) 65 final.
(4)    Rapport fra Kommissionen til Europa-Parlamentet, Rådet og Det Økonomiske og Sociale Udvalg de konsekvenser, som kunstig intelligens, tingenes internet og robotteknologi vil have for sikkerhed og erstatningsansvar, 19.2.2020, COM (2020) 64 final.
(5)    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en civilretlig erstatningsansvarsordning for kunstig intelligens (2020/2014(INL)).
(6)    Europa-Parlamentets beslutning af 3. maj 2022 om kunstig intelligens i en digital tidsalder (2020/2266 (INI)).
(7)    Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) (COM (2021 206 final).
(8)    Kun et lille antal tilfælde af anvendelse af kunstig intelligens er udtrykkeligt forbudt i henhold til retsakten om kunstig intelligens.
(9)    Kommissionen SWD(2021) 84 final, konsekvensanalyse, der ledsager retsakten om kunstig intelligens, s. 88.
(10)    Forslag til Europa-Parlamentets og Rådets forordning om produktsikkerhed i almindelighed (COM/2021/346 final).
(11)    Forslag til Europa-Parlamentets og Rådets forordning om maskinprodukter (COM(2021) 202 final).
(12)    Kommissionens delegerede forordning (EU) 2022/30 om supplerende regler til Europa-Parlamentets og Rådets direktiv 2014/53/EU for så vidt angår anvendelsen af de væsentlige krav, der er omhandlet i artikel 3, stk. 3, litra d), e) og f), i nævnte direktiv (EUT L 7 af 12.1.2022, s. 6).
(13)    Meddelelse fra Kommissionen, Europas digitale fremtid i støbeskeen, COM(2020) 67 final.
(14)    Forslag til Europa-Parlamentets og Rådets forordning om horisontale cybersikkerhedskrav for produkter med digitale elementer — COM (2022) 454 final.
(15)    Kommissionens meddelelse om en europæisk strategi for data, COM(2020) 66 final.
(16)    Meddelelse fra Kommissionen til Europa-Parlamentet, Det Europæiske Råd, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Den europæiske grønne pagt (COM/2019/640 final).
(17)    Deloitte, Undersøgelse til støtte for Kommissionens konsekvensanalyse vedrørende ansvar for kunstig intelligens, 2021 ("økonomisk undersøgelse").
(18)    Den Tjekkiske Republiks nationale strategi for kunstig intelligens, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf , AI Watch, "National strategies on Artificial Intelligence — A European perspective", 2021-udgaven — en rapport fra JRC-OECD: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , s. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf .
(20)    Deloitte, Undersøgelse til støtte for Kommissionens konsekvensanalyse vedrørende ansvar for kunstig intelligens, 2021, s. 96.
(21)    Se Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019-2027 (Politik for udvikling af kunstig intelligens i Polen for 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102-3.
(22)    AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf , AI Watch, op. cit., s. 113.
(23)    Primært objektivt ansvar, omvendt bevisbyrde eller lempelse af bevisbyrden i form af uafbeviselige eller afbeviselige formodninger.
(24)    Findes på https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_da .
(25)    Liability for artificial intelligence and other emerging digital technologies, November 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en .
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence, 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services, endelig rapport 2021.
(28)    Deloitte, Undersøgelse til støtte for Kommissionens konsekvensanalyse vedrørende ansvar for kunstig intelligens, 2021.
(29)    EUT C […] af […], s. […].
(30)    EUT C […] af […], s. […].
(31)    [Forslag til forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) (COM(2021) 206 final].
(32)    [Forslag til EUROPA-PARLAMENTETS OG RÅDETS FORORDNING om produktsikkerhed i almindelighed (COM/2021/346 final)].
(33)    [Forslag til Europa-Parlamentets og Rådets forordning om maskinprodukter (COM(2021) 202 final].
(34)    Kommissionens delegerede forordning (EU) 2022/30 om supplerende regler til Europa-Parlamentets og Rådets direktiv 2014/53/EU for så vidt angår anvendelsen af de væsentlige krav, der er omhandlet i artikel 3, stk. 3, litra d), e) og f), i nævnte direktiv (EUT L 7 af 12.1.2022, s. 6).
(35)    Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
(36)    [Forslag til Europa-Parlamentets og Rådets forordning om et indre marked for digitale tjenester (retsakten om digitale tjenester) — COM (2020) 825 final].
(37)    Europa-Parlamentets og Rådets direktiv (EU) 2016/943 af 8. juni 2016 om beskyttelse af fortrolig knowhow og fortrolige forretningsoplysninger (forretningshemmeligheder) mod ulovlig erhvervelse, brug og videregivelse (EUT L 157 af 15.6.2016, s. 1).
(38)    Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en civilretlig ansvarsordning for kunstig intelligens (2020/2014 (INL)) (EUT C 404 af 6.10.2021, s. 107).
(39)    EUT C 369 af 17.12.2011, s. 14.
(40)    Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 af 25. november 2020 om adgang til anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF (EUT L 409 af 4.12.2020, s. 1).
Top