6.10.2021 |
DA |
Den Europæiske Unions Tidende |
C 404/107 |
P9_TA(2020)0276
Civilretlig erstatningsansvarsordning for kunstig intelligens
Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en civilretlig erstatningsansvarsordning for kunstig intelligens (2020/2014(INL))
(2021/C 404/05)
Europa-Parlamentet,
— |
der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde, |
— |
der henviser til artikel 114 og 169 i traktaten om Den Europæiske Unions funktionsmåde, |
— |
der henviser til Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (1) (direktiv om produktansvar), |
— |
der henviser til Europa-Parlamentets og Rådets direktiv 2005/29/EF af 11. maj 2005 om virksomheders urimelige handelspraksis over for forbrugerne på det indre marked (»direktivet om urimelig handelspraksis«) (2) og Europa-Parlamentets og Rådets direktiv 2011/83/EU af 25. oktober 2011 om forbrugerrettigheder (3) samt andre regler om forbrugerbeskyttelse, |
— |
der henviser til Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr (4), |
— |
der henviser til Rådets forordning (EU) 2018/1488 af 28. september 2018 om oprettelse af et europæisk fællesforetagende for højtydende databehandling (5), |
— |
der henviser til Europa-Parlamentets og Rådets direktiv (EU) 2019/770 af 20. maj 2019 om visse aspekter af aftaler om levering af digitalt indhold og digitale tjenester (6), |
— |
der henviser til den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning og retningslinjerne for bedre regulering (7), |
— |
der henviser til forslag til Europa-Parlamentets og Rådets forordning af 6. juni 2018 om programmet for et digitalt Europa for perioden 2021-2027 (COM(2018)0434), |
— |
der henviser til Kommissionens meddelelse af 25. april 2018 om kunstig intelligens for Europa (COM(2018)0237), |
— |
der henviser til Kommissionens meddelelse af 7. december 2018 om en koordineret plan for kunstig intelligens (COM(2018)0795), |
— |
der henviser til Kommissionens meddelelse af 8. april 2019 om opbygning af tillid til menneskecentreret kunstig intelligens (COM(2019)0168), |
— |
der henviser til Kommissionens rapport af 19. februar 2020 til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg om de konsekvenser, som kunstig intelligens, tingenes internet og robotteknologi vil have for sikkerhed og erstatningsansvar (COM(2020)0064), |
— |
der henviser til Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens — en europæisk tilgang til ekspertise og tillid (COM(2020)0065), |
— |
der henviser til sin beslutning af 16. februar 2017 med henstillinger til Kommissionen om civilretlige bestemmelser om robotteknologi (8), |
— |
der henviser til sin beslutning af 1. juni 2017 om digitalisering af den europæiske industri (9), |
— |
der henviser til sin beslutning af 12. september 2018 om autonome våbensystemer (10), |
— |
der henviser til sin beslutning af 12. februar 2019 om en omfattende europæisk industripolitik om kunstig intelligens og robotteknologi (11), |
— |
der henviser til sin beslutning af 12. februar 2020 om automatiserede beslutningsprocesser: sikring af forbrugerbeskyttelse og fri bevægelighed for varer og tjenesteydelser (12), |
— |
der henviser til rapporten af 8. april 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen »Ethics Guidelines for Trustworthy AI« (Etiske retningslinjer for pålidelig kunstig intelligens), |
— |
der henviser til rapport af 8. april 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen »A definition of AI: Main Capabilities and Disciplines« (En definition af kunstig intelligens: De vigtigste kapaciteter og discipliner), |
— |
der henviser til rapport af 26. juni 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen »Policy and investment recommendations for trustworthy AI« (Politiske og investeringsmæssige anbefalinger vedrørende pålidelig kunstig intelligens), |
— |
der henviser til rapport af 21. november 2019 fra ekspertgruppen vedrørende ansvar og nye teknologier — konstellationen for nye teknologier med titlen »Liability for Artificial Intelligence and other emerging digital technologies« (Ansvar for kunstig intelligens og andre nye digitale teknologier), |
— |
der henviser til den europæiske undersøgelse af merværdivurderingen foretaget af Den Europæiske Parlamentariske Forskningstjeneste med titlen '' Civilansvarsordning for kunstig intelligens: europæisk merværdi (13), |
— |
der henviser til politikbriefing fra Europa-Parlamentets Forskningstjenestes Enhed for Videnskabeligt Fremsyn (STOA) fra juni 2016 om retlige og etiske overvejelser vedrørende robotteknologi (14), |
— |
der henviser til Europa-Parlamentets Generaldirektorat for Interne Politikkers studie fra oktober 2016 på vegne af Retsudvalget med titlen »European Civil Law Rules in Robotics« (15) (Europæiske civilretlige bestemmelser vedrørende robotteknologi), |
— |
der henviser til forretningsordenens artikel 47 og 54, |
— |
der henviser til udtalelser fra Udvalget om det Indre Marked og Forbrugerbeskyttelse og fra Transport- og Turismeudvalget, |
— |
der henviser til betænkning fra Retsudvalget (A9-0178/2020), |
A. |
der henviser til, at begrebet »erstatningsansvar« spiller en vigtig dobbeltrolle i vores dagligdag: på den ene side sikrer det, at en person, der har lidt skade, har ret til at søge og modtage erstatning fra den part, der bevisligt er erstatningsansvarlig for den pågældende skade, og på den anden side giver det fysiske og juridiske personer det økonomiske incitament til at undgå at forvolde skade i det hele taget eller tage højde for risikoen for at skulle yde erstatning i deres handlemåde; |
B. |
der henviser til, at enhver fremtidsorienteret ramme for civilretligt erstatningsansvar skal indgyde tillid til produkters og tjenesteydelsers, herunder den digitale teknologis, sikkerhed, pålidelighed og overensstemmelse for at ramme den rette balance mellem effektivt og rimeligt at beskytte potentielle skadelidte og samtidig give tilpas meget spillerum til at gøre det muligt for virksomheder, og navnlig små og mellemstore virksomheder, at udvikle nye teknologier, produkter eller tjenester; der henviser til, at dette vil bidrage til at opbygge tillid og skabe stabilitet for investeringer; der henviser til, at det ultimative mål for enhver ramme for erstatningsansvar bør være at skabe retssikkerhed for alle parter, det være sig producenten, operatøren, den berørte person eller en hvilken som helst tredjepart; |
C. |
der henviser til, at en medlemsstats retssystem kan tilpasse sine regler om erstatningsansvar for visse aktører eller skærpe dem for bestemte aktiviteter; der henviser til, at objektivt ansvar betyder, at en part kan gøres erstatningsansvarlig, selv om der ikke foreligger culpa; der henviser til, at den sagsøgte i mange nationale erstatningslove tillægges objektivt erstatningsansvar, hvis en risiko, som den pågældende sagsøgte har skabt for offentligheden, f.eks. i form af biler eller farlige aktiviteter, eller en risiko, som vedkommende ikke kan kontrollere, f.eks. dyr, fører til, at der sker skade; |
D. |
der henviser til, at der forud for al fremtidig EU-lovgivning, der har en udtrykkelig fordeling af ansvar i forbindelse med systemer for kunstig intelligens (AI) som mål, bør foretages en analyse og høring af medlemsstaterne vedrørende den foreslåede retsakts forenelighed med de økonomiske, juridiske og sociale forhold; |
E. |
der henviser til, at spørgsmålet om en civilretlig erstatningsansvarsordning for AI bør være genstand for en bred offentlig debat, der tager alle involverede interesser i betragtning, navnlig de etiske, juridiske, økonomiske og sociale aspekter, for at undgå misforståelser og uberettiget frygt, som denne slags teknologi kan give anledning til blandt borgerne; der henviser til, at en grundig undersøgelse af konsekvenserne af enhver ny lovgivningsramme for alle aktører i en konsekvensanalyse bør være en forudsætning for yderlige lovgivningsmæssige skridt; |
F. |
der henviser til, at begrebet AI-systemer omfatter en stor gruppe af forskellige teknologier, herunder simpel statistik, maskinlæring og dyb læring; |
G. |
der henviser til, at anvendelsen af udtrykket »automatiseret beslutningstagning« kan forhindre den eventuelle tvetydighed i termen kunstig intelligens; der henviser til, at »automatiseret beslutningstagning« betyder, at en bruger fra starten, helt eller delvist, delegerer en beslutning til en enhed ved brug af software eller en tjeneste; der henviser til, at denne enhed derefter anvender automatisk effektuerede beslutningsmodeller til at udføre en handling på vegne af en bruger eller til at informere brugerens beslutninger i forbindelse med udførelsen af handlingen; |
H. |
der henviser til, at visse AI-systemer rummer betydelige juridiske udfordringer for den eksisterende ramme for erstatningsansvar og vil kunne føre til situationer, hvor deres uigennemsigtighed kan gøre det voldsomt dyrt eller endog umuligt at afgøre, hvem der havde kontrol over den risiko, som var forbundet med AI-systemet, eller hvilken kode, hvilket input eller hvilke data der i sidste ende har forårsaget den skadevoldende driftshændelse; der henviser til, at denne faktor kan gøre det vanskeligere at fastslå sammenhængen mellem skaden og den adfærd, der forvolder den, med den konsekvens, at ofre muligvis ikke modtager passende erstatning; |
I. |
der henviser til, at de juridiske udfordringer også hidrører fra konnektiviteten mellem et AI-system og andre AI-systemer og ikke-AI-systemer, deres afhængighed af eksterne data, deres sårbarhed over for brud på cybersikkerheden samt fra udformningen af stadig mere autonome AI-systemer, som bl.a. anvender maskinindlæring og dyb læring; |
J. |
der henviser til, at forsvarlige etiske standarder for AI-systemer kombineret med solide og rimelige erstatningsprocedurer kan bidrage til at håndtere disse juridiske udfordringer og fjerne risikoen for, at brugerne er mindre villige til at acceptere ny teknologi; der henviser til, at rimelige erstatningsprocedurer betyder, at alle, der lider skade som følge af AI-systemer, eller som påføres materiel skade af AI-systemer, bør nyde samme beskyttelsesniveau som i sager, hvor der ikke er et AI-system involveret; der henviser til, at brugerne har brug for sikkerhed for, at potentielle skader, der forårsages af systemer, der anvender AI, dækkes af tilstrækkelig forsikring, og at der er en defineret juridisk vej til erstatning; |
K. |
der henviser til, at retssikkerhed også er en afgørende forudsætning for en dynamisk udvikling og innovation inden for AI-baseret teknologi, navnlig for nystartede virksomheder, mikrovirksomheder og små og mellemstore virksomheder, og den praktiske anvendelse heraf i dagligdagen; der henviser til, at nystartede virksomheders, mikrovirksomheders og små og mellemstore virksomheders meget vigtige rolle, navnlig i den europæiske økonomi, berettiger en strengt forholdsmæssig tilgang, som gør det muligt for dem at udvikle sig og innovere; |
L. |
der henviser til, at mangfoldigheden af AI-systemer og de mange forskellige risici, som teknologien medfører, vanskeliggør bestræbelserne på at finde én enkelt løsning, der egner sig til hele risikospektret; der i denne forbindelse henviser til, at der skal vedtages en fremgangsmåde, hvor eksperimenter, pilotforsøg og reguleringsmæssige sandkasser anvendes til at finde frem til forholdsmæssige og evidensbaserede løsninger, der adresserer specifikke situationer og sektorer efter behov; |
Indledning
1. |
mener, at udfordringen i forbindelse med indførelsen af AI-systemer i samfundet, på arbejdspladserne og i økonomien er et af de vigtigste emner på den aktuelle politiske dagsorden; der henviser til, at teknologier baseret på AI kan og bør tilstræbe at forbedre vores liv på næsten alle områder, lige fra den personlige sfære, f.eks. transportsektoren, individuelt tilpasset uddannelse, hjælp til sårbare personer, fitnessprogrammer og kreditgivning, til arbejdsmiljøet, f.eks. aflastning fra ensformige og repetitive opgaver, og til globale udfordringer som klimaforandringer, sundhed, ernæring og logistik; |
2. |
er af den faste overbevisning, at ensartet, principbaseret og fremtidssikret lovgivning i hele Unionen om alle AI-systemer er af afgørende betydning for at kunne at udnytte fordelene effektivt og forhindre potentielt misbrug af AI-systemer og undgå uensartet lovgivning i Unionen; er af den opfattelse, at selv om sektorspecifikke bestemmelser for den brede vifte af mulige anvendelser er at foretrække, forekommer en horisontal og harmoniseret lovgivningsmæssig ramme baseret på fælles principper at være nødvendig for at sikre retssikkerhed, fastsætte ensartede standarder i hele Unionen og effektivt at beskytte vore europæiske værdier og borgerlige rettigheder; |
3. |
anfører, at en fuldstændig harmonisering af det digitale indre marked er nødvendig, da den digitale sfære er kendetegnet ved hurtige grænseoverskridende dynamikker og internationale datastrømme; mener, at Unionen kun vil kunne nå målene om at fastholde sin digitale suverænitet og sætte gang i digital innovation i Europa med konsekvente og fælles regler, som er i overensstemmelse med en innovationskultur; |
4. |
bemærker, at det globale AI-kapløb allerede er i gang, og at Unionen bør spille en ledende rolle i det ved at udnytte sit videnskabelige og teknologiske potentiale; understreger kraftigt, at teknologiudvikling ikke må underminere beskyttelsen af brugerne mod skader, der kan forårsages af enheder og systemer, der anvender AI; tilskynder til, at Unionens standarder for civilretligt erstatningsansvar fremmes på internationalt plan; |
5. |
er af den faste overbevisning, at de nye fælles regler for AI-systemer kun bør udformes som en forordning; mener, at spørgsmålet om erstatningsansvar i tilfælde, hvor skader forårsages af et AI-system, er et af de vigtigste aspekter, som der skal tages stilling til inden for denne ramme; |
Erstatningsansvar og kunstig intelligens
6. |
mener, at der ikke er behov for en fuldstændig revision af de velfungerende erstatningsansvarsordninger, men at AI-systemers kompleksitet, konnektivitet, uigennemsigtighed, sårbarhed, evne til at blive ændret gennem opdateringer, evne til selvlæring og potentielle autonomi såvel som den mangfoldighed af aktører, der er involveret, ikke desto mindre udgør en væsentlig udfordring for effektiviteten af Unionens og medlemsstaternes egne rammebestemmelser om erstatningsansvar; mener, at der er behov for specifikke og koordinerede tilpasninger af erstatningsansvarsordningerne for at undgå en situation, hvor personer, der lider skade, eller hvis ejendom beskadiges, ikke får nogen erstatning; |
7. |
bemærker, at alle fysiske eller virtuelle aktiviteter, enheder eller processer, der drives af AI-systemer, teknisk set kan være den direkte eller indirekte årsag til skade, men alligevel næsten altid er resultatet af, at nogen bygger, udbreder eller foretager indgreb i systemerne; bemærker i denne forbindelse, at det ikke er nødvendigt at tildele AI-systemer status som juridisk person; er af den opfattelse, at AI-systemers uigennemsigtighed, konnektivitet og autonomi i praksis kan gøre det meget vanskeligt eller endog umuligt at spore AI-systemers specifikke skadelige handlinger tilbage til specifikke menneskelige input eller til designmæssige beslutninger; minder om, at det i overensstemmelse med almindeligt anerkendte begreber vedrørende erstatningsansvar ikke desto mindre er muligt at omgå denne hindring ved at holde de forskellige personer i hele værdikæden, der skaber, opretholder eller kontrollerer den risiko, der er forbundet med AI-systemet, erstatningsansvarlige; |
8. |
mener, at produktansvarsdirektivet i over 30 år har vist sig at være et effektivt middel til at opnå erstatning for skader som følge af et defekt produkt, men at det ikke desto mindre bør revideres med henblik på at tilpasse det til den digitale verden og tackle de udfordringer, som de nye digitale teknologier medfører, og dermed sikre en høj grad af effektiv forbrugerbeskyttelse samt retssikkerhed for forbrugere og virksomheder, samtidig med at store omkostninger og risici for SMV'er og nystartede virksomheder undgås; opfordrer indtrængende Kommissionen til at foretage en vurdering af, om produktansvarsdirektivet bør laves om til en forordning, præcisere definitionen af »produkter« ved at afgøre, om digitalt indhold og digitale tjenester falder ind under dets anvendelsesområde, og overveje at tilpasse begreber som »skade«, »defekt« og »producent«; er af den opfattelse, at begrebet »producent« af hensyn til retssikkerheden i hele Unionen efter gennemgangen af produktansvarsdirektivet bør omfatte producenter, udviklere, programmører, tjenesteydere samt »backend-operatører«; opfordrer Kommissionen til at overveje at vende om på reglerne om bevisbyrden for skader forvoldt af nye digitale teknologier i klart definerede tilfælde og efter en grundig vurdering; påpeger, at det er vigtigt at sikre, at den ajourføte EU-retsakt fortsat begrænses til klart identificerede problemer, som der allerede findes gennemførlige løsninger på, og at den samtidig gør det muligt at dække fremtidig teknologisk udvikling, herunder udvikling baseret på gratis og open source software; bemærker, at produktansvarsdirektivet fortsat bør anvendes i forbindelse med civilretlige erstatningskrav mod producenten af et defekt AI-system, når AI-systemet kan klassificeres som et produkt, der er omfattet heraf; understreger, at enhver ajourføring af produktansvarsrammen bør gå hånd i hånd med ajourføringen af Europa-Parlamentets og Rådets direktiv 2001/95/EF af 3. december 2001 om produktsikkerhed i almindelighed (16) for at sikre, at AI-systemer integrerer principperne om indbygget sikkerhed; |
9. |
mener, at medlemsstaternes gældende lovgivning baseret på culpaansvar i de fleste tilfælde giver et tilstrækkeligt beskyttelsesniveau for personer, der lider skade som følge af indgreb fra en tredjepart såsom en hacker, eller for personer, på hvis ejendom en sådan tredjepart forvolder skade, idet indgrebet i reglen udgør en culpabaseret handling; bemærker, at det kun i særlige tilfælde, herunder når tredjeparten ikke kan findes eller er uden midler, synes nødvendigt at tilføje regler om erstatningsansvar som supplement til gældende national erstatningsret; |
10. |
anser det derfor for hensigtsmæssigt, at denne betænkning fokuserer på civilretlige erstatningskrav mod operatøren af et AI-system; bekræfter, at operatørens erstatningsansvar retfærdiggøres af det forhold, at vedkommende kontrollerer en risiko, der er forbundet med AI-systemet, hvilket kan sammenlignes med ejeren af en bil; mener, at det på grund af AI-systemets kompleksitet og konnektivitet i mange tilfælde vil være operatøren, som er det første synlige kontaktpunkt for den berørte person; |
Operatørens erstatningsansvar
11. |
mener, at bestemmelser om erstatningsansvar, der involverer operatøren, bør dække alle AI-systemdriftshandlinger, uanset hvor de finder sted, og om de er fysiske eller virtuelle; bemærker, at handlinger i offentlige rum, der udsætter mange personer for risiko, imidlertid udgør tilfælde, som kræver yderligere overvejelse; mener, at de potentielle ofre for skader ofte ikke er opmærksomme på handlingen og i reglen ikke kan gøre erstatningskrav gældende over for operatøren i henhold til en kontrakt; bemærker, at sådanne personer, når skader indtræffer, i så fald kun vil have et erstatningskrav baseret på culpaansvar og kan få vanskeligt ved at bevise culpa hos operatøren, og at sådanne ansvarskrav dermed slår fejl; |
12. |
anser det for hensigtsmæssigt at forstå, at »operatøren« dækker både frontend- og backend-operatøren, så længe sidstnævnte ikke er omfattet af produktansvarsdirektivet; bemærker, at frontend-operatøren bør defineres som den fysiske eller juridiske person, der udøver en grad af kontrol over en risiko i forbindelse med AI-systemets drift og funktion og drager fordel af driften af det; anfører, at backend-operatøren bør defineres som den fysiske eller juridiske person, der løbende definerer de elementer, der indgår i teknologien, leverer data og væsentlige backend-støttetjenester og derfor også udøver en vis kontrol over den risiko, der er forbundet med AI-systemets drift og funktion; mener, at »at udøve kontrol« betyder enhver handling fra operatørens side, der påvirker driften af AI-systemet og dermed det omfang, hvori det udsætter tredjeparter for dets potentielle risici; mener, at sådanne handlinger kan påvirke driften af et AI-system fra start til slut ved at bestemme input, output eller resultater eller kan ændre specifikke funktioner eller processer i AI-systemet; |
13. |
bemærker, at der kan være situationer, hvor der er mere end én operatør, f.eks. en backend- og en frontend-operatør; mener, at alle operatører i så tilfælde bør hæfte solidarisk og samtidig have ret til at gøre forholdsmæssig regres mod hinanden; er af den opfattelse, at andelene af ansvaret bør bestemmes af de respektive grader af kontrol, som operatørerne havde over den risiko, der er forbundet med AI-systemets drift og funktion; mener, at produktsporbarheden bør forbedres for at gøre det lettere at identificere dem, der er involveret i de forskellige faser; |
Forskellige regler om erstatningsansvar for forskellige risici
14. |
anerkender, at det er en afgørende faktor med hensyn til erstatningsansvaret, hvilken type AI-system operatøren udøver kontrol over; bemærker, at et AI-system, der indebærer en høj iboende risiko og arbejder autonomt, potentielt i langt højere grad bringer offentligheden i fare; mener, at det i lyset af de juridiske udfordringer, som AI-systemer udgør i forhold til de gældende civilretlige erstatningsansvarsordninger, forekommer rimeligt at indføre en fælles ordning med objektivt erstatningsansvar for disse autonome højrisiko-AI-systemer; understreger, at en sådan risikobaseret tilgang, der kan omfatte flere risikoniveauer, bør være baseret på klare kriterier og en passende definition af høj risiko og skabe retssikkerhed; |
15. |
er af den opfattelse, at et AI-system udgør en høj risiko, hvis dets autonome drift indebærer et betydeligt potentiale for at forvolde skade på én eller flere personer på en tilfældig måde, som går ud over det, man med rimelighed kan forvente; mener, at der ved afgørelsen af, om et AI-system er et højrisikosystem, også bør tages hensyn til den sektor, hvor der kan forventes at opstå høj risiko, og arten af de gennemførte aktiviteter; mener, at potentialets størrelse afhænger af forholdet mellem alvorsgraden af den skade, der kan forvoldes, sandsynligheden for, at der rent faktisk sker skade, og den måde, hvorpå AI-systemet anvendes; |
16. |
anbefaler, at alle højrisiko-AI-systemer opføres udtømmende i et bilag til den foreslåede forordning; anerkender, at Kommissionen i betragtning af den hurtige teknologiske udvikling og den nødvendige tekniske ekspertise bør revidere dette bilag uden unødig forsinkelse, men som minimum hver sjette måned, og om nødvendigt ændre det ved en delegeret retsakt; mener, at Kommissionen bør arbejde tæt sammen med et nyoprettet stående udvalg svarende til det eksisterende Stående Udvalg vedrørende Udgangsstoffer eller Det Tekniske Udvalg for Motorkøretøjer, som omfatter nationale eksperter fra medlemsstaterne og interessenter; mener, at en afbalanceret sammensætning af medlemmerne af »Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens« vil kunne tjene som eksempel for dannelsen af gruppen af interessenter med deltagelse af eksperter i etik og antropologer, sociologer og specialister i mental sundhed; er også af den opfattelse, at Europa-Parlamentet bør udpege rådgivende eksperter til at rådgive det nyoprettede stående udvalg; |
17. |
bemærker, at udviklingen af teknologier, der er baseret på AI, er ekstremt dynamisk og konstant accelererer; understreger, at der for at sikre tilstrækkelig beskyttelse af brugerne er behov for en fast track-tilgang til analyse af nye enheder og systemer, der anvender AI-systemer, som lanceres på det europæiske marked, i forhold til potentielle risici; anbefaler, at alle procedurer i denne henseende forenkles mest muligt; foreslår endvidere, at Kommissionens vurdering af, om et AI-system indebærer en høj risiko, bør begynde samtidig med produktsikkerhedsvurderingen, således at man undgår en situation, hvor et højrisiko-AI-system allerede er godkendt til markedet, men endnu ikke er klassificeret som værende af høj risiko og dermed fungerer uden obligatorisk forsikringsdækning; |
18. |
bemærker, at Kommissionen bør vurdere, hvordan de data, der indsamles, registreres eller lagres i højrisiko-AI-systemer med henblik på at samle bevismateriale i tilfælde af skader forvoldt af AI-systemet, kan tilgås og anvendes af den undersøgende myndighed, og hvordan sporbarheden og muligheden for revision af sådanne data kan forbedres, samtidig med at der tages hensyn til de grundlæggende rettigheder og retten til privatlivets fred; |
19. |
anfører, at den foreslåede forordning i overensstemmelse med medlemsstaternes ordninger med objektivt erstatningsansvar bør dække krænkelser af de vigtige lovbeskyttede rettigheder til liv, sundhed, fysisk integritet og ejendom og fastlægge størrelsen og omfanget af erstatningen samt forældelsesfristen; er af den opfattelse, at den foreslåede forordning også bør omfatte betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, som overstiger en tærskel, der er harmoniseret i EU-lovgivningen om erstatningsansvar, og som skaber balance mellem adgangen til domstolene for de berørte personer og andre involverede personers interesser; opfordrer indtrængende Kommissionen til at revurdere og tilpasse tærsklerne for erstatning i EU-lovgivningen; er af den opfattelse, at Kommissionen bør foretage en grundig analyse af retstraditionerne i alle medlemsstaterne og deres gældende nationale retsregler om erstatning for immateriel skade, med henblik på at vurdere, om det er nødvendigt at medtage immateriel skade i AI-specifikke retsakter, og om det strider mod den eksisterende EU-lovgivning eller underminerer medlemsstaternes nationale regler; |
20. |
fastslår, at alle aktiviteter, anordninger eller processer, der drives af AI-systemer, som forvolder skade, men som ikke er opført i bilaget til den foreslåede forordning, fortsat bør være omfattet af culpaansvar; mener, at den berørte person ikke desto mindre bør nyde godt af en formodning om culpa hos operatøren, der bør kunne undgå at ifalde ansvar ved at bevise at have udvist den fornødne omhu; |
21. |
mener, at et AI-system, der endnu ikke er blevet vurderet af Kommissionen og det nydannede stående udvalg og dermed endnu ikke er klassificeret som værende af høj risiko og ikke er opført på listen i bilaget til den foreslåede forordning, ikke desto mindre som en undtagelse fra systemet i punkt 20 bør være underlagt objektivt ansvar, hvis det forårsager gentagne hændelser, der medfører alvorlig skade; bemærker, at Kommissionen, hvis dette er tilfældet, uden unødig forsinkelse også bør vurdere, om det er nødvendigt at revidere bilaget for at tilføje det pågældende AI-system til listen; er af den opfattelse, at hvis Kommissionen efter denne vurdering beslutter at opføre AI-systemet på listen, bør optagelsen have tilbagevirkende kraft fra tidspunktet for den første dokumenterede hændelse forårsaget af AI-systemet, der har medført alvorlig skade; |
22. |
anmoder Kommissionen om at vurdere behovet for aftaleretlige regler på EU-plan for at undgå aftalemæssige ansvarsfraskrivelser, herunder i relationer mellem virksomheder og mellem virksomheder og myndigheder; |
Forsikringer og AI-systemer
23. |
anser dækning af erstatningsansvar for at være en af de centrale faktorer, der afgør, om nye teknologier, produkter og tjenester får succes; bemærker, at en passende dækning af erstatningsansvar også er afgørende i forhold til at kunne forsikre offentligheden om, at den kan nære tillid til den nye teknologi på trods af potentialet for at lide skade eller for at risikere sagsanlæg fra berørte personer; bemærker samtidig, at dette regelsæt fokuserer på behovet for at udnytte og forbedre fordelene ved AI-systemer, samtidig med at der indføres robuste sikkerhedsforanstaltninger; |
24. |
er af den opfattelse, at alle operatører af højrisiko-AI-systemer, som er opført i bilaget til den foreslåede forordning, bør have en ansvarsforsikring, på grundlag af det betydelige potentiale for at forvolde skade og under hensyntagen til Europa-Parlamentets og Rådets direktiv 2009/103/EF af 16. september 2009 om ansvarsforsikring for motorkøretøjer og kontrollen med forsikringspligtens overholdelse (17); mener, at en sådan obligatorisk forsikringsordning for højrisiko-AI-systemer bør dække de beløb og det erstatningsomfang, som fastsættes i den foreslåede forordning; er bevidst om, at denne teknologi stadig er meget sjælden, idet den forudsætter et højt niveau af autonom beslutningstagning, og at de aktuelle diskussioner derfor primært orienterer sig mod fremtiden; mener ikke desto mindre, at uvished vedrørende risici ikke bør medføre prohibitivt høje forsikringspræmier og dermed være en hindring for forskning og innovation; |
25. |
mener, at en erstatningsmekanisme på EU-plan, der finansieres med offentlige midler, ikke er den rette metode til at råde bod på eventuelle forsikringsmæssige huller; mener, at mangel på data om de risici, der er forbundet med AI-systemer, kombineret med usikkerhed angående udviklingen i fremtiden gør det svært for forsikringsbranchen at udvikle tilpassede eller nye forsikringsprodukter; mener, at det at overlade udviklingen af en obligatorisk forsikring helt til markedet sandsynligvis vil resultere i en universalløsning med uforholdsmæssigt høje præmier og de forkerte incitamenter, hvilket vil stimulere operatørerne til at vælge den billigste forsikring frem for den bedste dækning og kan blive en hindring for forskning og innovation; mener, at Kommissionen bør arbejde tæt sammen med forsikringsbranchen for at se, hvordan data og innovative modeller kan anvendes til at udvikle forsikringspolicer, der giver tilstrækkelig dækning til en pris, der er til at betale; |
Afsluttende aspekter
26. |
anmoder Kommissionen om på grundlag af artikel 225 i traktaten om Den Europæiske Unions funktionsmåde at fremsætte et forslag til forordning om erstatningsansvar for drift af systemer med kunstig intelligens i overensstemmelse med henstillingerne i bilaget; |
27. |
finder, at det forslag, der anmodes om, er uden finansielle følgevirkninger; |
o
o o
28.
pålægger sin formand at sende denne beslutning og henstillingerne i bilaget til Kommissionen og Rådet.
(1) EFT L 210 af 7.8.1985, s. 29.
(2) EUT L 149 af 11.6.2005, s. 22.
(3) EUT L 304 af 22.11.2011, s. 64.
(4) EUT L 117 af 5.5.2017, s. 1.
(5) EUT L 252 af 8.10.2018, s. 1.
(6) EUT L 136 af 22.5.2019, s. 1.
(7) EUT L 123 af 12.5.2016, s. 1.
(8) EUT C 252 af 18.7.2018, s. 239.
(9) EUT C 307 af 30.8.2018, s. 163.
(10) EUT C 433 af 23.12.2019, s. 86.
(11) Vedtagne tekster, P8_TA(2019)0081.
(12) Vedtagne tekster, P9_TA(2020)0032.
(13) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178'
(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf
(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf
BILAG TIL BESLUTNINGEN
DETALJEREDE HENSTILLINGER MED HENBLIK PÅ UDARBEJDELSE AF EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM ERSTATNINGSANSVAR FOR DRIFT AF SYSTEMER MED KUNSTIG INTELLIGENS
A. FORSLAGETS PRINCIPPER OG MÅL
Denne betænkning omhandler et vigtigt aspekt af digitaliseringen, som selv formes af grænseoverskridende aktiviteter, global konkurrence og grundlæggende samfundsmæssige overvejelser. Følgende principper bør tjene som vejledning:
1. |
Et ægte digitalt indre marked kræver fuld harmonisering ved en forordning. |
2. |
Der skal tages hånd om nye retlige udfordringer, som opstår i forbindelse med udviklingen af systemer med kunstig intelligens (AI), ved at skabe maksimal retssikkerhed i hele erstatningsansvarskæden, herunder for producenten, operatøren, den berørte person og enhver anden tredjepart. |
3. |
Der bør ikke ske overregulering, og bureaukrati skal forhindres, da europæisk innovation inden for kunstig intelligens ellers vil blive hæmmet, navnlig hvad angår teknologi, produkter eller tjenester udviklet af SMV'er eller nystartede virksomheder. |
4. |
Reglerne om civilretligt erstatningsansvar for AI bør forsøge at finde balancen mellem beskyttelsen af offentligheden på den ene side og erhvervslivets incitamenter til at investere i innovation, navnlig AI-systemer, på den anden side. |
5. |
I stedet for at erstatte de eksisterende velfungerende erstatningsansvarsordninger bør der foretages nogle få nødvendige tilpasninger ved at indføre nye og fremtidsorienterede ideer. |
6. |
Det kommende forslag til forordning og direktivet om produktansvar er to hjørnesten i en fælles ramme for erstatningsansvar i forbindelse med AI-systemer og kræver tæt koordinering og tilpasning mellem alle politiske aktører på EU-plan og på nationalt plan. |
7. |
Borgerne bør have ret til samme niveau af beskyttelse og rettigheder, uanset om skaden forvoldes af et AI-system eller ej, og om den indtræffer fysisk eller virtuelt, så deres tillid til den nye teknologi styrkes. |
8. |
Der bør tages hensyn til både materiel og immateriel skade i det kommende forslag til forordning. Kommissionen opfordres bl.a. på grundlag af dens meddelelse af 19. februar 2020 om de konsekvenser, som AI vil have for sikkerhed og erstatningsansvar, til at foretage en grundig analyse af retstraditionerne i alle medlemsstaterne og de gældende lovbestemmelser om erstatning for immateriel skade med henblik på at vurdere, om det er juridisk holdbart og nødvendigt set ud fra den berørte persons synspunkt at medtage immateriel skade i det kommende forslag til forordning. På grundlag af de foreliggende oplysninger mener Parlamentet, at betydelig immateriel skade bør medtages, hvis den berørte person lider et mærkbart, dvs. et kontrollerbart, økonomisk tab. |
B. ORDLYDEN AF DET FORSLAG, DER ANMODES OM
Forslag til
EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
om erstatningsansvar for drift af systemer med kunstig intelligens
EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR –
under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 114,
under henvisning til forslag fra Europa-Kommissionen,
efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg (1),
efter den almindelige lovgivningsprocedure (2), og
ud fra følgende betragtninger:
(1) |
Begrebet »erstatningsansvar« spiller en vigtig dobbeltrolle i vores dagligdag: På den ene side sikrer det, at en person, der har lidt skade, har ret til at søge erstatning fra den part, der holdes ansvarlig for den pågældende skade, og på den anden side giver det personer det økonomiske incitament til at undgå at forvolde skade i det hele taget. Enhver ramme for erstatningsansvar bør søge skabe tillid til sikkerheden, pålideligheden og konsistensen af produkter og tjenester, herunder nye teknologier såsom kunstig intelligens (»AI«), tingenes internet (IoT) og robotteknologi, med henblik på at finde den rette balance mellem effektivt at beskytte potentielle ofre for skade og samtidig give tilpas meget spillerum til at muliggøre udviklingen af nye teknologier, produkter eller tjenester. |
(2) |
Der er navnlig i begyndelsen af nye produkters og tjenesters livscyklus, efter de blev forundersøgt, en vis risiko for brugeren og for tredjeparter for, at noget ikke vil fungere ordentligt. Denne trial-and-error-proces er imidlertid også en vigtig katalysator for teknisk udvikling, uden hvilken de fleste af vores teknologier ikke ville eksistere i dag. Indtil videre er de risici, som ledsager nye produkter og tjenester, blevet afbødet behørigt af en stærk produktsikkerhedslovgivning og regler om erstatningsansvar. |
(3) |
Fremkomsten af AI udgør imidlertid en betydelig udfordring for de gældende rammer for erstatningsansvar. Anvendelsen af AI-systemer i vores dagligdag vil medføre situationer, hvor deres uigennemsigtighed (»sorte boks«-element) og den mangfoldighed af aktører, der griber ind i systemernes livscyklus, gør det voldsomt dyrt eller endog umuligt at afgøre, hvem der havde kontrol over risikoen ved at anvende det pågældende AI-system, og hvilken kode eller hvilket input der forårsagede den skadevoldende driftshændelse. Denne vanskelighed øges gennem konnektiviteten mellem et AI-system og andre AI-systemer og ikke-AI-systemer, dets afhængighed af eksterne data, dets sårbarhed over for brud på cybersikkerheden og AI-systemers øgede autonomi som følge af kapacitet for maskinindlæring og dyb læring. Ud over disse komplekse elementer og potentielle sårbarheder kan AI-systemer også anvendes til at forvolde alvorlig skade, f.eks. ved at bringe den menneskelige værdighed og de europæiske værdier og frihedsrettigheder i fare, spore enkeltpersoner mod deres vilje, indføre ordninger for social fortjeneste, træffe beslutninger på et misvisende grundlag i forbindelse med sygeforsikring, långivning, retsafgørelser, ansættelse eller beskæftigelse eller opbygge dødbringende autonome våbensystemer. |
(4) |
Det er vigtigt at understrege, at fordelene ved at anvende AI-systemer vil være langt større end ulemperne. De vil bidrage til at bekæmpe klimaændringer mere effektivt, til at forbedre lægeundersøgelser og arbejdsvilkår, til at forbedre integrationen af personer med handicap og af ældre i samfundet og til at tilbyde skræddersyede uddannelsestilbud til alle typer af studerende. For at udnytte de forskellige teknologiske muligheder og øge borgernes tillid til anvendelsen af AI-systemer, samtidig med at skadelige scenarier forebygges, er forsvarlige etiske standarder kombineret med en solid og rimelig erstatningsprocedure den bedste vej frem. |
(5) |
Det er også nødvendigt med en passende erstatningsansvarsordning for at modvirke brud på sikkerhedsreglerne. Den erstatningsansvarsordning, der fastsættes i denne forordning, skal imidlertid tage alle involverede interesser i betragtning. En grundig undersøgelse af alle nye reglers konsekvenser for små og mellemstore virksomheder (SMV'er) og nystartede virksomheder er en forudsætning for yderligere lovgivningstiltag. Den afgørende rolle, som disse virksomheder spiller for den europæiske økonomi, berettiger en strengt forholdsmæssig tilgang, så de kan udvikle og innovere. På den anden side er det nødvendigt, at ofre for skade forårsaget af AI-systemer har ret til genoprettelse og til fuld erstatning for den skade, de har lidt. |
(6) |
Alle nødvendige ændringer af de eksisterende retlige rammer bør begynde med en præcisering af, at AI-systemer hverken har status som juridisk person eller besidder en menneskelig samvittighed, og at de udelukkende har til opgave at tjene menneskeheden. Mange AI-systemer adskiller sig heller ikke så meget fra andre teknologier, som undertiden er baseret på endnu mere kompleks software. I sidste ende anvendes langt størstedelen af AI-systemerne til at udføre rutineopgaver uden eller med minimale risici for samfundet. Man kan undgå den eventuelle tvetydighed i udtrykket AI ved at anvende udtrykket »automatiseret beslutningstagning«. Dette udtryk beskriver en situation, hvor en bruger fra starten, helt eller delvist, delegerer en beslutning til en enhed ved hjælp af software eller en tjeneste. Den pågældende enhed anvender igen automatisk effektuerede beslutningsmodeller til at udføre en handling på vegne af en bruger eller til at give input til brugerens beslutning i forbindelse med udførelsen af en handling. |
(7) |
Der findes imidlertid også AI-systemer, som er udviklet og anvendes på en kritisk måde, og som er baseret på teknologier såsom neurale netværk og dyb læring-processer. Deres uigennemsigtighed og autonomi kan gøre det meget vanskeligt at spore specifikke handlinger tilbage til specifikke menneskelige beslutninger vedrørende deres design eller drift. En operatør af et sådant AI-system kunne eksempelvis gøre gældende, at den fysiske eller virtuelle aktivitet, anordning eller proces, der forvoldte skaden, var uden for hans eller hendes kontrol, fordi den skyldtes en autonom driftshændelse i hans eller hendes AI-system. Desuden bør driften af et autonomt AI-system ikke i sig selv være en tilstrækkelig grund til at anerkende erstatningskravet. Dette kan resultere i sager om erstatningsansvar, hvor ansvarsfordelingen kan være uretfærdig eller utilstrækkelig, eller hvor en person, der lider skade, som er forvoldt af et AI-system, ikke kan bevise culpa hos producenten, en indgribende tredjepart eller operatøren og derfor ikke får nogen erstatning. |
(8) |
Ikke desto mindre bør det altid være klart, at den, der opretter, vedligeholder, kontrollerer eller foretager indgreb i AI-systemet, bør holdes ansvarlig for de skader, som aktiviteten, anordningen eller processen forvolder. Dette følger af almindelige og bredt anerkendte juridiske definitioner af erstatningsansvar, i henhold til hvilke den person, der skaber eller opretholder en risiko for offentligheden, er ansvarlig, hvis denne risiko forvolder skade, og derfor på forhånd bør minimere risikoen eller efterfølgende yde skadeserstatning. Heraf følger, at fremkomsten af AI-systemer ikke nødvendiggør en fuldstændig revision af reglerne om erstatningsansvar i hele Unionen. Specifikke tilpasninger af den gældende lovgivning og indførelse af nogle gennemarbejdede og målrettede nye bestemmelser vil være tilstrækkeligt til at imødekomme de AI-relaterede udfordringer med henblik på at undgå manglende ensartethed i reglerne og sikre harmonisering af lovgivningen om civilretligt erstatningsansvar i hele Unionen i forbindelse med AI. |
(9) |
Rådets direktiv 85/374/EØF (3) (produktansvarsdirektivet) har i over 30 år vist sig at være et effektivt middel til at få erstatning for skader, som er forvoldt af et defekt produkt. Det bør derfor også anvendes i forbindelse med civilretlige erstatningskrav fra en skadelidt part mod producenten af et defekt AI-system. I overensstemmelse med Unionens principper om bedre regulering bør eventuelle nødvendige lovgivningsmæssige tilpasninger drøftes i forbindelse med den nødvendige revision af direktivet. Medlemsstaternes gældende lovgivning baseret på culpaansvar giver også i de fleste tilfælde et tilstrækkeligt beskyttelsesniveau for personer, der lider skade som følge af indgreb fra en tredjepart, idet indgrebet i reglen udgør en culpabaseret handling, når tredjeparten bruger AI-systemet til at forvolde skade. Denne forordning bør derfor fokusere på erstatningskrav mod operatøren af et AI-system. |
(10) |
Operatørens ansvar i henhold til denne forordning bygger på det forhold, at vedkommende udøver en grad af kontrol over en risiko, der er forbundet med AI-systemets drift og funktion, på samme måde som ejeren af en bil. Jo mere sofistikeret og autonomt et system er, desto større virkning får det med hensyn til at definere og påvirke algoritmerne, f.eks. gennem vedvarende opdateringer. Da der ofte er mere end én person, som det giver mening at anse for »operere« AI-systemet, bør udtrykket »operatør« i henhold til denne forordning forstås således, at det omfatter både frontend- og backend-operatøren. Selv om det generelt er frontend-operatøren, der synes at være den person, som »primært« træffer beslutninger om anvendelsen af AI-systemet, kan backend-operatøren faktisk have en højere grad af kontrol over de til driften knyttede risici. Hvis backend-operatøren også kan betragtes som »producent« som defineret i artikel 3 i produktansvarsdirektivet, bør dette direktiv finde anvendelse på vedkommende. Hvis der kun er én operatør, og denne operatør også er producenten af AI-systemet, bør denne forordning have forrang for produktansvarsdirektivet. |
(11) |
Hvis en bruger, dvs. den person, der anvender AI-systemet, er involveret i den hændelse, der forvoldte skaden, bør han eller hun kun være erstatningsansvarlig i medfør af denne forordning, hvis brugeren også kan anses for at være operatør. Hvis ikke, kan graden af brugerens groft uagtsomme eller forsætlige bidrag til risikoen indebære, at brugeren har culpabaseret erstatningsansvar over for sagsøgeren. Brugerens gældende forbrugerrettigheder bør ikke berøres. |
(12) |
Denne forordning bør gøre det muligt for den berørte person at fremsætte erstatningskrav i hele ansvarskæden og i hele et AI-systems livscyklus. Den bør også i princippet omfatte alle AI-systemer, uanset hvor de anvendes, og om driften sker fysisk eller virtuelt. De fleste erstatningskrav i henhold til denne forordning bør dog vedrøre tilfælde af ansvar over for tredjemand, hvor et AI-system anvendes i et offentligt rum og udsætter mange personer for en risiko. I den situation vil de berørte personer ofte ikke være opmærksomme på AI-systemets drift eller have nogen kontraktlig eller retlig forbindelse til operatøren. AI-systemets drift sætter dem dermed i en situation, hvor de, hvis der forvoldes skade, kun kan gøre culpabaserede erstatningskrav gældende over for AI-systemets operatør og samtidig har alvorlige vanskeligheder med at bevise culpa hos operatøren. |
(13) |
Det er en afgørende faktor, hvilken type AI-system operatøren udøver kontrol over. Et AI-system, som indebærer en høj risiko, udsætter potentielt brugeren eller offentligheden for en meget højere grad af fare og på en måde, der er tilfældig og rækker længere, end hvad der med rimelighed kan forventes. Dette betyder, at hovedparten af de potentielt berørte personer, når AI-systemets autonome drift begynder, er ukendte og ikke kan identificeres, f.eks. personer på en offentlig plads eller i et nabohus, sammenlignet med driften af et AI-system, der involverer specifikke personer, som i reglen har givet deres samtykke til dets anvendelse i forvejen, f.eks. i forbindelse med kirurgiske indgreb på et hospital eller en salgsdemonstration i en lille butik. Fastlæggelse af, hvor betydelig en risiko for at forvolde skade der er forbundet med et højrisiko-AI-system, afhænger af samspillet mellem det brugsformål, som AI-systemet er markedsført til, den måde, hvorpå AI-systemet anvendes, alvorligheden af den potentielle skade, graden af autonomi i den beslutningstagning, der kan medføre skade, og sandsynligheden for, at risikoen indtræder. Graden af alvorlighed bør fastlægges på grundlag af relevante faktorer såsom omfanget af den potentielle skade som følge af driften for de berørte personer, herunder navnlig for de grundlæggende rettigheder, antallet af berørte personer, den samlede værdi af den potentielle skade samt skaden for samfundet som helhed. Sandsynligheden for skadens indtræden bør fastlægges på grundlag af relevante faktorer såsom de algoritmiske beregningers rolle i beslutningsprocessen, beslutningens kompleksitet og virkningernes reversibilitet. I sidste ende bør anvendelsesmåden afhænge af relevante faktorer såsom den kontekst og sektor, hvor AI-systemet fungerer, om det kan have retlige eller faktiske virkninger for den berørte persons vigtige juridisk beskyttede rettigheder, og om virkningerne med rimelighed kan undgås. |
(14) |
Alle højrisiko-AI-systemer bør opføres udtømmende i et bilag til denne forordning. I betragtning af den hurtige tekniske udvikling og markedsudvikling på verdensplan samt den tekniske ekspertise, der er påkrævet for at gennemføre en grundig revision af AI-systemer, bør beføjelsen til at vedtage delegerede retsakter i overensstemmelse med artikel 290 i traktaten om Den Europæiske Unions funktionsmåde delegeres til Kommissionen med henblik på at ændre denne forordning for så vidt angår de typer af AI-systemer, der indebærer en høj risiko, og de kritiske sektorer, hvor de anvendes. På grundlag af definitionerne og bestemmelserne i denne forordning bør Kommissionen revidere bilaget uden unødig forsinkelse, men som minimum hver sjette måned, og om nødvendigt ændre det ved hjælp af delegerede retsakter. Kommissionens vurdering af, om et AI-system indebærer en høj risiko, bør begynde samtidig med produktsikkerhedsvurderingen, således at man undgår en situation, hvor et højrisiko-AI-system allerede er godkendt til markedet, men endnu ikke er klassificeret som værende af høj risiko og dermed fungerer uden obligatorisk forsikringsdækning. For at give virksomhederne og forskningsorganisationerne tilstrækkelig planlægnings- og investeringssikkerhed bør ændringer i de kritiske sektorer kun foretages hver 12. måned. Operatører bør opfordres til at underrette Kommissionen, hvis de arbejder på nye teknologier, produkter eller tjenester, som henhører under en af de eksisterende kritiske sektorer, der er omhandlet i bilaget, og som senere vil kunne betragtes som et højrisiko-AI-system. |
(15) |
Det er navnlig vigtigt, at Kommissionen gennemfører passende høringer af de relevante interessenter under sit forberedende arbejde, herunder på ekspertniveau, og at disse høringer gennemføres i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning (4). Et stående udvalg benævnt »Teknisk Udvalg — AI-systemer med høj risiko« (TCRAI) bør støtte Kommissionen i dens regelmæssige revision i henhold til denne forordning. Dette stående udvalg bør omfatte repræsentanter for medlemsstaterne samt et afbalanceret udvalg af interessenter, herunder forbrugerorganisationer, foreninger, der repræsenterer berørte personer, repræsentanter for erhvervslivet fra forskellige sektorer og størrelser samt forskere og videnskabsmænd. For at sikre lige deltagelse i forberedelsen af delegerede retsakter bør Europa-Parlamentet og Rådet navnlig modtage alle dokumenter på samme tid som medlemsstaternes eksperter, og deres eksperter bør have systematisk adgang til møder i Kommissionens ekspertgrupper og det stående TCRAI-udvalg, når de beskæftiger sig med forberedelse af delegerede retsakter. |
(16) |
Denne forordning bør omfatte skade på liv, sundhed, fysisk integritet, ejendom og betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, som overstiger en tærskel, der er harmoniseret i EU-lovgivningen om erstatningsansvar, og som skaber balance mellem adgangen til domstolene for de berørte personer og andre involverede personers interesser. Kommissionen bør revurdere og tilpasse tærsklerne for erstatning i EU-lovgivningen. Der bør ved betydelig immateriel skade forstås skade, som påfører den berørte person betragtelig skade, en objektiv og påviselig negativ påvirkning af vedkommendes personlige interesser og et økonomisk tab beregnet under hensyntagen til f.eks. årlige gennemsnit for tidligere indtægter og andre relevante omstændigheder. Denne forordning bør også den fastsætte erstatningens størrelse og omfang samt forældelsesfristen for fremsættelse af erstatningskrav. Denne forordning bør fastsætte et betydeligt lavere erstatningsloft end det, der er fastsat i produktansvarsdirektivet, idet der i denne forordning kun henvises til den skade, en enkeltperson har lidt som følge af en enkelt AI-systemdriftshændelse, mens der i direktivet henvises til en række produkter eller endog en produktgruppe med samme defekt. |
(17) |
Alle fysiske eller virtuelle aktiviteter, anordninger eller processer, der drives af AI-systemer, som ikke er opført som højrisiko-AI-systemer i bilaget til denne forordning, bør fortsat være omfattet af culpaansvar, medmindre der gælder strengere nationale regler og forbrugerbeskyttelseslovgivning. Medlemsstaternes nationale regler, herunder eventuel relevant retspraksis, med hensyn til erstatningsbeløbet og -omfanget samt forældelsesfristen bør fortsat gælde. En person, der lider skade forvoldt af et AI-system, som ikke er opført som et højrisiko-AI-system, bør nyde godt af en formodning om culpa hos operatøren. |
(18) |
Den omhu, der kan forventes af en operatør, bør stå i et rimeligt forhold til i) karakteren af AI-systemet, ii) den juridisk beskyttede rettighed, som potentielt påvirkes, iii) den potentielle skade, som AI-systemet kan forvolde, og iv) sandsynligheden for en sådan skade. Det bør i den forbindelse tages i betragtning, at operatøren kan have begrænset kendskab til de algoritmer og data, som anvendes i AI-systemet. Det bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, ved valget af et passende AI-system, hvis operatøren har valgt et AI-system, som er certificeret i henhold til en ordning svarende til den frivillige certificeringsordning, som foreslås af Kommissionen (5). Det bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, i forbindelse med driften af AI-systemet, hvis operatøren kan bevise, at vedkommende faktisk og regelmæssigt har overvåget AI-systemet under driften og har underrettet fabrikanten om mulige uregelmæssigheder under driften. Der bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, med hensyn til opretholdelse af den driftsmæssige pålidelighed, hvis operatøren har installeret alle tilgængelige opdateringer fra producenten af AI-systemet. Eftersom operatørerne kan være mere eller mindre sofistikerede afhængigt af, om de blot er forbrugere eller erhvervsdrivende, bør forpligtelserne til at udvise omhu tilpasses i overensstemmelse hermed. |
(19) |
For at gøre det muligt for operatøren at bevise, at han eller hun ikke har handlet culpøst, eller for den berørte person at bevise, at der foreligger culpa, bør producenterne være forpligtede til at samarbejde med begge de berørte parter, herunder gennem tilvejebringelse af veldokumenteret information. Både producenter, der er etableret i og uden for Unionen, bør endvidere være forpligtede til at udpege en repræsentant i spørgsmål om AI-relateret erstatningsansvar inden for Unionen som kontaktpunkt for besvarelse af alle anmodninger fra operatører i stil med databeskyttelsesrådgiverne i artikel 37 i Europa-Parlamentets og Rådets forordning (EU) 2016/679 (6), fabrikantens repræsentant i artikel 3, nr. 41, og artikel 13, stk. 4, i Europa-Parlamentets og Rådets forordning (EU) 2018/858 (7) eller den bemyndigede repræsentant i artikel 4, stk. 2, og artikel 5 i Europa-Parlamentets og Rådets forordning (EU) 2019/1020 (8). |
(20) |
Lovgiveren skal tage hensyn til de erstatningsansvarsmæssige risici, der er forbundet med AI-systemerne gennem hele deres livscyklus fra udvikling over anvendelse til anvendelsesophør, herunder håndtering af affald og genanvendelse. Anvendelsen af AI-systemer i et produkt eller en tjeneste udgør en finansiel risiko for virksomhederne og vil derfor have stor indflydelse på SMV'ers og nystartede virksomheders kapacitet og muligheder med hensyn til at forsikre og finansiere deres forsknings- og udviklingsprojekter, som bygger på ny teknologi. Formålet med erstatningsansvar er derfor ikke blot at sikre enkeltpersoners vigtige juridisk beskyttede rettigheder, men også at afgøre, om virksomheder, navnlig SMV'er og nystartede virksomheder, er i stand til at rejse kapital, innovere, forske og i sidste ende tilbyde nye produkter og tjenester, og om forbrugerne har tillid til sådanne produkter og tjenester og er villige til at bruge dem på trods af de potentielle risici og søgsmål, der kan blive rejst i relation til sådanne produkter og tjenester. |
(21) |
Forsikring kan bidrage til at garantere, at ofre modtager en effektiv erstatning, og samle alle forsikrede personers risici. En af de faktorer, som forsikringsselskaber baserer deres udbud af forsikringsprodukter og -tjenester på, er risikovurdering baseret på adgang til tilstrækkelige historiske data vedrørende erstatningskrav. Manglende adgang til eller en utilstrækkelig mængde data af høj kvalitet kan være en årsag til, at det i begyndelsen er vanskeligt at skabe forsikringsprodukter til nye og fremspirende teknologier. Øget adgang til og optimering af anvendelsen af data, som er genereret ved hjælp af nye teknologier, vil, sammen med en forpligtelse til at tilvejebringe veldokumenteret information, imidlertid forbedre forsikringsselskabernes evne til at skabe modeller for beregning af nye risici og fremme udviklingen af mere innovativ dækning. |
(22) |
Eftersom der ikke foreligger historiske data vedrørende erstatningskrav, bør det undersøges, hvordan og på hvilke betingelser et erstatningsansvar vil kunne forsikres, med henblik på at knytte forsikringen til produktet og ikke til den ansvarlige person. Der udvikles allerede nu forsikringsprodukter for hvert enkelt område og hver enkel form for dækning i takt med, at teknologien udvikler sig. Mange forsikringsselskaber specialiserer sig i visse markedssegmenter (f.eks. SMV'er) eller yder dækning for visse produkttyper (f.eks. el-apparater), hvilket betyder, at der normalt vil være et forsikringsprodukt til rådighed for den forsikrede. Det er dog vanskeligt at få øje på en model, der passer alle, og forsikringsmarkedet får behov for tid til at tilpasse sig. Kommissionen bør arbejde tæt sammen med forsikringsmarkedet om at udvikle innovative forsikringsprodukter, der kan lukke forsikringshullet. I særlige tilfælde, f.eks. en begivenhed, som forvolder kollektiv skade, hvor erstatningen i væsentlig grad overstiger de maksimumsbeløb, der er fastsat i denne forordning, bør medlemsstaterne tilskyndes til at oprette en særlig erstatningsfond for en begrænset periode, som adresserer de særlige behov i disse tilfælde. Der kan også oprettes særlige erstatningsfonde til dækning af de særlige tilfælde, hvor et AI-system, der endnu ikke er klassificeret som et højrisiko-AI-system og dermed endnu ikke er forsikret, forvolder skade. Af hensyn til retssikkerheden og for at opfylde forpligtelsen til at informere alle potentielt berørte personer bør eksistensen af den særlige erstatningsfond og betingelserne for at kunne drage fordel heraf offentliggøres på en klar og forståelig måde. |
(23) |
Det er af største betydning, at enhver fremtidig ændring af denne forordning går hånd i hånd med den nødvendige revision af produktansvarsdirektivet med henblik på at revidere den på en omfattende og sammenhængende måde og garantere alle berørte parters rettigheder og forpligtelser gennem hele ansvarskæden. Indførelsen af en ny erstatningsansvarsordning for operatører af AI-systemer kræver, at bestemmelserne i denne forordning og revisionen af produktansvarsdirektivet koordineres nøje både med hensyn til indhold og tilgang, således at de sammen udgør en sammenhængende ramme for erstatningsansvar for AI-systemer, der med hensyn til ansvarsrisikoen afvejer producentens, operatørens, forbrugerens og den berørte persons interesser og de relevante erstatningsordninger. Det er derfor nødvendigt at tilpasse og strømline definitionerne af AI-system, frontend- og backend-operatør, producent, defekt, produkt og tjeneste i alle retsakter, og det bør gøres sideløbende. |
(24) |
Målene for denne forordning — nemlig at skabe en fremtidsorienteret og ensartet tilgang på EU-plan, som fastsætter fælles europæiske standarder for europæiske borgere og virksomheder og sikrer sammenhæng mellem rettigheder og retssikkerhed i hele Unionen, og at undgå en fragmentering af det digitale indre marked, hvilket ville hæmme målet om at bevare digital suverænitet og fremme digital innovation i Europa og sikre et højt niveau af beskyttelse for borgere og forbrugere — kræver, at erstatningsansvarsordningerne for AI-systemer harmoniseres fuldt ud. Dette kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne på grund af den hurtige teknologiske udvikling, udviklingen på tværs af grænserne samt anvendelsen af AI-systemer og i sidste ende de uoverensstemmende lovgivningsmæssige tilgange i hele Unionen, men kan på grund af foranstaltningens omfang eller virkninger bedre nås på EU-plan. Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i traktaten om Den Europæiske Union. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå disse mål — |
VEDTAGET DENNE FORORDNING:
KAPITEL I
ALMINDELIGE BESTEMMELSER
Artikel 1
Genstand
Denne forordning fastsætter regler for civilretlige erstatningskrav fra fysiske og juridiske personer mod operatører af AI-systemer.
Artikel 2
Anvendelsesområde
1. Denne forordning finder anvendelse på Unionens område i tilfælde, hvor en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system har forårsaget skade på en fysisk persons liv, helbred eller fysiske integritet eller en fysisk eller juridisk persons ejendom eller har forårsaget betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab.
2. Enhver aftale mellem operatøren af et AI-system og en fysisk eller juridisk person, der lider skade som følge af AI-systemet, som omgår eller begrænser de rettigheder og forpligtelser, der er fastsat i denne forordning, hvad enten den er indgået før eller efter forvoldelsen af skaden, anses for ugyldig for så vidt angår rettighederne og forpligtelserne i henhold til denne forordning.
3. Denne forordning berører ikke eventuelle yderligere erstatningskrav som følge af kontraktforhold eller som følge af bestemmelser om produktansvar, forbrugerbeskyttelse, ikkeforskelsbehandling, arbejdstagernes beskyttelse eller miljøbeskyttelse mellem operatøren og den fysiske eller juridiske person, der har lidt skade på grund af AI-systemet, som kan rejses mod operatøren i henhold til EU-lovgivningen eller national lovgivning.
Artikel 3
Definitioner
I denne forordning forstås ved:
a) |
»AI-system«: et system, som enten er baseret på funktionsprogrammer eller er integreret i materielenheder, og som udviser adfærd, der simulerer intelligens, bl.a. ved at indsamle og behandle data, analysere og fortolke sine omgivelser og handle med en vis grad af autonomi for at opnå specifikke mål |
b) |
»autonom«: et AI-system, som opererer ved at fortolke visse inddata og anvende en række foruddefinerede instruktioner uden at være begrænset til disse instruktioner, selv om systemets adfærd begrænses af og sigter mod at opfylde det tildelte mål og andre af designeren foretagne relevante designvalg |
c) |
»højrisiko«: et betydeligt potentiale for et autonomt fungerende AI-system til at forvolde skade på en eller flere personer på en måde, der er tilfældig og rækker længere, end hvad der med rimelighed kan forventes; potentialets størrelse afhænger af forholdet mellem alvorsgraden af den skade, der kan forvoldes, graden af autonomi i beslutningstagningen, sandsynligheden for, at risikoen indtræder, og den måde og den kontekst, AI-systemet anvendes på/i |
d) |
»operatør«: både frontend- og backend-operatøren, så længe sidstnævntes erstatningsansvar ikke allerede er omfattet af direktiv 85/374/EØF |
e) |
»frontend-operatør«: enhver fysisk eller juridisk person, der udøver en grad af kontrol over en risiko, der er forbundet med AI-systemets drift og funktion, og drager fordel af driften af det |
f) |
»backend-operatør«: enhver fysisk eller juridisk person, der løbende definerer de elementer, der indgår i teknologien, og leverer data og en væsentlig backend-støttetjeneste og derfor også udøver en grad af kontrol over den risiko, der er forbundet med AI-systemets drift og funktion |
g) |
»kontrol«: enhver handling fra operatørens side, der påvirker driften af et AI-system og dermed det omfang, hvori operatøren udsætter tredjeparter for de potentielle risici, der er forbundet med AI-systemets drift og funktion; sådanne handlinger kan påvirke driften på alle stadier ved at bestemme input, output eller resultater eller kan ændre specifikke funktioner eller processer i AI-systemet; den grad, hvori de pågældende aspekter af driften af AI-systemet bestemmes af handlingen, afhænger af, hvor stor indflydelse operatøren har på den risiko, der er forbundet med AI-systemets drift og funktion |
h) |
»berørt person«: enhver person, som lider skade forårsaget af en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system, og som ikke er operatøren af det |
i) |
»skade«: en skadelig effekt, der berører en fysisk persons liv, helbred eller fysiske integritet eller en fysisk eller juridisk persons ejendom eller forårsager betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab |
j) |
»producent«: producenten som defineret i artikel 3 i direktiv 85/374/EØF. |
KAPITEL II
HØJRISIKO-AI-SYSTEMER
Artikel 4
Objektivt ansvar for højrisiko-AI-systemer
1. Operatøren af et højrisiko-AI-system er objektivt ansvarlig for enhver skade, der er forårsaget af en fysisk eller virtuel aktivitet, anordning eller proces drevet af det pågældende AI-system.
2. Alle højrisiko-AI-systemer og alle kritiske sektorer, hvor disse anvendes, opføres i bilaget til denne forordning. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 13 med henblik på at ændre den pågældende udtømmende liste ved at:
a) |
inkludere nye typer højrisiko-AI-systemer og kritiske sektorer, hvor disse anvendes |
b) |
fjerne typer af AI-systemer, der ikke længere kan anses for at udgøre en høj risiko, og/eller |
c) |
ændre de kritiske sektorer for eksisterende højrisiko-AI-systemer. |
Enhver delegeret retsakt om ændring af bilaget træder i kraft seks måneder efter vedtagelsen. Ved fastlæggelsen af nye højrisiko-AI-systemer og/eller kritiske sektorer, der ved hjælp af delegerede retsakter skal medtages i bilaget, tager Kommissionen fuldt ud hensyn til de kriterier, der er fastsat i denne forordning, navnlig kriterierne i artikel 3, litra c).
3. Operatører af højrisiko-AI-systemer må ikke kunne fralægge sig ansvar ved at hævde, at de har handlet med den fornødne omhu, eller at skaden er forårsaget af en autonom aktivitet, anordning eller proces, der er drevet af deres AI-system. Operatører kan ikke drages til ansvar, hvis skaden er forårsaget af force majeure.
4. Frontend-operatøren af et højrisiko-AI-system skal sikre, at driften af det pågældende AI-system er dækket af en ansvarsforsikring, der er tilstrækkelig i forhold til størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning. Backend-operatøren skal sikre, at vedkommendes tjenester er dækket af en erhvervsansvars- eller produktansvarsforsikring, der er tilstrækkelig i forhold til størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning. Hvis frontend- eller backend-operatørens allerede eksisterende forsikringsordninger, der er lovpligtige i henhold til anden EU-ret eller national ret, eller frivillige virksomhedsforsikringsfonde anses for at dække driften af AI-systemet eller den leverede tjeneste, anses pligten til at tegne forsikring for AI-systemet eller den leverede tjeneste i henhold til denne forordning for at være opfyldt, så længe den relevante eksisterende lovpligtige forsikring eller de frivillige virksomhedsforsikringsfonde dækker størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning.
5. Denne forordning har forrang for nationale erstatningsansvarsordninger i tilfælde af modstridende klassificering af objektivt erstatningsansvar for så vidt angår AI-systemer.
Artikel 5
Erstatningens størrelse
1. En operatør af et højrisiko-AI-system, som er blevet holdt ansvarlig for en skade i henhold til denne forordning, skal erstatte:
(a) |
et beløb på højst to mio. EUR i tilfælde af en berørt persons død eller skade på en berørt persons helbred eller fysiske integritet som følge af en driftshændelse i et højrisiko-AI-system |
(b) |
et beløb på højst en mio. EUR i tilfælde af betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, eller skade på ejendom, herunder når flere formuegoder tilhørende en berørt person er blevet beskadiget som følge af en enkelt driftshændelse i et enkelt højrisiko-AI-system; i tilfælde, hvor den berørte person derudover har et erstatningskrav i henhold til kontrakt mod operatøren, skal der ikke betales nogen erstatning i henhold til denne forordning, hvis den samlede skade på ejendom eller den betydelige immaterielle skade er af en værdi på under [500 EUR] (9). |
2. Hvis den samlede erstatning, der skal udbetales til flere personer, der lider skade som følge af samme driftshændelse i samme højrisiko-AI-system, overstiger de maksimale samlede beløb, der er fastsat i stk. 1, nedsættes de beløb, der skal udbetales til hver person, pro rata, således at den samlede erstatning ikke overstiger de maksimumsbeløb, der er fastsat i stk. 1.
Artikel 6
Erstatningens omfang
1. Inden for det beløb, der er fastsat i artikel 5, stk. 1, litra a), beregnes den erstatning, som skal betales af operatøren, som drages til ansvar i tilfælde af fysisk skade efterfulgt af den berørte persons død, på grundlag af udgifterne til lægebehandling, som den berørte person gennemgik før sin død, og den økonomiske skade, der er lidt inden dødsfaldet, forårsaget af ophøret eller nedsættelsen af erhvervsevnen eller hans eller hendes øgede behov i skadesperioden inden dødsfaldet. Den ansvarlige operatør skal desuden godtgøre begravelsesudgifterne for den afdøde berørte person til den part, der er ansvarlig for afholdelsen af disse udgifter.
Hvis den berørte person på tidspunktet for den hændelse, der forvoldte den skade, der førte til vedkommendes død, var i et forhold til en tredjepart og havde en retlig forpligtelse til at forsørge den pågældende tredjepart, skal den ansvarlige operatør betale underholdsbidrag til denne tredjepart i det omfang, den berørte person skulle have betalt, for en periode, der svarer til en gennemsnitlig forventet levetid for en person med vedkommendes alder og generelle beskrivelse. Operatøren skal desuden betale erstatning til tredjepart, hvis tredjeparten på tidspunktet for den hændelse, der forårsagede dødsfaldet, var blevet undfanget, men endnu ikke var født.
2. Inden for det beløb, der er fastsat i artikel 5, stk. 1, litra b), skal den erstatning, som skal betales af operatøren, som drages til ansvar i tilfælde af skade på den berørte persons helbred eller fysiske integritet, omfatte godtgørelse af udgifterne til den dermed forbundne lægebehandling samt betaling for enhver økonomisk skade, som den berørte person har lidt, som følge af den midlertidige suspension, nedsættelse eller endelige ophør af den pågældende persons erhvervsevne eller den deraf følgende af læger bekræftede forøgelse af vedkommendes behov.
Artikel 7
Forældelsesfrist
1. Civilretlige erstatningskrav, der rejses i overensstemmelse med artikel 4, stk. 1, vedrørende skade på liv, helbred eller fysisk integritet, er underlagt en særlig forældelsesfrist på 30 år fra den dato, hvor skaden er sket.
2. Civilretlige erstatningskrav, der rejses i overensstemmelse med artikel 4, stk. 1, vedrørende skade på ejendom eller betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, er underlagt en særlig forældelsesfrist på:
a) |
ti år fra den dato, hvor henholdsvis skaden på ejendom eller det kontrollerbare økonomiske tab som følge af den betydelige immaterielle skade er sket, eller |
b) |
30 år fra den dato, hvor den driftshændelse i højrisiko-AI-systemet, der efterfølgende forårsagede skaden på ejendom eller den immaterielle skade, fandt sted. |
For så vidt angår de frister, der er nævnt i første afsnit, finder den frist, der afsluttes først, anvendelse.
3. Denne artikel berører ikke bestemmelser i national lovgivning om suspension eller afbrydelse af forældelsesfrister.
KAPITEL III
ANDRE AI-SYSTEMER
Artikel 8
Culpaansvar for andre AI-systemer
1. Operatøren af et AI-system, der ikke udgør et højrisiko-AI-system som fastsat i artikel 3, litra c), og artikel 4, stk. 2, og som følge heraf ikke er opført i bilaget til denne forordning, er underlagt culpaansvar for skader, der skyldes en fysisk eller virtuel aktivitet, anordning eller proces drevet af det pågældende AI-system.
2. Operatøren kan ikke drages til ansvar, hvis vedkommende kan bevise, at han eller hun var uden skyld i den skade, der blev forvoldt, på grundlag af et af følgende forhold:
a) |
AI-systemet blev aktiveret uden hans eller hendes viden, på trods af at der var truffet alle rimelige og nødvendige foranstaltninger for at undgå en sådan aktivering uden for operatørens kontrol, eller |
b) |
der var udvist den fornødne omhu i forbindelse med udøvelsen af alle følgende handlinger: udvælgelsen et passende AI-system til den rette funktion og de rette færdigheder, idrifttagningen af AI-systemet, tilsynet med aktiviteterne og opretholdelsen af driftssikkerheden ved regelmæssigt at installere alle tilgængelige opdateringer. |
Operatøren må ikke kunne unddrage sig ansvar ved at hævde, at skaden blev forårsaget af en autonom aktivitet, anordning eller proces drevet af hans eller hendes AI-system. Operatøren kan ikke drages til ansvar, hvis skaden er forårsaget af force majeure.
3. Hvis skaden er forvoldt af en tredjepart, der har grebet ind i AI-systemet ved at ændre dets funktion eller dets virkninger, har operatøren ikke desto mindre pligt til at betale erstatning, hvis den pågældende tredjepart ikke kan spores eller er uden midler.
4. Efter anmodning fra operatøren eller den berørte person har producenten af et AI-system pligt til at samarbejde med og give informationer til dem, i det omfang det er begrundet i erstatningskravets omfang, for at gøre det muligt at fastlægge ansvaret.
Artikel 9
Nationale bestemmelser om erstatning og forældelsesfrist
Civilretlige erstatningskrav, der rejses i henhold til artikel 8, stk. 1, er for så vidt angår forældelsesfrister samt erstatningens størrelse og omfang underlagt lovgivningen i den medlemsstat, hvor skaden er indtrådt.
KAPITEL IV
ANSVARSFORDELING
Artikel 10
Egen skyld
1. Hvis skaden er forårsaget af både en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system og af handlinger begået af en berørt person eller enhver person, som den berørte person er ansvarlig for, reduceres omfanget af operatørens ansvar i henhold til denne forordning tilsvarende. Operatøren kan ikke drages til ansvar, hvis den berørte person eller den person, som vedkommende er ansvarlig for, alene er skyld i den forvoldte skade.
2. En operatør, som drages til ansvar, kan anvende data genereret af AI-systemet til at bevise egen skyld fra den berørte persons side, i overensstemmelse med forordning (EU) 2016/679 eller anden relevant databeskyttelseslovgivning. Den berørte person kan også anvende sådanne data til at bevise eller afklare forhold i forbindelse med erstatningskravet.
Artikel 11
Solidarisk ansvar
I tilfælde, hvor der er mere end en operatør af et AI-system, hæfter de solidarisk. Hvis en frontend-operatør også er producenten af AI-systemet, har denne forordning forrang for produktansvarsdirektivet. Hvis backend-operatøren også kan betragtes som producent som defineret i artikel 3 i produktansvarsdirektivet, bør dette direktiv finde anvendelse på vedkommende. Hvis der kun er én operatør, og denne operatør også er producenten af AI-systemet, bør denne forordning have forrang for produktansvarsdirektivet.
Artikel 12
Regresret
1. Operatøren har ikke ret til at rejse regreskrav, medmindre den berørte person, der har ret til erstatning i henhold til denne forordning, er blevet betalt fuldt ud.
2. I tilfælde af at operatøren er solidarisk ansvarlig med andre operatører over for en berørt person og har ydet fuld erstatning til den berørte person i overensstemmelse med artikel 4, stk. 1, eller artikel 8, stk. 1, kan denne operatør gøre regres mod de andre operatører for en del af beløbet i forhold til hans eller hendes andel af ansvaret.
Andelene af ansvaret bestemmes på grundlag af de respektive grader af kontrol, som operatørerne havde over den risiko, der er forbundet med AI-systemets drift og funktion. Hvis et bidrag, der kan henføres til en solidarisk ansvarlig operatør, ikke kan erhverves fra vedkommende, afholdes det manglende beløb af de andre operatører. I det omfang en solidarisk ansvarlig operatør yder erstatning til den berørte person og kræver, at der foretages en tilpasning af forskud fra de andre ansvarlige operatører, indtræder operatøren i den berørte persons krav mod de andre operatører. En sådan subrogation kan ikke gøres gældende til skade for det oprindelige krav.
3. I tilfælde af at operatøren af et defekt AI-system yder den berørte person fuld erstatning for skade i overensstemmelse med nærværende forordnings artikel 4, stk. 1, eller artikel 8, stk. 1, kan vedkommende anlægge sag om genoprettelse mod producenten af det defekte AI-system i overensstemmelse med direktiv 85/374/EØF og nationale bestemmelser om produktansvar.
4. I tilfælde af at operatørens forsikringsselskab yder erstatning til den berørte person for skade i overensstemmelse med artikel 4, stk. 1, eller artikel 8, stk. 1, indtræder operatørens forsikringsselskab i ethvert civilretligt erstatningskrav, som den berørte person har mod en anden person for den samme skade, for så vidt angår det beløb, operatørens forsikringsselskab har ydet den berørte person i erstatning.
KAPITEL V
AFSLUTTENDE BESTEMMELSER
Artikel 13
Udøvelse af de delegerede beføjelser
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 4, stk. 2, tillægges Kommissionen for en periode på fem år fra [datoen for denne forordnings anvendelse].
3. Den i artikel 4, stk. 2, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen det stående tekniske udvalg for højrisiko-AI-systemer (TCRAI-udvalget), i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.
6. En delegeret retsakt vedtaget i henhold til artikel 4, stk. 2, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på to måneder fra meddelelsen af den pågældende retsakt, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har informeret Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med to måneder på Europa-Parlamentets eller Rådets initiativ.
Artikel 14
Revision
Senest den 1. januar 202X [3 år fra datoen for denne forordnings anvendelse] og derefter hvert tredje år forelægger Kommissionen Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg en detaljeret rapport med en gennemgang af denne forordning i lyset af den videre udvikling af kunstig intelligens.
I forbindelse med udarbejdelsen af den i første afsnit omhandlede rapport anmoder Kommissionen om relevante oplysninger fra medlemsstaterne vedrørende retspraksis, retsforlig og ulykkesstatistikker, som f.eks. antallet af uheld, skadestilfælde, involverede AI-ansøgninger og udbetalt erstatning fra forsikringsselskaber, samt en vurdering af antallet af erstatningskrav fra de berørte personer, enten individuelt eller kollektivt, og af sagsbehandlingstiden for disse krav ved domstolene.
Kommissionens rapport ledsages om nødvendigt af forslag til lovgivningsmæssige retsakter med det formål at udfylde eventuelle huller, der er påpeget i rapporten.
Artikel 15
Ikrafttræden
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende.
Den anvendes fra den 1. januar 202X.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
Udfærdiget i …, den …
På Europa-Parlamentets vegne
Formand
På Rådets vegne
Formand
BILAG
[…]
(1) EUT …
(2) EUT …
(3) Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
(4) EUT L 123 af 12.5.2016, s. 1.
(5) Se s. 24 i Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens — en europæisk tilgang til ekspertise og tillid (COM(2020)0065).
(6) Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).
(7) Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
(8) Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008 og (EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
(9) Skal revideres af Europa-Kommissionen som beskrevet i punkt 19 i forslaget til beslutning.