Resumé
|
Konsekvensanalyse af initiativet om civilretligt ansvar for skader forårsaget af kunstig intelligens
|
A. Behov for handling
|
Hvad er problemet, og hvorfor udgør det et problem på EU-plan?
|
Udrulningen af kunstig intelligens er både en målsætning for Kommissionen og en forventet tendens. Selv om AI-baserede produkter/tjenester forventes at være sikrere end traditionelle produkter/tjenester, vil der stadig forekomme ulykker.
De nuværende regler om erstatningsansvar, navnlig nationale regler baseret på culpa, er ikke tilpasset til at behandle erstatningskrav for skader forårsaget af AI-baserede produkter/tjenester. I henhold til sådanne regler skal skadelidte bevise, at en person, der har forvoldt skaden, har gjort sig skyldig i en uretmæssig handling/undladelse. De særlige karakteristika ved kunstig intelligens, herunder autonomi og uigennemsigtighed (den såkaldte "sorte boks"-effekt), gør det vanskeligt eller uoverkommeligt dyrt at identificere den ansvarlige person og bevise kravene for et vellykket erstatningskrav.
Kommissionen ønsker at undgå, at ofre for skader forårsaget af kunstig intelligens, f.eks. borgere og virksomheder, er mindre beskyttet end ofre for traditionelle teknologier. En sådan mangel på kompensation kan påvirke deres tillid til kunstig intelligens og i sidste ende udbredelsen af AI-baserede produkter/tjenester.
Det er usikkert, hvordan de nationale ansvarsregler kan anvendes på de særlige forhold, der gør sig gældende for kunstig intelligens. Hertil kommer, at domstolene, når de står over for et resultat, som er uretfærdigt for offeret, kan anvende de eksisterende regler på ad hoc-basis for at nå frem til et retfærdigt resultat. Dette vil skabe retsusikkerhed. Som følge heraf vil erhvervslivet have vanskeligt ved at forudsige, hvordan de eksisterende ansvarsregler vil blive anvendt i tilfælde af skader. De vil således have vanskeligt ved at vurdere og forsikre deres eksponering for ansvar. Denne indvirkning forstærkes i tilfælde af virksomheder, der er aktive på tværs af grænserne, da usikkerheden vil dække forskellige jurisdiktioner. Den vil især berøre SMV'er, som ikke kan trække på intern juridisk ekspertise eller kapitalreserver.
Det forventes også, at medlemsstaterne, hvis EU ikke handler, vil tilpasse deres nationale ansvarsregler til udfordringerne i forbindelse med kunstig intelligens. Dette vil føre til yderligere fragmentering og øge omkostningerne for virksomheder, der er aktive på tværs af grænserne.
|
Hvilke resultater skal der opnås?
|
Initiativet lever op til Kommissionens prioritet for den digitale omstilling. Det overordnede mål er at fremme udbredelsen af pålidelig kunstig intelligens for at høste de fulde fordele ved kunstig intelligens. Hvidbogen om kunstig intelligens har derfor til formål at skabe et tillidsbaseret økosystem for at fremme udbredelsen af kunstig intelligens. Initiativet om erstatningsansvar er en nødvendig følge af sikkerhedsregler, der er tilpasset kunstig intelligens, og supplerer dermed retsakten om kunstig intelligens.
Initiativet vedrørende kunstig intelligens vil:
-sikre, at ofre for AI-baserede produkter/tjenester beskyttes på samme måde som ofre for traditionelle teknologier
-mindske retsusikkerheden med hensyn til ansvarseksponeringen for virksomheder, der udvikler eller anvender kunstig intelligens
-forhindre, at der opstår fragmenterede AI-specifikke tilpasninger af de nationale regler om civilretligt ansvar.
|
Hvad er merværdien ved at handle på EU-plan (nærhedsprincippet)?
|
For at fremme udbredelsen af kunstig intelligens i Europa er det nødvendigt at åbne EU's indre marked for de økonomiske aktører, der ønsker at udvikle eller indføre kunstig intelligens i deres virksomheder.
Forudsætningerne er at mindske retsusikkerheden og forhindre fragmentering, hvis medlemsstaterne selv begynder at tilpasse de nationale regler forskelligt.
Konservative skøn tyder på, at tiltag på EU-plan vedrørende ansvar for kunstig intelligens vil have en positiv indvirkning på produktionsværdien af den relevante grænseoverskridende handel på 5-7 % sammenlignet med referencescenariet.
|
B. Løsninger
|
Hvilke løsninger er der overvejet for at nå målene? Foretrækkes en bestemt løsning frem for andre? Hvis ikke, hvorfor?
|
Løsningsmodel 1: tre foranstaltninger til at lette skadelidtes byrde med hensyn til at bevise deres erstatningskrav:
a) Harmonisering af, hvordan de oplysninger, der registreres/dokumenteres i henhold til produktsikkerhedsreglerne i retsakten om kunstig intelligens, kan videregives i retssager, således at offeret kan identificere og bevise, hvilken handling/undladelse der har ført til den lidte skade.
b) Hvis offeret påviser, at den ansvarlige person ikke overholdt de sikkerhedskrav i retsakten om kunstig intelligens, der har til formål at forebygge skade, kan domstolene antage, at denne manglende overholdelse forårsagede skaden. Den potentielt ansvarlige person vil have mulighed for at afkræfte en sådan formodning, f.eks. ved at bevise, at skaden er forårsaget af en anden årsag.
c) Hvis offerets eneste måde at bevise erstatningskravet på er at påvise, hvad der skete internt i den kunstige intelligens, vil en sådan byrde for offeret blive lettet. Den potentielt ansvarlige person vil have mulighed for at bevise, at vedkommende ikke har udvist forsømmelighed.
Løsningsmodel 2: foranstaltningerne under løsningsmodel 1 +, der harmonisering af en ordning med objektivt ansvar for AI-brugssager med en særlig risikoprofil. Objektivt ansvar betyder, at en person, der udsætter offentligheden for en risiko (ofte for juridiske interesser af høj værdi (liv, sundhed, ejendom)) og drager fordel heraf, er ansvarlig, hvis en sådan risiko opstår, f.eks. ansvaret for en bilejer. I sådanne tilfælde skal skadelidte kun bevise, at den lidte skade skyldes den ansvarliges risikosfære. Dette kan kombineres med en obligatorisk forsikring.
Løsningsmodel 3: trinvis tilgang (foretrukken løsningsmodel) bestående af en
— første etape: foranstaltningerne under løsningsmodel 1
— anden etape: en revisionsmekanisme, der skal revurdere behovet for at harmonisere det objektive ansvar for AI-brugssager med en særlig risikoprofil (eventuelt kombineret med en obligatorisk forsikring).
|
Hvad er de forskellige interessenters synspunkter? Hvem støtter hvilken løsning?
|
Generelt var de fleste interessenter enige i de identificerede problemer, og de støttede tiltag på EU-plan.
EU-borgere, forbrugerorganisationer og akademiske institutioner bekræftede i overvældende grad behovet for en EU-indsats for at lette ofrenes problemer med bevisbyrden. Selv om virksomhederne erkendte de negative virkninger af usikkerheden omkring anvendelsen af ansvarsreglerne, var de mere forsigtige og anmodede om en målrettet indsats for at undgå at begrænse innovationen.
Et lignende billede viste sig med hensyn til de politiske løsningsmodeller. EU-borgere, forbrugerorganisationer og akademiske institutioner støttede som minimum kraftigt foranstaltningerne vedrørende bevisbyrden. De slog også til lyd for den stærkeste foranstaltning, der harmoniserer objektivt ansvar kombineret med obligatorisk forsikring.
Virksomhederne var mere splittede, også afhængigt af deres størrelse. Objektivt ansvar blev anset for uforholdsmæssigt. Harmoniseringen af lempelserne af bevisbyrden fik mere støtte, navnlig blandt SMV'er. Virksomhederne advarede dog mod en fuldstændig omvendelse af bevisbyrden.
|
C. Den foretrukne løsnings virkninger
|
Hvilke fordele er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes — ellers fordelene ved de vigtigste af de mulige løsninger)?
|
Den foretrukne løsningsmodel vil sikre, at ofre for AI-baserede produkter og tjenester (fysiske personer, virksomheder og andre offentlige eller private enheder) ikke er mindre beskyttet end ofre for traditionelle teknologier. Det vil øge tilliden til kunstig intelligens og fremme udbredelsen heraf.
Desuden vil initiativet mindske retsusikkerheden og forhindre fragmentering og dermed hjælpe virksomheder og frem for alt SMV'er, der ønsker at udnytte EU's indre markeds fulde potentiale ved at udbrede AI-baserede produkter og tjenester på tværs af grænserne.
Initiativet vil også forbedre betingelserne for, at forsikringsselskaberne kan tilbyde dækning af AI-relaterede aktiviteter, hvilket navnlig er afgørende for, at SMV'er kan håndtere deres risici.
Med hensyn til miljømæssige fordele forventes initiativet at skabe effektivitet og bidrage til innovation af miljøvenlige teknologier.
De banebrydende produkter og tjenesteydelser, som dette initiativ sigter mod at fremme, er for størstedelens vedkommende endnu ikke på markedet. De foreslåede foranstaltninger er på forkant med udviklingen, da de tilpasser den retlige ramme til de specifikke behov og udfordringer i forbindelse med kunstig intelligens med henblik på at skabe et økosystem af tillid og retssikkerhed.
På grund af denne fremadrettede politiske tilgang foreligger der ikke tilstrækkelige data til at kvantificere virkningerne af den foretrukne løsningsmodel. Disse virkninger blev derfor hovedsagelig vurderet kvalitativt under hensyntagen til alle tilgængelige data, ekspertskøn og input fra interessenter. På grundlag af begrundede antagelser blev der anvendt nogle kvantificeringsmetoder.
Det anslås nemlig, at den foretrukne løsningsmodel vil generere en øget markedsværdi for kunstig intelligens i EU-27 på mellem ca. 500 mio. EUR og ca. 1,1 mia. EUR i 2025. Desuden tyder en mikroøkonomisk analyse baseret på markedsdata for robotstøvsugere på, at initiativet vil medføre en stigning i den samlede velfærd på 30,11-53,74 mio. EUR alene for denne produktkategori i EU-27.
|
Hvilke omkostninger er der ved den foretrukne løsning (hvis en bestemt løsning foretrækkes — ellers omkostningerne ved de vigtigste af de mulige løsninger)?
|
Den foretrukne løsningsmodel forhindrer mangler i ansvaret som følge af de særlige karakteristika ved kunstig intelligens. Det vil sikre, at i de tilfælde, hvor de særlige karakteristika ved kunstig intelligens ikke ville have gjort det muligt for offeret at bevise de nødvendige kendsgerninger, er det den person, der er ansvarlig for skaden, der bærer omkostningerne i stedet for offeret.
Dette er i overensstemmelse med et af de grundlæggende formål med erstatningsretten, nemlig at sikre, at en person, der skader en anden person ulovligt, yder erstatning for den skade, der er påført offeret. Det er også en naturlig del af Kommissionens politiske mål om at sikre, at ofre for skader forårsaget af AI-systemer har samme beskyttelsesniveau som ofre for skader forårsaget af traditionelle teknologier. Det fører til en mere effektiv omkostningsfordeling til den person, der faktisk har forvoldt skaden, og som er bedst i stand til at forhindre, at der opstår skade.
Potentielt ansvarlige personer (navnlig virksomheder, der er aktive på AI-markedet) er højst sandsynligt dækket af forsikringer. Forsikringsløsninger gør det muligt at fordele ansvarsbyrden over hele samfundet og dermed begrænse de ansvarliges omkostninger til de årlige forsikringspræmier. De forsikrede vil derfor kun opleve udgifterne til erstatning til skadelidte som en marginal stigning i deres forsikringspræmier.
Det var ikke muligt at foretage en meget robust og præcis kvantificering af omkostningerne, fordi de banebrydende produkter og tjenester, der fremmes af dette initiativ, for størstedelens vedkommende endnu ikke er på markedet. På grundlag af de foreliggende data, ekspertanalyser og begrundede antagelser blev det anslået, at den foretrukne løsningsmodel kan føre til en stigning i det samlede beløb for generelle ansvarsforsikringspræmier, der betales årligt i EU, på 5,35 mio. EUR til 16,1 mio. EUR.
|
Hvordan påvirker den foretrukne løsning SMV'er og konkurrenceevnen?
|
Ved at forbedre betingelserne for et velfungerende indre marked for AI-baserede produkter og tjenester vil initiativet have en positiv indvirkning på konkurrenceevnen for virksomheder, der er aktive på det europæiske marked for kunstig intelligens. Disse virksomheder vil blive mere konkurrencedygtige på globalt plan, hvilket vil styrke EU's position over for konkurrenterne i det globale AI-kapløb (primært USA og Kina). Da kunstig intelligens er en tværgående støtteteknologi, vil disse fordele ikke være begrænset til visse specifikke sektorer, men gælde — om end i varierende grad — i alle sektorer, hvor kunstig intelligens udvikles eller anvendes.
SMV'er vil i endnu højere grad end andre interessenter drage fordel af mindre retsusikkerhed og fragmentering, fordi de er mere berørt af disse problemer i henhold til de nuværende ansvarsregler. Dette initiativ vil forbedre vilkårene, navnlig for SMV'er, der ønsker at udrulle AI-baserede produkter eller tjenester i andre medlemsstater. Dette er afgørende, fordi EU's marked for kunstig intelligens i vid udstrækning drives af SMV'er, der udvikler, udbreder eller anvender AI-teknologier.
SMV'er vil også drage fordel af dette initiativ som ofre for skader forårsaget af kunstig intelligens, da de kan regne med en lettelse af deres bevisbyrde for at kræve erstatning.
|
Vil den foretrukne løsning få væsentlige virkninger for de nationale budgetter og myndigheder?
|
Der forventes ingen væsentlige virkninger for de nationale budgetter og myndigheder.
De påtænkte foranstaltninger, der letter ofres bevisbyrde, kan uden problemer integreres i medlemsstaternes eksisterende proceduremæssige og civilretlige rammer.
Medlemsstaterne skal aflægge rapport om gennemførelsen af initiativet og fremlægge visse oplysninger med henblik på Kommissionens målrettede revision. Disse rapporteringskrav vil imidlertid være begrænset til oplysninger, der er tilgængelige via medlemsstaternes eksisterende databaser, og oplysninger, der indberettes i henhold til andre retlige instrumenter (f.eks. retsakten om kunstig intelligens eller direktivet om motorkøretøjsforsikring), hvilket vil skabe synergier og sikre sammenhæng mellem fremtidige politiske foranstaltninger på tværs af forskellige politikområder.
|
Vil den foretrukne løsning få andre væsentlige virkninger?
|
Grundlæggende rettigheder: Initiativet vil bidrage til at støtte en effektiv privat håndhævelse af grundlæggende rettigheder og bevare retten til effektive retsmidler, når de grundlæggende rettigheder, der er forbundet med kunstig intelligens (f.eks. forskelsbehandling), er blevet til virkelighed.
Den internationale dimension: Ved at foreslå en afbalanceret tilgang til erstatningsansvar for skader forårsaget af kunstig intelligens har EU mulighed for at fastsætte et globalt benchmark og fremme sin tilgang som en global løsning, hvilket i sidste ende vil skabe en konkurrencefordel for "AI fremstillet i Europa".
|
Proportionalitet?
|
Den foretrukne løsningsmodel er udformet med henblik på at bane vejen for udvikling og anvendelse af kunstig intelligens og samtidig nå hovedmålet om at fremme udbredelsen heraf i EU.
Denne mulighed vil dog ikke gå ud over, hvad der er nødvendigt. For det første er EU's indsats målrettet, fordi den kun vil lette bevisbyrden for ofrene. Den vil kun harmonisere de ansvarselementer, der udfordres af kunstig intelligens, og overlade andre elementer såsom fastlæggelse af skyld og årsagssammenhæng til den eksisterende nationale lovgivning.
For det andet udsætter den foretrukne løsningsmodel vurderingen af behovet for at harmonisere det objektive ansvar til et senere tidspunkt, hvor der kan indsamles flere oplysninger om kunstig intelligens og anvendelsen heraf (se nedenfor).
For det tredje vil den foretrukne løsningsmodel foreslå en tilgang med minimumsharmonisering. Selv om en minimumsharmonisering ikke skaber helt lige vilkår, sikrer den, at de nye regler problemfrit kan integreres i de eksisterende retlige rammer for civilretligt ansvar i de enkelte medlemsstater.
Medlemsstaterne vil således kunne integrere de målrettede EU-interventioner med den foretrukne løsning i deres nationale lovgivning, og initiativet vil øge retssikkerheden i hele EU, forhindre yderligere retlig fragmentering og sikre en effektiv beskyttelse af ofre, som kan sammenlignes med beskyttelsesniveauet for andre skader.
|
D. Opfølgning
|
Hvornår vil foranstaltningen blive taget op til fornyet overvejelse?
|
Den foretrukne løsningsmodel består af en trinvis tilgang: først at indføre foranstaltninger for at lette skadelidtes bevisbyrde og derefter, på grundlag af en revisionsklausul, at vurdere situationen fem år senere. Denne proces vil gøre det muligt for Kommissionen i lyset af udviklingen af teknologien og dens anvendelse at vurdere, om der ud over de foranstaltninger, der letter bevisbyrden, også er behov for en harmonisering af objektivt ansvar og obligatorisk forsikring.
|