Bruselj, 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Predlog

DIREKTIVA EVROPSKEGA PARLAMENTA IN SVETA

o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci
(direktiva o odgovornosti na področju umetne inteligence)

(Besedilo velja za EGP)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


OBRAZLOŽITVENI MEMORANDUM

1.OZADJE PREDLOGA

·Razlogi za predlog in njegovi cilji

Ta obrazložitveni memorandum je priložen predlogu direktive o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci. V reprezentativni raziskavi iz leta 2020 1 je bila odgovornost uvrščena med tri največje ovire za uporabo umetne inteligence v evropskih podjetjih. Navedena je bila kot najpomembnejša zunanja ovira (43 %) za podjetja, ki načrtujejo uporabo umetne inteligence, vendar tega še niso storila.

Predsednica Komisije Ursula von der Leyen je v svojih političnih usmeritvah predstavila usklajen evropski pristop k umetni inteligenci 2 . Komisija se je v beli knjigi o umetni inteligenci z dne 19. februarja 2020 3 zavezala, da bo spodbujala uporabo umetne inteligence in obravnavala tveganja, povezana z nekaterimi njenimi uporabami, s spodbujanjem odličnosti in zaupanja. Komisija je v poročilu o odgovornosti v zvezi z umetno inteligenco 4 , priloženem beli knjigi, opredelila posebne izzive, ki jih umetna inteligenca prinaša za obstoječa pravila o odgovornosti. Svet je v sklepih o oblikovanju digitalne prihodnosti Evrope z dne 9. junija 2020 pozdravil posvetovanje o predlogih politike iz bele knjige o umetni inteligenci in pozval Komisijo, naj predloži konkretne predloge. Evropski parlament je 20. oktobra 2020 sprejel zakonodajno resolucijo na lastno pobudo v skladu s členom 225 PDEU, v kateri je Komisijo pozval, naj sprejme predlog za ureditev civilne odgovornosti za umetno inteligenco na podlagi člena 114 Pogodbe o delovanju EU (PDEU) 5 .

Veljavna nacionalna pravila o odgovornosti, zlasti na podlagi krivde, niso primerna za obravnavanje odškodninskih zahtevkov za škodo, ki jo povzročijo umetnointeligenčno omogočeni proizvodi in storitve. V skladu s temi pravili morajo oškodovanci dokazati, da je bilo dejanje osebe, ki je povzročila škodo, ali opustitev njenega dejanja nezakonito. Posebne značilnosti umetne inteligence, vključno s kompleksnostjo, samostojnostjo in nepreglednostjo (tako imenovani učinek „črne skrinjice“), lahko oškodovancem otežijo ali pretirano podražijo identifikacijo odgovorne osebe in utemeljevanje zahtev za uspešen odškodninski zahtevek. Zlasti pri uveljavljanju odškodnine bi oškodovanci lahko imeli zelo visoke vnaprejšnje stroške in se soočali s precej daljšimi sodnimi postopki kot v zadevah, ki ne vključujejo umetne inteligence. Oškodovanci so torej lahko odvrnjeni od tega, da bi sploh zahtevali odškodnino. Te pomisleke je navedel tudi Evropski parlament v svoji resoluciji z dne 3. maja 2022 o umetni inteligenci v digitalni dobi.  6

Če oškodovanec vloži zahtevek, lahko nacionalna sodišča zaradi posebnih značilnosti umetne inteligence prilagodijo način uporabe obstoječih pravil na ad hoc osnovi, da pridejo do pravičnega rezultata za oškodovanca. To bo povzročilo pravno negotovost. Podjetja bodo imela težave pri napovedovanju, kako se bodo uporabljala obstoječa pravila o odgovornosti, ter zato tudi pri ocenjevanju in zavarovanju svoje izpostavljenosti odgovornosti. Učinek se bo povečal za podjetja, ki trgujejo prek meja, saj bo negotovost zajemala različne jurisdikcije. To bo vplivalo zlasti na mala in srednja podjetja (MSP), ki se ne morejo zanašati na interno pravno strokovno znanje ali kapitalske rezerve.

Nacionalne strategije za umetno inteligenco kažejo, da več držav članic razmišlja o zakonodajnih ukrepih o civilni odgovornosti za umetno inteligenco ali jih celo konkretno načrtuje. Zato se pričakuje, da bodo države članice, če EU ne bo ukrepala, svoja nacionalna pravila o odgovornosti prilagodile izzivom umetne inteligence. To bo povzročilo nadaljnjo razdrobljenost in višje stroške za podjetja, dejavna po vsej EU.

Odprto javno posvetovanje, ki je prispevalo k oceni učinka tega predloga, je potrdilo zgoraj pojasnjene težave. Po mnenju javnosti lahko učinek „črne skrinjice“ oškodovancu oteži dokazovanje krivde in vzročnosti, poleg tega pa lahko obstaja negotovost glede tega, kako bodo sodišča razlagala in uporabljala obstoječa nacionalna pravila o odgovornosti v zadevah, ki vključujejo umetno inteligenco. Poleg tega je posvetovanje pokazalo zaskrbljenost javnosti glede tega, kako bi zakonodajni ukrepi za prilagoditev pravil o odgovornosti, ki bi jih uvedle posamezne države članice, in posledična razdrobljenost vplivali na stroške za podjetja, zlasti MSP, kar bi preprečilo uporabo umetne inteligence v Uniji.

Zato je cilj tega predloga spodbujati uvajanje zaupanja vredne umetne inteligence, da bi v celoti izkoristili njene prednosti za notranji trg. V ta namen zagotavlja, da so oškodovanci, ki jim je bila povzročena škoda zaradi uporabe umetne inteligence, deležni enake zaščite kot oškodovanci, ki jim je bila povzročena škoda zaradi uporabe proizvodov na splošno. Prav tako zmanjšuje pravno negotovost podjetij, ki razvijajo ali uporabljajo umetno inteligenco, glede njihove morebitne izpostavljenosti odgovornosti in preprečuje nastanek razdrobljenih prilagoditev nacionalnih pravil o civilni odgovornosti umetni inteligenci.

·Skladnost z veljavnimi predpisi s področja zadevne politike

Ta predlog je del svežnja ukrepov za podporo uvajanja umetne inteligence v Evropi s spodbujanjem odličnosti in zaupanja. Ta sveženj zajema tri dopolnjujoča se področja dela:

zakonodajni predlog, ki določa horizontalna pravila o umetnointeligenčnih sistemih (akt o umetni inteligenci) 7 ;

pregled sektorskih in horizontalnih pravil o varnosti proizvodov;

pravila EU za obravnavo vprašanj odgovornosti, povezanih z umetnointeligenčnimi sistemi.

Komisija je v predlogu akta o umetni inteligenci predlagala pravila, katerih namen je zmanjšati tveganja za varnost in zaščititi temeljne pravice. Varnost in odgovornost sta dve plati iste medalje: uporabljata se ob različnih priložnostih in se medsebojno krepita. Pravila za zagotavljanje varnosti in varstvo temeljnih pravic bodo sicer zmanjšala tveganja, vendar jih ne bodo v celoti odpravila 8 . Če se tako tveganje uresniči, še vedno lahko pride do škode. V takih primerih se bodo uporabljala pravila o odgovornosti iz tega predloga.

Učinkovita pravila o odgovornosti zagotavljajo tudi gospodarsko spodbudo za izpolnjevanje varnostnih predpisov in tako prispevajo k preprečevanju nastanka škode 9 . Poleg tega ta predlog prispeva k izvrševanju zahtev za umetnointeligenčne sisteme velikega tveganja, ki jih nalaga akt o umetni inteligenci, saj je neizpolnjevanje teh zahtev pomemben element, ki sproži zmanjšanje dokaznega bremena. Ta predlog je skladen tudi s predlaganimi splošnimi 10 in sektorskimi pravili za varnost proizvodov, ki se uporabljajo za umetnointeligenčno omogočene stroje in strojno opremo 11 ter radijsko opremo 12 .

Komisija v svoji politiki na področju umetne inteligence uporablja celosten pristop k odgovornosti, tako da predlaga prilagoditve odgovornosti proizvajalca za proizvode z napako v skladu z direktivo o odgovornosti za proizvode ter ciljno usmerjeno usklajevanje v okviru tega predloga. Ti dve politični pobudi sta tesno povezani in tvorita sveženj, saj se zahtevki, ki spadajo na njuno področje uporabe, nanašajo na različne vrste odgovornosti. Direktiva o odgovornosti za proizvode zajema nekrivdno odgovornost proizvajalca za proizvode z napako, ki privede do odškodnine za nekatere vrste škode, ki so jo utrpeli predvsem posamezniki. Ta predlog zajema nacionalne odškodninske zahtevke, ki temeljijo predvsem na krivdi katere koli osebe z namenom odškodnine za kakršno koli škodo in katero koli vrsto oškodovanca. Akta se dopolnjujeta in tvorita splošno učinkovit sistem civilne odgovornosti.

Ta pravila bodo skupaj spodbujala zaupanje v umetno inteligenco (in druge digitalne tehnologije), saj bodo zagotavljala, da oškodovanci prejmejo dejansko odškodnino, če škoda nastane kljub preventivnim zahtevam iz akta o umetni inteligenci in drugim varnostnim pravilom.

·Skladnost z drugimi politikami Unije

Predlog je v skladu s splošno digitalno strategijo Unije, saj prispeva k spodbujanju tehnologije, ki deluje za ljudi, kar je eden od treh glavnih stebrov usmeritve in ciljev politike, navedenih v sporočilu „Oblikovanje digitalne prihodnosti Evrope“ 13 .

V zvezi s tem je cilj tega predloga vzpostaviti zaupanje v umetno inteligenco in povečati njeno uporabo. S tem se bodo dosegle sinergije, predlog pa bo dopolnil [akt o kibernetski odpornosti] 14 , katerega cilj je prav tako povečati zaupanje v proizvode z digitalnimi elementi z zmanjšanjem kibernetske ranljivosti ter bolje zaščititi poslovne in potrošniške uporabnike.

Ta predlog ne vpliva na pravila, določena v [aktu o digitalnih storitvah], ki zagotavljajo celovit in popolnoma usklajen okvir za obveznosti potrebne skrbnosti za algoritemsko odločanje spletnih platform, vključno z njegovo izjemo od odgovornosti za ponudnike posredniških storitev.

Poleg tega je ta predlog s spodbujanjem uvajanja umetne inteligence povezan s pobudami v okviru strategije EU za podatke 15 . Krepi tudi vlogo Unije pri oblikovanju svetovnih norm in standardov ter spodbujanju zaupanja vredne umetne inteligence, ki je v skladu z vrednotami in interesi Unije.

Predlog je tudi posredno povezan z evropskim zelenim dogovorom 16 . Digitalne tehnologije, vključno z umetno inteligenco, so zlasti ključnega pomena za doseganje trajnostnih ciljev zelenega dogovora v številnih različnih sektorjih (vključno z zdravstvom, prometom, okoljem in kmetijstvom).

·Glavni gospodarski, družbeni in okoljski vplivi

Direktiva bo prispevala k uvajanju umetne inteligence. Pogoje za uvajanje in razvoj tehnologij umetne inteligence na notranjem trgu je mogoče veliko bolje urediti s preprečevanjem razdrobljenosti in povečanjem pravne varnosti z usklajenimi ukrepi na ravni EU kot z morebitnimi prilagoditvami pravil o odgovornosti na nacionalni ravni. V ekonomski študiji 17 , na kateri temelji ocena učinka tega predloga, je bilo kot previdna ocena ugotovljeno, da bi imeli ciljno usmerjeni usklajevalni ukrepi v zvezi s civilno odgovornostjo za umetno inteligenco pozitiven vpliv v višini 5–7 % proizvodne vrednosti zadevne čezmejne trgovine v primerjavi z osnovnim scenarijem. Ta dodana vrednost bi nastala zlasti zaradi manjše razdrobljenosti in večje pravne varnosti v zvezi z izpostavljenostjo odgovornosti na strani deležnikov. To bi zmanjšalo stroške pravnih informacij oziroma zastopanja, notranjega obvladovanja tveganj in izpolnjevanja obveznosti deležnikov, olajšalo finančno načrtovanje in ocene tveganja za zavarovalne namene ter podjetjem, zlasti MSP, omogočilo raziskovanje novih čezmejnih trgov. Na podlagi skupne vrednosti trga umetne inteligence v EU, na katerega vplivajo težave, povezane z odgovornostjo, ki jih obravnava ta direktiva, se ocenjuje, da bo ta direktiva ustvarila dodatno tržno vrednost med približno 500 milijoni EUR in približno 1,1 milijarde EUR.

Kar zadeva družbene učinke, bo Direktiva povečala zaupanje družbe v tehnologije umetne inteligence in dostop do učinkovitega pravosodnega sistema. Prispevala bo k učinkoviti ureditvi civilne odgovornosti, prilagojeni posebnostim umetne inteligence, v primerih, ko so upravičeni zahtevki za odškodnino uspešni. Povečanje zaupanja družbe bi koristilo tudi vsem podjetjem v umetnointeligenčni vrednostni verigi, saj bo krepitev zaupanja državljanov prispevala k hitrejšemu uvajanju umetne inteligence. Zaradi spodbujevalnega učinka pravil o odgovornosti bi preprečevanje vrzeli v odgovornosti posredno koristilo tudi vsem državljanom, in sicer z višjo ravnjo varovanja zdravja in varnosti (člen 114(3) PDEU) ter odpravo virov tveganj za zdravje (člen 168(1) PDEU).

Kar zadeva vplive na okolje, se pričakuje, da bo Direktiva prispevala tudi k doseganju s tem povezanih splošnih in konkretnih ciljev trajnostnega razvoja. Uporaba umetnointeligenčnih aplikacij je koristna za okolje. Zaradi umetnointeligenčnih sistemov, ki se uporabljajo pri optimizaciji procesov, so na primer postopki manj potratni (zmanjša se denimo količina potrebnih gnojil in pesticidov, zmanjša se poraba vode ob enakem donosu itd.). Direktiva bi pozitivno vplivala tudi na cilje trajnostnega razvoja, saj bo učinkovita zakonodaja o preglednosti, odgovornosti in temeljnih pravicah usmerila potencial umetne inteligence v korist posameznikov in družbe pri doseganju teh ciljev.

2.PRAVNA PODLAGA, SUBSIDIARNOST IN SORAZMERNOST

·    Pravna podlaga

Pravna podlaga tega predloga je člen 114 PDEU, ki določa sprejetje ukrepov za zagotovitev vzpostavitve in delovanja notranjega trga.

Namen tega predloga je odpraviti zlasti pravno negotovost in pravno razdrobljenost, ki ovirata razvoj notranjega trga in tako znatno ovirata tudi čezmejno trgovino z umetnointeligenčno omogočenimi proizvodi in storitvami.

Predlog obravnava ovire, ki izhajajo iz dejstva, da podjetja, ki želijo čezmejno proizvajati, razširjati in upravljati umetnointeligenčno omogočene proizvode in storitve, niso prepričana, ali in kako se obstoječe ureditve odgovornosti uporabljajo za škodo, ki jo povzroči umetna inteligenca. Ta negotovost zadeva zlasti države članice, kamor bodo podjetja izvažala svoje proizvode in storitve ali jih tam upravljala. V čezmejnem okviru je pravo, ki se uporablja za nepogodbeno odgovornost, nastalo iz škodnega dejanja, pravo države, v kateri je škoda nastala. Za ta podjetja je bistveno, da poznajo ustrezna tveganja v zvezi z odgovornostjo in da se lahko zavarujejo proti njim.

Poleg tega obstajajo konkretni znaki, da več držav članic razmišlja o enostranskih zakonodajnih ukrepih za reševanje posebnih izzivov, ki jih prinaša umetna inteligenca v zvezi z odgovornostjo. Strategije za umetno inteligenco, sprejete na Češkem 18 , v Italiji 19 , na Malti 20 , Poljskem 21 in Portugalskem 22 , na primer omenjajo pobude za pojasnitev odgovornosti. Glede na velike razlike med obstoječimi pravili držav članic o civilni odgovornosti je verjetno, da bi vsak nacionalni ukrep v zvezi z odgovornostjo, sprejet prav za umetno inteligenco, sledil obstoječim različnim nacionalnim pristopom in tako povečal razdrobljenost.

Zato bi prilagoditve pravil o odgovornosti, sprejete na izključno nacionalni ravni, povečale ovire za uvajanje umetnointeligenčno omogočenih proizvodov in storitev na notranjem trgu ter dodatno prispevale k razdrobljenosti.

·Subsidiarnost

Ciljev tega predloga ni mogoče ustrezno doseči na nacionalni ravni, saj bi nastajajoča raznolika nacionalna pravila povečala pravno negotovost in razdrobljenost ter ustvarila ovire za uvajanje umetnointeligenčno omogočenih proizvodov in storitev na celotnem notranjem trgu. Pravna negotovost bi zlasti vplivala na podjetja, ki delujejo čezmejno, saj bi povzročila potrebo po dodatnih pravnih informacijah/zastopanju, stroške obvladovanja tveganja in izpad prihodka. Hkrati bi različna nacionalna pravila o odškodninskih zahtevkih za škodo, ki jo je povzročila umetna inteligenca, povečala transakcijske stroške za podjetja, zlasti za čezmejno trgovino, kar bi pomenilo znatne ovire na notranjem trgu. Poleg tega pravna negotovost in razdrobljenost nesorazmerno vplivata na zagonska podjetja in MSP, ki predstavljajo večino podjetij in velik delež naložb na zadevnih trgih.

Brez usklajenih pravil EU za povrnitev škode, ki jo povzročijo umetnointeligenčni sistemi, bi se ponudniki, operaterji in uporabniki umetnointeligenčnih sistemov na eni strani ter oškodovanci na drugi strani soočali s 27 različnimi ureditvami odgovornosti, kar bi privedlo do različnih ravni varstva in izkrivljanja konkurence med podjetji iz različnih držav članic.

Usklajeni ukrepi na ravni EU bi znatno izboljšali pogoje za uvajanje in razvoj tehnologij umetne inteligence na notranjem trgu, saj bi preprečili razdrobljenost in povečali pravno varnost. Ta dodana vrednost bi nastala zlasti zaradi manjše razdrobljenosti in večje pravne varnosti v zvezi z izpostavljenostjo odgovornosti na strani deležnikov. Poleg tega lahko samo ukrepi EU dosledno dosežejo želeni učinek spodbujanja zaupanja potrošnikov v umetnointeligenčno omogočene proizvode in storitve, in sicer s preprečevanjem vrzeli v odgovornosti, povezanih s posebnimi značilnostmi umetne inteligence, na celotnem notranjem trgu. To bi zagotovilo usklajeno (minimalno) raven zaščite za vse oškodovance (posameznike in podjetja) ter skladne spodbude za preprečevanje škode in zagotavljanje odgovornosti.

·Sorazmernost

Predlog temelji na postopnem pristopu. V prvi fazi se cilji dosežejo z minimalno invazivnim pristopom; druga faza vključuje ponovno oceno potrebe po strožjih ali obsežnejših ukrepih.

Prva faza je omejena na ukrepe v zvezi z dokaznim bremenom, s katerimi se obravnavajo ugotovljene težave, povezane z umetno inteligenco. Temelji na vsebinskih pogojih odgovornosti, ki trenutno obstajajo v nacionalnih pravilih, kot sta vzročna zveza ali krivda, vendar se osredotoča na ciljno usmerjene ukrepe, povezane z dokazi, ki zagotavljajo, da imajo oškodovanci enako raven zaščite kot v primerih, ki ne vključujejo umetnointeligenčnih sistemov. Poleg tega so na podlagi različnih orodij, ki so v nacionalni zakonodaji na voljo za zmanjšanje dokaznega bremena 23 , pri tem predlogu uporabljene izpodbojne domneve kot najmanj interventno orodje. Take domneve so običajen del nacionalnih sistemov odgovornosti ter uravnotežajo interese tožečih in toženih strank. Hkrati so zasnovane tako, da spodbujajo izpolnjevanje obstoječih dolžnosti skrbnega ravnanja, določenih na ravni Unije ali nacionalni ravni. Predlog ne bo privedel k obrnitvi dokaznega bremena, saj se želi preprečiti, da bi bili ponudniki, operaterji in uporabniki umetnointeligenčnih sistemov izpostavljeni večjim tveganjem glede odgovornosti, kar bi lahko oviralo inovacije in upočasnilo uvajanje umetnointeligenčno omogočenih proizvodov in storitev.

Druga faza predloga zagotavlja, da se bodo pri ocenjevanju učinka prve faze na zaščito oškodovancev in uvajanje umetne inteligence upoštevali prihodnji tehnološki in regulativni razvoj ter spremembe sodne prakse za ponovno oceno potrebe po uskladitvi drugih elementov zahtevkov za odškodnino ali drugih orodij, povezanih z odškodninskimi zahtevki, tudi v primerih, ko bi bila objektivna odgovornost primernejša, kot je zahteval Evropski parlament. Pri taki oceni bi se verjetno tudi preučilo, ali bi bilo za zagotovitev učinkovitosti tako uskladitev treba povezati z obveznim zavarovanjem.

·Izbira instrumenta

Najprimernejši instrument za ta predlog je direktiva, saj zagotavlja želeni usklajevalni učinek in pravno varnost, hkrati pa državam članicam omogoča prožnost, da usklajene ukrepe povsem gladko vključijo v svoje nacionalne ureditve odgovornosti.

Obvezni instrument bi preprečil vrzeli v zaščiti, ki izhajajo iz delnega izvajanja ali neizvajanja. Čeprav bi bil nezavezujoč instrument manj vsiljiv, pa ni verjetno, da bi učinkovito obravnaval ugotovljene težave. Stopnjo izvajanja nezavezujočih instrumentov je težko predvideti in ni dovolj znakov, da bi bil prepričljivi učinek priporočila dovolj močan, da bi omogočil dosledno prilagoditev nacionalnih zakonodaj.

Ta učinek je še manj verjeten pri ukrepih v zvezi z zasebnim pravom, med katerimi so pravila o nepogodbeni odgovornosti. Za to področje so značilne dolgoletne pravne tradicije, zaradi katerih države članice niso naklonjene usklajenim reformam, razen če jih k temu spodbudijo jasni obeti koristi za notranji trg v okviru zavezujočega instrumenta EU ali potreba po prilagajanju novim tehnologijam v digitalnem gospodarstvu.

Obstoječe znatne razlike med okviri odgovornosti držav članic so še en razlog, zakaj priporočilo verjetno ne bi bilo dosledno izvedeno.

1.REZULTATI NAKNADNIH OCEN, POSVETOVANJ Z DELEŽNIKI IN OCEN UČINKA

·Posvetovanja z deležniki

Izvedena je bila obsežna strategija posvetovanja, da bi se zagotovila široka udeležba deležnikov v celotnem ciklu politike tega predloga. Strategija posvetovanja je temeljila na javnih in več ciljno usmerjenih posvetovanjih (spletni seminarji, dvostranske razprave s podjetji in različnimi organizacijami).

Po prvih vprašanjih o odgovornosti, ki so bila del javnega posvetovanja o beli knjigi o umetni inteligenci in poročila Komisije o varnosti in odgovornosti, je od 18. oktobra 2021 do 10. januarja 2022 potekalo posebno spletno javno posvetovanje, da bi zbrali mnenja najrazličnejših deležnikov, vključno s potrošniki, organizacijami civilne družbe, industrijskimi združenji, podjetji, vključno z MSP, in javnimi organi. Po analizi vseh prejetih odzivov je Komisija na svojem spletnem mestu objavila njihov povzetek in posamezne odzive 24 .

Skupno je bilo prejetih 233 odgovorov na vprašalnik iz 21 držav članic in tretjih držav. Na splošno je večina deležnikov potrdila težave z dokaznim bremenom, pravno negotovostjo in razdrobljenostjo ter podprla ukrepanje na ravni EU.

Državljani EU, potrošniške organizacije in akademske ustanove so v veliki meri potrdili potrebo po ukrepanju EU, da bi oškodovancem zmanjšali težave z dokaznim bremenom. Podjetja so sicer priznala negativne učinke negotovosti v zvezi z uporabo pravil o odgovornosti, vendar so bila previdnejša in so zahtevala ciljno usmerjene ukrepe, s katerimi bi se izognili omejevanju inovacij.

Podobna slika se je pokazala v zvezi z možnostmi politike. Državljani EU, potrošniške organizacije in akademske ustanove so odločno podprli ukrepe v zvezi z dokaznim bremenom in uskladitvijo nekrivdne odgovornosti (t. i. „objektivne odgovornosti“) skupaj z obveznim zavarovanjem. Stališča podjetij so bila bolj razdeljena glede možnosti politike, pri čemer so bile razlike deloma odvisne od njihove velikosti. Večina vprašanih podjetij je menila, da je objektivna odgovornost nesorazmerna. Uskladitev zmanjšanja dokaznega bremena je bila deležna večje podpore, zlasti med MSP. Vendar so podjetja svarila pred popolnim prenosom dokaznega bremena.

Zato je bila prednostna možnost politike razvita in izpopolnjena na podlagi povratnih informacij deležnikov v celotnem postopku ocene učinka, da bi se vzpostavilo ravnovesje med izraženimi potrebami in pomisleki vseh zadevnih skupin deležnikov.

·Zbiranje in uporaba strokovnih mnenj

Predlog temelji na štiriletni analizi in tesnem sodelovanju deležnikov, vključno z akademiki, podjetji, zvezami potrošnikov, državami članicami in državljani. Pripravljalno delo se je začelo leta 2018 z ustanovitvijo strokovne skupine za odgovornost in nove tehnologije (oblikovanje novih tehnologij). Strokovna skupina je novembra 2019 pripravila poročilo 25 , v katerem je ocenila izzive, ki jih nekatere značilnosti umetne inteligence predstavljajo za nacionalna pravila o civilni odgovornosti.

Prispevki iz poročila strokovne skupine so bili dopolnjeni s tremi dodatnimi zunanjimi študijami:

primerjalnopravno študijo, ki temelji na primerjalni pravni analizi evropskega odškodninskega prava in se osredotoča na ključna vprašanja, povezana z umetno inteligenco 26 ;

študijo s področja vedenjske ekonomije o učinkih ciljno usmerjenih prilagoditev ureditve odgovornosti na odločanje potrošnikov, zlasti o njihovem zaupanju in pripravljenosti, da sprejmejo umetnointeligenčno omogočene proizvode in storitve 27 ;

ekonomsko študijo 28 , ki zajema številna vprašanja: izzive, s katerimi se soočajo oškodovanci umetnointeligenčnih aplikacij v primerjavi z oškodovanci naprav, ki niso povezane z umetno inteligenco, ko poskušajo pridobiti odškodnino za svojo izgubo; ali in v kolikšni meri so podjetja negotova glede uporabe veljavnih pravil o odgovornosti za svoje dejavnosti, ki vključujejo umetno inteligenco, in ali lahko učinek pravne negotovosti ovira naložbe v umetno inteligenco; ali bi nadaljnja razdrobljenost nacionalnih zakonov o odgovornosti zmanjšala učinkovitost notranjega trga za umetnointeligenčne aplikacije in storitve ter ali in v kolikšni meri bi uskladitev nekaterih vidikov nacionalne civilne odgovornosti prek zakonodaje EU zmanjšala te težave in olajšala splošno uvajanje umetnointeligenčne tehnologije v podjetjih EU.

·Ocena učinka

Komisija je v skladu s svojo politiko za boljše pravno urejanje izvedla oceno učinka za ta predlog, ki jo je preučil odbor Komisije za regulativni nadzor. Na seji Odbora za regulativni nadzor 6. aprila 2022 je bilo sprejeto pozitivno mnenje s pripombami.

Ocenjene so bile tri možnosti politike:

Možnost politike 1: trije ukrepi za zmanjšanje dokaznega bremena za oškodovance, ki poskušajo utemeljiti svoj odškodninski zahtevek.

Možnost politike 2: ukrepi v okviru možnosti 1 + uskladitev pravil o objektivni odgovornosti za primere uporabe umetne inteligence s posebnim profilom tveganja, skupaj z obveznim zavarovanjem.

Možnost politike 3: postopen pristop, ki ga sestavljajo:

prva faza: ukrepi v okviru možnosti 1;

druga faza: mehanizem pregleda za ponovno oceno zlasti potrebe po uskladitvi objektivne odgovornosti za primere uporabe umetne inteligence s posebnim profilom tveganja (po možnosti skupaj z obveznim zavarovanjem).

Možnosti politike so bile primerjane z analizo več meril ob upoštevanju njihove uspešnosti, učinkovitosti, skladnosti in sorazmernosti. Rezultati analize več meril in občutljivosti kažejo, da je možnost politike 3, ki zmanjšuje dokazno breme za zahtevke, povezane z umetno inteligenco, in ciljno usmerjen pregled v zvezi z objektivno odgovornostjo, po možnosti v povezavi z obveznim zavarovanjem, najboljša in je zato prednostna izbira politike za ta predlog.

Prednostna možnost politike bi zagotovila, da oškodovanci, ki jim je bila povzročena škoda zaradi uporabe umetnointeligenčno omogočenih proizvodov in storitev (fizične osebe, podjetja in drugi javni ali zasebni subjekti), niso manj zaščiteni kot oškodovanci, ki jim je bila povzročena škoda zaradi uporabe tradicionalnih tehnologij. Povečala bi se raven zaupanja v umetno inteligenco in spodbudilo njeno uvajanje.

Poleg tega bi se zmanjšala pravna negotovost in preprečila razdrobljenost, kar bi pomagalo podjetjem, zlasti MSP, ki želijo s čezmejno uvedbo umetnointeligenčno omogočenih proizvodov in storitev v celoti izkoristiti potencial enotnega trga EU. Prednostna možnost politike ustvarja tudi boljše pogoje za zavarovatelje, da ponudijo kritje dejavnosti, povezanih z umetno inteligenco, kar je ključnega pomena za obvladovanje tveganj podjetij, zlasti MSP. Ocenjuje se, da bi prednostna možnost politike ustvarila večjo tržno vrednost umetne inteligence v EU-27, in sicer med približno 500 milijoni EUR in približno 1,1 milijarde EUR leta 2025.

·Temeljne pravice

Ena najpomembnejših nalog pravil o civilni odgovornosti je zagotoviti, da lahko oškodovanci zahtevajo odškodnino. Ta pravila z zagotavljanjem učinkovite odškodnine prispevajo k varstvu pravice do učinkovitega pravnega sredstva in nepristranskega sodišča (člen 47 Listine EU o temeljnih pravicah, v nadaljnjem besedilu: Listina), hkrati pa potencialno odgovorne osebe spodbujajo k preprečevanju škode, da bi se izognile odgovornosti.

Komisija želi s tem predlogom zagotoviti, da bodo oškodovanci, ki jim je bila povzročena škoda zaradi uporabe umetne inteligence, v skladu s pravili o civilni odgovornosti deležni enake ravni zaščite kot oškodovanci, ki jim je bila povzročena škoda brez uporabe umetne inteligence. Predlog bo omogočil učinkovito zasebno uveljavljanje temeljnih pravic in ohranil pravico do učinkovitega pravnega sredstva v primerih, ko se uresničijo tveganja, povezana z umetno inteligenco. Zlasti bo pomagal zaščititi temeljne pravice, kot so pravica do življenja (člen 2 Listine), pravica do telesne in duševne celovitosti (člen 3) ter lastninska pravica (člen 17). Poleg tega bodo lahko oškodovanci odvisno od sistema in tradicije civilnega prava posamezne države članice zahtevali odškodnino za škodo, povzročeno drugim pravnim interesom, kot so kršitve osebnega dostojanstva (člena 1 in 4 Listine), spoštovanje zasebnega in družinskega življenja (člen 7), pravica do enakosti (člen 20) in prepoved diskriminacije (člen 21).

Poleg tega ta predlog dopolnjuje druge sklope politike Komisije na področju umetne inteligence, ki temeljijo na preventivnih regulativnih in nadzornih zahtevah, namenjenih neposredno preprečevanju kršitev temeljnih pravic (kot je diskriminacija). To so akt o umetni inteligenci, splošna uredba o varstvu podatkov, akt o digitalnih storitvah ter zakonodaja EU o nediskriminaciji in enaki obravnavi. Hkrati ta predlog ne uvaja ali usklajuje dolžnosti skrbnega ravnanja ali odgovornosti različnih subjektov, katerih dejavnost je urejena s temi pravnimi akti, in zato ne ustvarja novih odškodninskih zahtevkov ali vpliva na izjeme od odgovornosti na podlagi teh drugih pravnih aktov. Ta predlog uvaja le zmanjšanje dokaznega bremena za oškodovance, ki jim je bila povzročena škoda zaradi uporabe umetnointeligenčnih sistemov, v zahtevkih, ki lahko temeljijo na nacionalnem pravu ali tej drugi zakonodaji EU. Predlog z dopolnitvijo teh drugih področij varuje pravico oškodovancev do odškodnine v skladu z zasebnim pravom, vključno z odškodnino za kršitve temeljnih pravic.

4.PRORAČUNSKE POSLEDICE

Ta predlog ne bo vplival na proračun Evropske unije.

5.DRUGI ELEMENTI

·Izvedbeni načrti ter spremljanje, ocenjevanje, program spremljanja in ciljno usmerjen pregled

Ta predlog predlaga postopen pristop. Za zagotovitev, da je na voljo dovolj dokazov za ciljno usmerjen pregled v drugi fazi, bo Komisija pripravila načrt spremljanja, v katerem bo podrobno navedla, na kakšen način in kako pogosto se bodo zbirali podatki in drugi potrebni dokazi.

Mehanizem spremljanja bi lahko zajemal naslednje vrste podatkov in dokazov:

poročanje in izmenjavo informacij med državami članicami o uporabi ukrepa za zmanjšanje dokaznega bremena v nacionalnih sodnih ali izvensodnih postopkih poravnave;

informacije, ki jih Komisija ali organi za nadzor trga zberejo na podlagi akta o umetni inteligenci (zlasti člena 62) ali drugih ustreznih instrumentov;

informacije in analize, ki podpirajo oceno akta o umetni inteligenci, in poročila, ki jih pripravi Komisija o izvajanju tega akta;

informacije in analize, ki podpirajo oceno ustreznih prihodnjih ukrepov politike v okviru zakonodaje o varnosti „starega pristopa“, da se zagotovi, da proizvodi, dani na trg Unije, izpolnjujejo visoke zdravstvene, varnostne in okoljske zahteve;

informacije in analize, ki podpirajo poročilo Komisije o uporabi direktive o zavarovanju avtomobilske odgovornosti za tehnološki razvoj (zlasti avtonomna in polavtonomna vozila) v skladu z njenim členom 28c(2)(a).

·Natančnejša pojasnitev posameznih določb predloga

1. Predmet urejanja in področje uporabe (člen 1)

Namen te direktive je izboljšati delovanje notranjega trga z določitvijo enotnih zahtev za nekatere vidike nepogodbene civilne odgovornosti za škodo, povzročeno z uporabo umetnointeligenčnih sistemov. Temelji na resoluciji Evropskega parlamenta 2020/2014(INL) in prilagaja zasebno pravo potrebam prehoda na digitalno gospodarstvo.

Izbira ustreznih pravnih orodij je omejena zaradi narave vprašanja, ki se nanaša na dokazno breme, in posebnih značilnosti umetne inteligence, ki predstavljajo težavo za obstoječa pravila o odgovornosti. V zvezi s tem ta direktiva zelo ciljno usmerjeno in sorazmerno zmanjšuje dokazno breme z uporabo razkritja in izpodbojnih domnev. Za tiste, ki zahtevajo odškodnino za škodo, določa možnost, da pridobijo informacije o umetnointeligenčnih sistemih velikega tveganja, ki jih bo treba evidentirati/dokumentirati v skladu z aktom o umetni inteligenci. Poleg tega bodo izpodbojne domneve tistim, ki zahtevajo odškodnino za škodo, ki jo povzročijo umetnointeligenčni sistemi, naložile razumnejše dokazno breme in jim dale možnost, da uspejo z upravičenimi odškodninskimi zahtevki.

Taka orodja niso nova; na voljo so v nacionalnih zakonodajnih sistemih. Zato so ta nacionalna orodja koristne referenčne točke o tem, kako obravnavati vprašanja, ki se glede obstoječih pravil o odgovornosti pojavljajo v zvezi z umetno inteligenco, in sicer na način, ki čim manj posega v različne nacionalne pravne ureditve.

Poleg tega so podjetja na vprašanje o obširnejših spremembah, kot sta obrnjeno dokazno breme ali neizpodbojna domneva, na posvetovanjih podala negativne povratne informacije. Ciljno usmerjeni ukrepi za zmanjšanje dokaznega bremena v obliki izpodbojnih domnev so bili izbrani kot pragmatični in ustrezni načini za pomoč oškodovancem pri čim bolj ciljno usmerjenem in sorazmernem dokaznem bremenu.

Člen 1 navaja predmet urejanja in področje uporabe te direktive: uporablja se za nepogodbene civilnopravne odškodninske zahtevke za škodo, ki jo povzroči umetnointeligenčni sistem, kadar so taki zahtevki vloženi v okviru ureditev na podlagi krivdne odgovornosti. To pomeni ureditve, ki določajo zakonsko odgovornost za povrnitev škode, povzročene namerno ali iz malomarnosti oziroma zaradi opustitve dejanja. Ukrepi iz te direktive se lahko povsem gladko ujemajo z obstoječimi sistemi civilne odgovornosti, saj odražajo pristop, ki ne vpliva na opredelitev temeljnih pojmov, kot sta „krivda“ ali „škoda“, glede na to, da se pomen teh pojmov med državami članicami precej razlikuje. Zato ta direktiva razen domnev, ki jih uvaja, ne vpliva na pravila Unije ali nacionalna pravila, ki na primer določajo, katera stranka nosi dokazno breme, kakšna stopnja gotovosti se zahteva glede dokaznega standarda ali kako je opredeljena krivda.

Poleg tega ta direktiva ne vpliva na obstoječa pravila, ki urejajo pogoje odgovornosti v prometnem sektorju, in pravila iz akta o digitalnih storitvah.

Čeprav se ta direktiva ne uporablja v zvezi s kazensko odgovornostjo, se lahko uporablja v zvezi z odgovornostjo države. Za državne organe veljajo tudi določbe akta o umetni inteligenci, saj so subjekti v njem določenih obveznosti.

Ta direktiva se ne uporablja retroaktivno, temveč samo za odškodninske zahtevke, ki se vložijo od datuma prenosa.

Predlog te direktive je bil sprejet skupaj s predlogom za revizijo Direktive 85/374/EGS o odgovornosti za proizvode, in sicer v svežnju, katerega namen je prilagoditi pravila o odgovornosti digitalni dobi in umetni inteligenci ter zagotoviti potrebno uskladitev med tema dopolnjujočima se pravnima instrumentoma.

2.Opredelitev pojmov (člen 2)

Opredelitve pojmov iz člena 2 sledijo opredelitvam iz akta o umetni inteligenci, da se zagotovi usklajenost.

Člen 2(6)(b) določa, da lahko odškodninske zahtevke poleg oškodovanca vložijo tudi osebe, ki so nasledile pravice oškodovanca ali so se nanje te pravice prenesle. Subrogacija je prevzem pravice druge osebe do izterjave dolga ali odškodnine s strani tretje osebe (kot je zavarovalnica). Tako ima ena oseba pravico uveljavljati pravice druge osebe v svojo korist. Subrogacija bi zajemala tudi dediče umrlega oškodovanca.

Poleg tega člen 2(6)(c) določa, da lahko odškodninsko tožbo vloži tudi nekdo, ki deluje v imenu enega ali več oškodovancev, v skladu s pravom Unije ali nacionalnim pravom. Namen te določbe je osebam, ki so utrpele škodo s strani umetnointeligenčnega sistema, zagotoviti več možnosti, da njihove zahtevke obravnava sodišče, tudi v primerih, ko se posamezne tožbe zdijo predrage ali preveč zapletene, da bi jih bilo mogoče vložiti, ali kadar imajo lahko skupne tožbe koristi zaradi obsega. Da se oškodovancem, ki jim je bila povzročena škoda zaradi uporabe umetnointeligenčnih sistemov, omogoči uveljavljanje njihovih pravic v zvezi s to direktivo z zastopniškimi tožbami, člen 6 spreminja Prilogo I k Direktivi (EU) 2020/1828.

3.Razkritje dokazov (člen 3)

Namen te direktive je osebam, ki zahtevajo odškodnino za škodo, ki jo povzročijo umetnointeligenčni sistemi velikega tveganja, zagotoviti učinkovita sredstva za identifikacijo potencialno odgovornih oseb in ustrezne dokaze za zahtevek. Hkrati je namen teh sredstev izključiti napačno opredeljene potencialne tožene stranke, prihraniti čas in stroške vpletenih strank ter zmanjšati število zadev na sodiščih.

V zvezi s tem člen 3(1) Direktive določa, da lahko sodišče odredi razkritje zadevnih dokazov o specifičnih umetnointeligenčnih sistemih velikega tveganja, za katere se sumi, da so povzročili škodo. Zahteve za dokaze se naslovijo na ponudnika umetnointeligenčnega sistema, osebo, za katero veljajo obveznosti ponudnika iz člena 24 ali člena 28(1) akta o umetni inteligenci, ali na uporabnika v skladu z aktom o umetni inteligenci. Zahteve bi morale biti podprte z dejstvi in dokazi, ki zadostujejo za ugotovitev verodostojnosti predvidenega odškodninskega zahtevka, naslovnikom pa bi morali biti na voljo zahtevani dokazi. Zahtev ni mogoče nasloviti na stranke, ki nimajo nobenih obveznosti v skladu z aktom o umetni inteligenci in zato nimajo dostopa do dokazov.

V skladu s členom 3(2) lahko tožeča stranka od ponudnikov ali uporabnikov, ki niso tožene stranke, zahteva razkritje dokazov le, če so bili vsi sorazmerni poskusi zbiranja dokazov od tožene stranke neuspešni.

Da bi bila sodna sredstva učinkovita, člen 3(3) Direktive določa, da lahko sodišče odredi tudi zavarovanje takih dokazov.

Kot je določeno v prvem pododstavku člena 3(4), lahko sodišče tako razkritje odredi le v obsegu, ki je potreben za utemeljitev zahtevka, saj bi lahko bile informacije ključni dokaz za zahtevek oškodovanca v primeru škode, ki vključuje umetnointeligenčne sisteme.

Namen prvega pododstavka člena 3(4) je z omejitvijo obveznosti razkritja ali zavarovanja potrebnih in sorazmernih dokazov zagotoviti sorazmernost pri razkrivanju dokazov, tj. čim bolj omejiti razkritje in preprečiti splošne zahteve.

Namen drugega in tretjega pododstavka člena 3(4) je tudi vzpostavitev ravnovesja med pravicami tožeče stranke in potrebo po zagotovitvi, da za tako razkritje veljajo zaščitni ukrepi za zaščito legitimnih interesov vseh zadevnih strank, kot so poslovne skrivnosti ali zaupne informacije.

V istem smislu je namen četrtega pododstavka člena 3(4) zagotoviti, da so postopkovna pravna sredstva zoper odredbo o razkritju ali zavarovanju na voljo osebi, na katero se nanaša.

Člen 3(5) uvaja domnevo o neizpolnjevanju dolžnosti skrbnega ravnanja. To je postopkovno orodje, ki je pomembno le v primerih, ko je dejanska tožena stranka v odškodninskem zahtevku tista, ki nosi posledice neizpolnjevanja zahteve za razkritje ali zavarovanje dokazov. Tožena stranka bo imela pravico, da izpodbija to domnevo. Cilj ukrepa iz tega odstavka je spodbuditi razkritje, pa tudi pospešiti sodne postopke.

4.Domneva vzročne zveze v primeru krivde (člen 4)

V zvezi s škodo, ki jo povzročijo umetnointeligenčni sistemi, je namen te direktive zagotoviti učinkovito podlago za uveljavljanje odškodnine v zvezi s krivdo, ki pomeni neizpolnjevanje dolžnosti skrbnega ravnanja v skladu s pravom Unije ali nacionalnim pravom.

Tožeče stranke imajo lahko težave pri dokazovanju vzročne zveze med takim neizpolnjevanjem dolžnosti in izhodnimi podatki, ki jih ustvari umetnointeligenčni sistem, ali dejstvom, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, kar je povzročilo zadevno škodo. Zato je bila v členu 4(1) v zvezi s to vzročno zvezo določena ciljno usmerjena izpodbojna domneva vzročnosti Taka domneva je najmanj obremenjujoč ukrep za obravnavanje potrebe po pravični odškodnini oškodovancu.

Krivdo tožene stranke mora dokazati tožeča stranka v skladu z veljavnimi pravili Unije ali nacionalnimi predpisi. Taka krivda se lahko ugotovi na primer zaradi neizpolnjevanja dolžnosti skrbnega ravnanja v skladu z aktom o umetni inteligenci ali drugimi pravili, določenimi na ravni Unije, kot so pravila, ki urejajo uporabo avtomatiziranega spremljanja in odločanja za platformno delo, ali pravila, ki urejajo upravljanje brezpilotnih zrakoplovov. Sodišče lahko tako krivdo domneva tudi na podlagi neizpolnitve sodne odredbe za razkritje ali zavarovanje dokazov v skladu s členom 3(5). Kljub temu je primerno uvesti domnevo vzročnosti le, kadar se lahko šteje, da je dana krivda verjetno vplivala na zadevne izhodne podatke umetnointeligenčnega sistema ali dejstvo, da niso bili ustvarjeni, kar se lahko oceni na podlagi splošnih okoliščin primera. Hkrati mora tožeča stranka še vedno dokazati, da je umetnointeligenčni sistem (tj. njegovi izhodni podatki ali dejstvo, da izhodni podatki niso bili ustvarjeni) povzročil škodo.

Odstavka 2 in 3 razlikujeta med tožbami, vloženimi proti ponudniku umetnointeligenčnega sistema velikega tveganja ali proti osebi, za katero veljajo obveznosti ponudnika na podlagi akta o umetni inteligenci, na eni strani in tožbami zoper uporabnika takih sistemov na drugi strani. V tem smislu se upoštevajo ustrezne določbe in ustrezni pogoji akta o umetni inteligenci. V primeru zahtevkov na podlagi člena 4(2) je treba skladnost toženih strank z obveznostmi iz navedenega odstavka oceniti tudi glede na sistem obvladovanja tveganja in njegove rezultate, tj. ukrepe za obvladovanje tveganja, v skladu z aktom o umetni inteligenci.

V primeru umetnointeligenčnih sistemov velikega tveganja, kot so opredeljeni v aktu o umetni inteligenci, člen 4(4) določa izjemo od domneve vzročnosti, kadar tožena stranka dokaže, da je tožeči stranki razumno na voljo dovolj dokazov in strokovnega znanja, da dokaže vzročno zvezo. Ta možnost lahko tožene stranke spodbudi k izpolnjevanju njihovih obveznosti razkritja, ukrepov, določenih v aktu o umetni inteligenci, da se zagotovi visoka raven preglednosti umetne inteligence, ali zahtev glede dokumentiranja in evidentiranja.

V primeru umetnointeligenčnih sistemov, ki ne predstavljajo velikega tveganja, člen 4(5) določa pogoj za uporabo domneve vzročnosti, pri čemer mora sodišče ugotoviti, da je za tožečo stranko vzročno zvezo pretirano težko dokazati. Take težave je treba oceniti glede na značilnosti nekaterih umetnointeligenčnih sistemov, kot sta avtonomija in nepreglednost, ki v praksi zelo otežujejo razlago notranjega delovanja umetnointeligenčnega sistema, kar negativno vpliva na zmožnost tožeče stranke, da dokaže vzročno zvezo med krivdo tožene stranke in izhodnimi podatki umetnointeligenčnega sistema.

V primerih, ko tožena stranka uporablja umetnointeligenčni sistem v okviru osebne nepoklicne dejavnosti, člen 4(6) določa, da se domneva vzročnosti uporablja le, če je tožena stranka bistveno posegla v pogoje delovanja umetnointeligenčnega sistema ali če je bila tožena stranka zavezana in sposobna določiti pogoje delovanja umetnointeligenčnega sistema, vendar tega ni storila. Ta pogoj je utemeljen s potrebo po uravnoteženju interesov oškodovancev in nepoklicnih uporabnikov, tako da se iz uporabe domneve vzročnosti izvzamejo primeri, v katerih nepoklicni uporabniki s svojim ravnanjem ne povečajo tveganja.

Nazadnje, člen 4(7) določa, da ima tožena stranka pravico izpodbijati domnevo vzročnosti, ki temelji na členu 4(1).

Taka učinkovita pravila o civilni odgovornosti imajo dodatno prednost, da vse, ki so vključeni v dejavnosti, povezane z umetnointeligenčnimi sistemi, dodatno spodbujajo k spoštovanju njihovih obveznosti glede pričakovanega ravnanja.

5.Ocena in ciljno usmerjen pregled (člen 5)

Različni nacionalni pravni sistemi določajo različne ureditve objektivne odgovornosti. Elemente za tako ureditev na ravni Unije je predlagal tudi Evropski parlament v svoji resoluciji na lastno pobudo z dne 20. oktobra 2020, ki vključuje ureditev omejene objektivne odgovornosti za nekatere umetnointeligenčno omogočene tehnologije in manjše dokazno breme v skladu s pravili o krivdni odgovornosti. Na javnih posvetovanjih se je pokazalo tudi, da vprašani dajejo prednost taki ureditvi (razen podjetij, ki niso MSP), ne glede na to, ali je povezana z obveznim zavarovanjem ali ne.

Vendar predlog upošteva razlike med nacionalnimi pravnimi tradicijami in dejstvo, da vrsta proizvodov in storitev, opremljenih z umetnointeligenčnimi sistemi, ki bi lahko vplivali na širšo javnost in ogrozili pomembne zakonske pravice, kot so pravica do življenja, zdravja in lastnine, ter bi zato zanje lahko veljala ureditev objektivne odgovornosti, še ni splošno dostopnih na trgu.

Vzpostavljen je program spremljanja, da se Komisiji zagotovijo informacije o incidentih, ki vključujejo umetnointeligenčne sisteme. S ciljno usmerjenim pregledom se bo ocenilo, ali bi bili potrebni dodatni ukrepi, kot je uvedba ureditve objektivne odgovornosti in/ali obveznega zavarovanja.

6.Prenos (člen 7)

Države članice bi morale pri obveščanju Komisije o nacionalnih ukrepih za prenos za uskladitev s to direktivo zagotoviti tudi obrazložitvene dokumente z dovolj jasnimi in natančnimi informacijami ter za vsako določbo te direktive navesti nacionalne določbe, ki zagotavljajo njen prenos. To je potrebno, da lahko Komisija za vsako določbo Direktive, ki jo je treba prenesti, opredeli ustrezni del nacionalnih ukrepov za prenos, ki ustvarja ustrezno pravno obveznost v nacionalnem pravnem redu, ne glede na obliko, ki jo izberejo države članice.



2022/0303 (COD)

Predlog

DIREKTIVA EVROPSKEGA PARLAMENTA IN SVETA

o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci
(direktiva o odgovornosti na področju umetne inteligence)

(Besedilo velja za EGP)

EVROPSKI PARLAMENT IN SVET EVROPSKE UNIJE STA –

ob upoštevanju Pogodbe o delovanju Evropske unije in zlasti člena 114 Pogodbe,

ob upoštevanju predloga Evropske komisije,

po posredovanju osnutka zakonodajnega akta nacionalnim parlamentom,

ob upoštevanju mnenja Evropskega ekonomsko-socialnega odbora 29 ,

ob upoštevanju mnenja Odbora regij 30 ,

v skladu z rednim zakonodajnim postopkom,

ob upoštevanju naslednjega:

(1)Umetna inteligenca je sklop omogočitvenih tehnologij, ki lahko prispeva k široki paleti koristi v celotnem spektru gospodarstva in družbe. Ima velik potencial za tehnološki napredek in omogoča nove poslovne modele v številnih sektorjih digitalnega gospodarstva.

(2)Hkrati lahko umetna inteligenca glede na okoliščine v zvezi z njenim posebnim namenom uporabe povzroča tveganja ter škoduje interesom in pravicam, ki jih varuje pravo Unije ali nacionalno pravo. Uporaba umetne inteligence lahko na primer negativno vpliva na številne temeljne pravice, vključno s pravico do življenja in telesne nedotakljivosti ter v zvezi z nediskriminacijo in enako obravnavo. Uredba (EU).../... Evropskega parlamenta in Sveta [akt o umetni inteligenci] 31 določa zahteve za zmanjšanje tveganj za varnost in temeljne pravice, medtem ko drugi instrumenti prava Unije urejajo splošna 32 in sektorska pravila o varnosti proizvodov, ki se uporabljajo tudi za umetnointeligenčno omogočene stroje in strojno opremo 33 ter radijsko opremo 34 . Čeprav so take zahteve, namenjene zmanjšanju tveganj za varnost in temeljne pravice, namenjene preprečevanju, spremljanju in obravnavanju tveganj ter s tem obravnavanju družbenih pomislekov, pa ne zagotavljajo individualne pomoči tistim, ki so utrpeli škodo, ki jo je povzročila umetna inteligenca. Obstoječe zahteve določajo zlasti odobritve, preglede, spremljanje in upravne sankcije v zvezi z umetnointeligenčnimi sistemi, da se prepreči škoda. Ne določajo odškodnine oškodovancu za škodo, ki so jo povzročili izhodni podatki ali dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov.

(3)Kadar oškodovanec zahteva odškodnino za nastalo škodo, splošna pravila držav članic o krivdni odgovornosti običajno zahtevajo, da ta oseba dokaže, da je oseba, ki je potencialno odgovorna za to škodo, ravnala malomarno ali namerno škodljivo oziroma je dejanje opustila (v nadaljnjem besedilu: krivda) ter da obstaja vzročna zveza med to krivdo in zadevno škodo. Kadar pa med dejanje ali opustitev dejanja osebe in škodo poseže umetna inteligenca, lahko posebne značilnosti nekaterih umetnointeligenčnih sistemov, kot so nepreglednost, avtonomno ravnanje in kompleksnost, oškodovancu pretirano otežijo ali celo onemogočijo izpolnjevanje tega dokaznega bremena. Zlasti je morda pretirano težko dokazati, da je določen vhodni podatek, za katerega odgovarja potencialno odgovorna oseba, povzročil določen izhodni podatek umetnointeligenčnega sistema, ki je povzročil zadevno škodo.

(4)V takih primerih je lahko raven pravnih sredstev, ki jih zagotavljajo nacionalna pravila o civilni odgovornosti, nižja kot v primerih, ko so v povzročitev škode vključene tehnologije, ki niso umetna inteligenca. Take vrzeli v odškodninah lahko prispevajo k nižji ravni družbene sprejemljivosti umetne inteligence in zaupanja v umetnointeligenčno omogočene proizvode in storitve.

(5)Da bi izkoristili gospodarske in družbene koristi umetne inteligence ter spodbudili prehod na digitalno gospodarstvo, je treba nekatera nacionalna pravila o civilni odgovornosti ciljno usmerjeno prilagoditi tem posebnim značilnostim nekaterih umetnointeligenčnih sistemov. Take prilagoditve bi morale prispevati k zaupanju družbe in potrošnikov ter s tem spodbujati uvajanje umetne inteligence. Poleg tega bi morale ohraniti tudi zaupanje v pravosodni sistem, tako da bi zagotovile, da dobijo oškodovanci, ki jim je bila povzročena škoda zaradi uporabe umetne inteligence, enako učinkovito odškodnino kot oškodovanci, ki jim je bila povzročena škoda zaradi uporabe drugih tehnologij.

(6)Zainteresirani deležniki – oškodovanci, ki so utrpeli škodo, potencialno odgovorne osebe, zavarovalnice – se soočajo s pravno negotovostjo glede tega, kako bi lahko nacionalna sodišča, ko se ukvarjajo s posebnimi izzivi umetne inteligence, v posameznih primerih uporabljala obstoječa pravila o odgovornosti, da bi dosegla pravične rezultate. Če Unija ne bo ukrepala, bodo vsaj nekatere države članice svoja pravila o civilni odgovornosti verjetno prilagodile za odpravo vrzeli v odškodninah in pravne negotovosti, povezane s posebnimi značilnostmi nekaterih umetnointeligenčnih sistemov. To bi ustvarilo pravno razdrobljenost in ovire na notranjem trgu za podjetja, ki razvijajo ali zagotavljajo inovativne umetnointeligenčno omogočene proizvode ali storitve. Še posebej bi bila prizadeta mala in srednja podjetja.

(7)Namen te direktive je prispevati k pravilnemu delovanju notranjega trga z uskladitvijo nekaterih nacionalnih pravil o nepogodbeni krivdni odgovornosti, da se osebam, ki zahtevajo odškodnino za škodo, ki jim jo je povzročil umetnointeligenčni sistem, zagotovi raven varstva, ki je enakovredna tisti, ki jo uživajo osebe, ki zahtevajo odškodnino za škodo, povzročeno brez uporabe umetnointeligenčnega sistema. Tega cilja države članice ne morejo zadovoljivo doseči, ker so zadevne ovire na notranjem trgu povezane s tveganjem enostranskih in razdrobljenih regulativnih ukrepov na nacionalni ravni. Glede na digitalno naravo proizvodov in storitev, ki spadajo na področje uporabe te direktive, je slednja zlasti pomembna v čezmejnem okviru.

(8)Cilj zagotavljanja pravne varnosti in preprečevanja vrzeli v odškodninah v primerih, ko se uporabljajo umetnointeligenčni sistemi, je torej mogoče bolje doseči na ravni Unije. Unija lahko zato sprejme ukrepe v skladu z načelom subsidiarnosti iz člena 5 Pogodbe o Evropski uniji (PEU). V skladu z načelom sorazmernosti iz navedenega člena ta direktiva ne presega tistega, kar je potrebno za doseganje navedenega cilja.

(9)Zato je treba ciljno usmerjeno uskladiti posebne vidike pravil o krivdni odgovornosti na ravni Unije. Taka uskladitev bi morala povečati pravno varnost in ustvariti enake konkurenčne pogoje za umetnointeligenčne sisteme, s čimer bi se izboljšalo delovanje notranjega trga v zvezi s proizvodnjo in razširjanjem umetnointeligenčno omogočenih proizvodov in storitev.

(10)Za zagotovitev sorazmernosti je primerno ciljno usmerjeno uskladiti samo tista pravila o krivdni odgovornosti, ki urejajo dokazno breme oseb, ki zahtevajo odškodnino za škodo, ki jo povzročijo umetnointeligenčni sistemi. Ta direktiva ne bi smela uskladiti splošnih vidikov civilne odgovornosti, ki jih na različne načine urejajo nacionalna pravila o civilni odgovornosti, kot so opredelitev krivde ali vzročne zveze, različne vrste škode, ki je vzrok za odškodninske zahtevke, porazdelitev odgovornosti na več povzročiteljev škode, ravnanje, ki prispeva k povzročitvi škode, izračun odškodnine ali zastaralni roki.

(11)Zakonodaja držav članic o odgovornosti proizvajalcev za škodo, povzročeno zaradi napake njihovih proizvodov, je na ravni Unije že usklajena z Direktivo Sveta 85/374/EGS 35 . Vendar ti zakoni ne vplivajo na pravila držav članic o pogodbeni ali nepogodbeni odgovornosti, kot so garancija, krivda ali objektivna odgovornost, ki temeljijo na drugih razlogih kot na napaki proizvoda. Medtem ko je namen revizije Direktive Sveta 85/374/EGS pojasniti in zagotoviti, da lahko oškodovanec zahteva odškodnino za škodo, ki so jo povzročili umetnointeligenčno omogočeni proizvodi z napako, bi bilo treba pojasniti, da določbe te direktive ne vplivajo na nikakršne pravice, ki jih ima morda oškodovanec na podlagi nacionalnih pravil za prenos Direktive 85/374/EGS. Poleg tega ta direktiva na področju prometa ne bi smela vplivati na pravo Unije, ki ureja odgovornost prevoznikov.

(12)[Akt o digitalnih storitvah 36 ] v celoti usklajuje pravila, ki se uporabljajo za ponudnike posredniških storitev na notranjem trgu, pri čemer zajema družbena tveganja, ki izhajajo iz storitev, ki jih ponujajo ti ponudniki, tudi v zvezi z umetnointeligenčnimi sistemi, ki jih uporabljajo. Ta direktiva ne vpliva na določbe [akta o digitalnih storitvah], ki zagotavljajo celovit in popolnoma usklajen okvir za obveznosti potrebne skrbnosti pri algoritemskem odločanju ponudnikov storitev gostovanja, vključno z izjemo od odgovornosti za razširjanje nezakonitih vsebin, ki jih naložijo prejemniki njihovih storitev, kadar so izpolnjeni pogoji iz navedene uredbe.

(13)Ta direktiva razen v zvezi z domnevami, ki jih določa, ne usklajuje nacionalnih zakonodaj glede tega, katera stranka nosi dokazno breme ali kakšna stopnja gotovosti se zahteva glede dokaznega standarda. 

(14)Ta direktiva bi morala slediti pristopu minimalne uskladitve. Tak pristop tožečim strankam omogoča, da se v primerih škode, ki jo povzročijo umetnointeligenčni sistemi, sklicujejo na ugodnejša pravila nacionalnega prava. Tako bi lahko nacionalne zakonodaje na primer ohranile obrnjeno dokazno breme v okviru nacionalnih ureditev na podlagi krivdne odgovornosti ali nacionalnih ureditev o nekrivdni odgovornosti (imenovane „objektivna odgovornost“), ki so v nacionalnih zakonodajah že zelo raznolike in se lahko uporabljajo za škodo, ki jo povzročijo umetnointeligenčni sistemi.

(15)Zagotoviti bi bilo treba tudi skladnost z [aktom o umetni inteligenci]. Zato je ustrezno, da se v tej direktivi uporabljajo enake opredelitve pojmov za umetnointeligenčne sisteme, ponudnike in uporabnike. Poleg tega bi morala ta direktiva zajemati le odškodninske zahtevke v zvezi s škodo, ki so jo povzročili izhodni podatki ali dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, po krivdi osebe, na primer ponudnika ali uporabnika v skladu z [aktom o umetni inteligenci]. Ni potrebe po zajetju odškodninskih zahtevkov, kadar škoda nastane zaradi človeške ocene, ki ji sledi človeško dejanje ali opustitev dejanja, medtem ko je umetnointeligenčni sistem zagotavljal le informacije ali nasvete, ki jih je upošteval zadevni človeški akter. V slednjem primeru je mogoče škodo pripisati človeškemu dejanju ali opustitvi dejanja, saj izhodni podatki umetnointeligenčnega sistema niso posegli med človeškim dejanjem ali opustitvijo dejanja in škodo, zato vzročnost ni močnejša kot v primerih, ko umetnointeligenčni sistem ni uporabljen.

(16)Dostop do informacij o posebnih umetnointeligenčnih sistemih velikega tveganja, za katere se sumi, da so povzročili škodo, je pomemben dejavnik pri ugotavljanju, ali naj se zahteva odškodnina, in pri utemeljevanju odškodninskih zahtevkov. Poleg tega [akt o umetni inteligenci] za umetnointeligenčne sisteme velikega tveganja določa posebne zahteve glede dokumentacije, informacij in vodenja dnevnikov, vendar oškodovancu ne zagotavlja pravice do dostopa do teh informacij. Zato je primerno določiti pravila o razkritju ustreznih dokazov s strani tistih, ki jih imajo na voljo, za namene ugotavljanja odgovornosti. To bi moralo zagotoviti tudi dodatno spodbudo za izpolnjevanje ustreznih zahtev iz [akta o umetni inteligenci] za dokumentiranje ali evidentiranje ustreznih informacij.

(17)Veliko število ljudi, ki običajno sodelujejo pri zasnovi, razvoju, uvajanju in delovanju umetnointeligenčnih sistemov velikega tveganja, oškodovancem otežuje identifikacijo osebe, ki je potencialno odgovorna za povzročeno škodo, in dokazovanje pogojev za odškodninski zahtevek. Da bi oškodovanci lahko ugotovili, ali je odškodninski zahtevek utemeljen, je primerno, da se potencialnim tožečim strankam dodeli pravica, da pred vložitvijo odškodninskega zahtevka od sodišča zahtevajo odredbo razkritja ustreznih dokazov. Tako razkritje bi bilo treba odrediti le, če potencialna tožeča stranka predloži dejstva in informacije, ki zadostujejo za utemeljitev verodostojnosti odškodninskega zahtevka, in je predhodno zahtevala od ponudnika, od osebe, za katero veljajo obveznosti ponudnika, ali od uporabnika, da razkrije dokaze, ki so mu na voljo o posebnih umetnointeligenčnih sistemih velikega tveganja, za katere obstaja sum, da so povzročili škodo, vendar je bila zahteva zavrnjena. Z odreditvijo razkritja bi se morali zmanjšati nepotrebni sodni postopki in preprečiti stroški za morebitne stranke v sporu, ki bi jih povzročili neupravičeni zahtevki ali zahtevki, za katere je verjetno, da ne bodo uspešni. Zavrnitev ponudnika, osebe, za katero veljajo obveznosti ponudnika, ali uporabnika pred vložitvijo zahteve sodišču za razkritje dokazov ne bi smela povzročiti domneve, da oseba, ki zavrne tako razkritje, ne izpolnjuje ustreznih dolžnosti skrbnega ravnanja.

(18)Omejitev razkritja dokazov v zvezi z umetnointeligenčnimi sistemi velikega tveganja je skladna z [aktom o umetni inteligenci], ki določa nekatere posebne obveznosti glede dokumentacije, vodenja evidenc in zagotavljanja informacij za operaterje, ki sodelujejo pri zasnovi, razvoju in uvajanju umetnointeligenčnih sistemov velikega tveganja. Taka skladnost zagotavlja tudi potrebno sorazmernost, saj preprečuje, da bi operaterji umetnointeligenčnih sistemov, ki pomenijo manjše tveganje ali so brez tveganja, morali dokumentirati informacije na podobni ravni, kot se zahteva za umetnointeligenčne sisteme velikega tveganja v skladu z [aktom o umetni inteligenci].

(19)Nacionalna sodišča bi morala imeti možnost, da med civilnim postopkom odredijo razkritje ali zavarovanje ustreznih dokazov v zvezi s škodo, ki jo povzročijo umetnointeligenčni sistemi velikega tveganja, s strani oseb, za katere že velja obveznost dokumentiranja ali evidentiranja informacij v skladu z [aktom o umetni inteligenci], tj. ponudnikov, oseb, ki imajo enake obveznosti kot ponudniki, ali uporabnikov umetnointeligenčnega sistema, bodisi kot tožene stranke bodisi kot tretje osebe v zahtevku. V nekaterih primerih bi lahko dokaze, pomembne za zadevo, imeli subjekti, ki niso stranke v odškodninskem zahtevku, vendar morajo dokumentirati ali evidentirati take dokaze v skladu z [aktom o umetni inteligenci]. Zato je treba določiti pogoje, pod katerimi se lahko takim tretjim osebam odredi razkritje ustreznih dokazov.

(20)Za ohranitev ravnovesja med interesi strank, vključenih v odškodninski zahtevek, in interesi zadevnih tretjih oseb bi morala sodišča odrediti razkritje dokazov le, če je to potrebno in sorazmerno za utemeljitev odškodninskega zahtevka ali potencialnega odškodninskega zahtevka. Glede na to bi se moralo razkritje nanašati le na dokaze, ki so potrebni za odločitev o zadevnem odškodninskem zahtevku, na primer samo na dele ustreznih evidenc ali naborov podatkov, ki so potrebni za dokazovanje neskladnosti z zahtevo iz [akta o umetni inteligenci]. Za zagotovitev sorazmernosti takih ukrepov za razkritje ali zavarovanje dokazov bi morala imeti nacionalna sodišča učinkovita sredstva za zaščito zakonitih interesov vseh vpletenih strank, na primer varovanje poslovnih skrivnosti v smislu Direktive (EU) 2016/943 Evropskega parlamenta in Sveta 37 in zaupnih informacij, na primer in formacij, povezanih z javno ali nacionalno varnostjo. V zvezi s poslovnimi skrivnostmi ali domnevnimi poslovnimi skrivnostmi, ki jih je sodišče opredelilo kot zaupne v smislu Direktive (EU) 2016/943, bi bilo treba nacionalnim sodiščem podeliti pooblastila za sprejetje posebnih ukrepov za zagotovitev zaupnosti poslovnih skrivnosti med postopkom in po njem, pri čemer bi bilo treba doseči pravično in sorazmerno ravnovesje med interesom imetnika poslovne skrivnosti, da ohrani tajnost, in interesom oškodovanca. To bi moralo vključevati ukrepe za omejitev dostopa do dokumentov, ki vsebujejo poslovne skrivnosti, ter dostopa do zaslišanj ali dokumentov in njihovih prepisov na omejeno število ljudi. Nacionalna sodišča bi morala pri odločanju o takih ukrepih upoštevati potrebo po spoštovanju pravice do učinkovitega pravnega sredstva in nepristranskega sodišča, legitimne interese strank v postopku in, kadar je ustrezno, tretjih oseb ter kakršno koli morebitno škodo, ki izhaja iz odreditve takih ukrepov ali njihove zavrnitve in je povzročena kateri koli od strank v postopku ali, kadar je ustrezno, tretjim osebam. Poleg tega bi morala nacionalna sodišča za zagotovitev sorazmerne uporabe ukrepa razkritja v razmerju do tretjih oseb v odškodninskih zahtevkih odrediti razkritje s strani tretjih oseb le, če dokazov ni mogoče pridobiti od tožene stranke.

(21)Čeprav lahko nacionalna sodišča izvršujejo svoje odredbe za razkritje z različnimi ukrepi, bi lahko kakršni koli taki izvršilni ukrepi povzročili zamude pri odškodninskih zahtevkih in tako povzročili dodatne stroške za stranke v sporu. Take zamude in dodatni stroški lahko oškodovancem otežijo uporabo učinkovitega pravnega sredstva. Zato je primerno, da se, kadar tožena stranka v odškodninskem zahtevku ne izpolni odredbe sodišča, naj razkrije dokaze, s katerimi razpolaga, določi domneva o neizpolnjevanju dolžnosti skrbnega ravnanja, ki naj bi jo ti dokazi dokazovali. Ta izpodbojna domneva bo skrajšala trajanje sodnih postopkov in povečala njihovo učinkovitost. Tožena stranka bi morala imeti možnost, da to domnevo izpodbija s predložitvijo nasprotnih dokazov.

(22)Za odpravo težav pri dokazovanju, da so določeni vhodni podatki, za katere odgovarja potencialno odgovorna oseba, povzročili določene izhodne podatke umetnointeligenčnega sistema, ki so povzročili zadevno škodo, je primerno, da se pod določenimi pogoji določi domneva vzročnosti. Medtem ko mora tožeča stranka pri zahtevku na podlagi krivdne odgovornosti običajno dokazati škodo, človeško dejanje ali opustitev dejanja, ki pomeni krivdo tožene stranke, in vzročno zvezo med njima, ta direktiva ne usklajuje pogojev, pod katerimi nacionalna sodišča ugotavljajo krivdo. Še naprej jih ureja veljavno nacionalno pravo in, kadar je to usklajeno, veljavno pravo Unije. Prav tako ta direktiva ne usklajuje pogojev v zvezi s škodo, na primer, za katere vrste škode se lahko zahteva odškodnina, kar prav tako urejata veljavno nacionalno pravo in pravo Unije. Da bi se lahko uporabila domneva vzročnosti iz te direktive, bi bilo treba krivdo tožene stranke ugotoviti kot človeško dejanje ali opustitev dejanja, ki ne izpolnjuje dolžnosti skrbnega ravnanja v skladu s pravom Unije ali nacionalnim pravom, katerega neposredni namen je zaščita pred nastalo škodo. Tako se lahko ta domneva na primer uporabi v odškodninskem zahtevku za telesne poškodbe, če sodišče ugotovi krivdo tožene stranke za neupoštevanje navodil za uporabo, katerih namen je preprečiti škodo, povzročeno fizičnim osebam. Neizpolnjevanje dolžnosti skrbnega ravnanja, ki niso bile neposredno namenjene zaščiti pred nastalo škodo, ne vodi do uporabe domneve; na primer če ponudnik ne predloži zahtevane dokumentacije pristojnim organom, to ne bi privedlo do uporabe domneve v odškodninskih zahtevkih zaradi telesne poškodbe. Treba bi bilo ugotoviti tudi, da se na podlagi okoliščin primera lahko šteje za razumno verjetno, da je krivda vplivala na izhodne podatke, ki jih je ustvaril umetnointeligenčni sistem, ali na to, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov. Nazadnje, od tožeče stranke bi bilo treba še vedno zahtevati, da dokaže, da so škodo povzročili izhodni podatki ali dejstvo, da izhodni podatki niso bili ustvarjeni.

(23)Taka krivda se lahko ugotovi v zvezi z neizpolnjevanjem pravil Unije, ki posebej urejajo umetnointeligenčne sisteme velikega tveganja, kot so zahteve, uvedene za nekatere umetnointeligenčne sisteme velikega tveganja z [aktom o umetni inteligenci], zahteve, ki se lahko uvedejo s prihodnjo sektorsko zakonodajo za druge umetnointeligenčne sisteme velikega tveganja v skladu s [členom 2(2) akta o umetni inteligenci], ali dolžnosti skrbnega ravnanja, ki so povezane z nekaterimi dejavnostmi in se uporabljajo ne glede na to, ali se umetna inteligenca uporablja za to dejavnost. Hkrati ta direktiva ne ustvarja niti ne usklajuje zahtev ali odgovornosti subjektov, katerih dejavnost je urejena z navedenimi pravnimi akti, in zato ne ustvarja novih odškodninskih zahtevkov. Ugotavljanje kršitve take zahteve, ki se šteje za krivdo, bo opravljeno v skladu z določbami teh veljavnih pravil prava Unije, saj ta direktiva ne uvaja novih zahtev niti ne vpliva na obstoječe zahteve. Ta direktiva na primer ne vpliva na izjemo od odgovornosti za ponudnike posredniških storitev in obveznosti potrebne skrbnosti, ki veljajo zanje v skladu z [aktom o digitalnih storitvah]. Podobno je treba skladnost z zahtevami, ki veljajo za spletne platforme, da se prepreči nedovoljena priobčitev avtorsko zavarovanih del javnosti, določiti na podlagi Direktive (EU) 2019/790 o avtorski in sorodnih pravicah na enotnem digitalnem trgu in drugega ustreznega avtorskega prava Unije. 

(24)Na področjih, ki niso usklajena s pravom Unije, se še naprej uporablja nacionalno pravo, krivda pa se ugotavlja v skladu z veljavnim nacionalnim pravom. Vse nacionalne ureditve odgovornosti vsebujejo dolžnosti skrbnega ravnanja, pri čemer se kot standard ravnanja upoštevajo različni izrazi načela ravnanja razumne osebe, ki zagotavljajo tudi varno delovanje umetnointeligenčnih sistemov, da se prepreči škoda za priznane pravne interese. Take dolžnosti skrbnega ravnanja bi lahko na primer od uporabnikov umetnointeligenčnih sistemov zahtevale, da za nekatere naloge izberejo določen umetnointeligenčni sistem s konkretnimi značilnostmi ali da nekatere segmente prebivalstva izključijo iz izpostavljenosti določenemu umetnointeligenčnemu sistemu. Nacionalno pravo lahko uvede tudi posebne obveznosti, namenjene preprečevanju tveganj za nekatere dejavnosti, ki se uporabljajo ne glede na to, ali se umetna inteligenca uporablja za to dejavnost, na primer prometna pravila ali obveznosti, posebej zasnovane za umetnointeligenčne sisteme, na primer dodatne nacionalne zahteve za uporabnike umetnointeligenčnih sistemov velikega tveganja v skladu s členom 29(2) [akta o umetni inteligenci]. Ta direktiva ne uvaja takih zahtev niti ne vpliva na pogoje za ugotavljanje krivde v primeru kršitve takih zahtev.

(25)Tudi če se ugotovi krivda, ki pomeni neizpolnjevanje dolžnosti skrbnega ravnanja, ki je neposredno namenjena zaščiti pred nastalo škodo, vsaka krivda ne bi smela privesti do uporabe izpodbojne domneve, ki jo povezuje z izhodnimi podatki umetne inteligence. Taka domneva bi se morala uporabljati le, kadar se lahko šteje, da je iz okoliščin, v katerih je nastala škoda, razumno verjetno, da je taka krivda vplivala na izhodne podatke, ki jih je ustvaril umetnointeligenčni sistem, ali na dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, kar je povzročilo škodo. Lahko se na primer šteje za razumno verjetno, da je krivda vplivala na izhodne podatke ali na dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, kadar ta krivda pomeni kršitev dolžnosti skrbnega ravnanja v zvezi z omejevanjem obsega delovanja umetnointeligenčnega sistema in je škoda nastala izven obsega delovanja. Nasprotno, za kršitev zahteve po predložitvi nekaterih dokumentov ali registraciji pri določenem organu, čeprav bi bilo to mogoče predvideti za to določeno dejavnost ali celo izrecno uporabiti za delovanje umetnointeligenčnega sistema, ni mogoče šteti, da je razumno verjetno vplivala na izhodne podatke, ki jih je ustvaril umetnointeligenčni sistem, ali na dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov.

(26)Ta direktiva zajema krivdo, ki pomeni neskladnost z nekaterimi navedenimi zahtevami iz poglavij 2 in 3 [akta o umetni inteligenci] za ponudnike in uporabnike umetnointeligenčnih sistemov velikega tveganja, katerih neizpolnjevanje lahko pod določenimi pogoji privede do domneve vzročnosti. Akt o umetni inteligenci določa popolno uskladitev zahtev za umetnointeligenčne sisteme, razen če je v njem izrecno določeno drugače. Usklajuje posebne zahteve za umetnointeligenčne sisteme velikega tveganja. Zato se za namene odškodninskih zahtevkov, pri katerih se uporablja domneva vzročnosti v skladu s to direktivo, morebitna krivda ponudnikov ali oseb, za katere veljajo obveznosti ponudnika v skladu z [aktom o umetni inteligenci], ugotovi le, če take zahteve niso izpolnjene. Glede na to, da tožeča stranka v praksi morda težko dokaže tako neizpolnjevanje zahtev, kadar je tožena stranka ponudnik umetnointeligenčnega sistema, in popolnoma v skladu z logiko [akta o umetni inteligenci] bi morala ta direktiva določati tudi, da bi bilo treba pri ugotavljanju, ali ponudnik izpolnjuje ustrezne zahteve v skladu z aktom o umetni inteligenci iz te direktive, upoštevati ukrepe, ki jih je sprejel ponudnik v okviru sistema obvladovanja tveganja, in rezultate sistema obvladovanja tveganja, tj. odločitev o sprejetju ali nesprejetju nekaterih ukrepov za obvladovanje tveganja. Sistem obvladovanja tveganja, ki ga je ponudnik vzpostavil v skladu z [aktom o umetni inteligenci], je stalen ponavljajoč se postopek, ki poteka v celotnem življenjskem ciklu umetnointeligenčnega sistema velikega tveganja, pri čemer ponudnik zagotavlja izpolnjevanje obveznih zahtev, namenjenih zmanjševanju tveganj, in je zato lahko koristen element za oceno tega izpolnjevanja. Ta direktiva zajema tudi primere krivde uporabnikov, kadar je ta krivda v neizpolnjevanju nekaterih posebnih zahtev iz [akta o umetni inteligenci]. Poleg tega se lahko krivda uporabnikov umetnointeligenčnih sistemov velikega tveganja ugotovi zaradi neizpolnjevanja drugih dolžnosti skrbnega ravnanja, določenih v pravu Unije ali nacionalnem pravu, v skladu s členom 29(2) [akta o umetni inteligenci].

(27)Čeprav bi lahko posebne značilnosti nekaterih umetnointeligenčnih sistemov, kot sta avtonomija in nepreglednost, tožeči stranki pretirano otežile izpolnjevanje dokaznega bremena, bi lahko obstajali primeri, v katerih take težave ne obstajajo, ker bi tožeča stranka lahko imela na voljo dovolj dokazov in strokovnega znanja, da bi dokazala vzročno zvezo. To bi lahko na primer veljalo za umetnointeligenčne sisteme velikega tveganja, pri katerih bi tožeča stranka lahko razumno dostopala do zadostnih dokazov in strokovnega znanja na podlagi zahtev glede dokumentacije in vodenja dnevnikov v skladu z [aktom o umetni inteligenci]. V takih primerih sodišče ne bi smelo uporabiti domneve.

(28)Domneva vzročnosti bi se lahko uporabljala tudi za umetnointeligenčne sisteme, ki niso umetnointeligenčni sistemi velikega tveganja, ker bi lahko bilo dokazovanje za tožečo stranko pretirano oteženo. Take težave bi lahko na primer ocenili glede na značilnosti nekaterih umetnointeligenčnih sistemov, kot sta avtonomija in nepreglednost, ki v praksi zelo otežujejo razlago notranjega delovanja umetnointeligenčnega sistema, kar negativno vpliva na zmožnost tožeče stranke, da dokaže vzročno zvezo med krivdo tožene stranke in izhodnimi podatki umetnointeligenčnega sistema. Nacionalno sodišče bi moralo uporabiti domnevo, kadar je tožeča stranka v pretirano težkem položaju glede dokazovanja vzročnosti, saj mora pojasniti, kako je umetnointeligenčni sistem vodilo človeško dejanje ali opustitev dejanja, ki pomeni krivdo pri ustvarjanju izhodnih podatkov ali dejstvu, da izhodni podatki niso bili ustvarjeni, kar je povzročilo škodo. Vendar se od tožeče stranke ne bi smelo zahtevati, da pojasni značilnosti zadevnega umetnointeligenčnega sistema niti to, kako te značilnosti otežujejo ugotavljanje vzročne zveze.

(29)Uporaba domneve vzročnosti naj bi oškodovancu zagotovila podobno raven varstva kot v primerih, ko se umetna inteligenca ne uporablja in je zato vzročnost lažje dokazati. Vendar zmanjšanje dokaznega bremena glede vzročnosti v skladu s to direktivo ni vedno primerno, če tožena stranka ni poklicni uporabnik, temveč oseba, ki umetnointeligenčni sistem uporablja za svoje zasebne dejavnosti. V takih okoliščinah je treba za uravnoteženje interesov oškodovanca in nepoklicnega uporabnika upoštevati, ali lahko taki nepoklicni uporabniki s svojim ravnanjem povečajo tveganje, da bi umetnointeligenčni sistem povzročil škodo. Če je ponudnik umetnointeligenčnega sistema izpolnil vse svoje obveznosti in se je zato ta sistem štel za dovolj varnega, da ga je mogoče dati na trg za določeno uporabo s strani nepoklicnih uporabnikov, in se nato uporabi za to nalogo, se domneva vzročnosti ne bi smela uporabljati za preprost začetek uporabe takega sistema s strani takih nepoklicnih uporabnikov. Domneva vzročnosti iz te direktive ne bi smela zajemati nepoklicnih uporabnikov, ki kupijo umetnointeligenčni sistem in ga preprosto začnejo uporabljati v skladu z njegovim namenom, ne da bi bistveno posegli v pogoje delovanja. Če pa nacionalno sodišče ugotovi, da je nepoklicni uporabnik bistveno posegal v pogoje delovanja umetnointeligenčnega sistema ali je moral in je bil zmožen določiti pogoje delovanja umetnointeligenčnega sistema ter tega ni storil, bi bilo treba uporabiti domnevo vzročnosti, če so izpolnjeni vsi drugi pogoji. To se lahko na primer zgodi, kadar nepoklicni uporabnik ne upošteva navodil za uporabo ali drugih veljavnih dolžnosti skrbnega ravnanja pri izbiri območja delovanja ali določanju pogojev delovanja umetnointeligenčnega sistema. To ne posega v dejstvo, da bi moral ponudnik določiti predvideni namen umetnointeligenčnega sistema, vključno s posebnimi okoliščinami in pogoji uporabe, ter odpraviti ali čim bolj zmanjšati tveganja, povezana s tem sistemom, kot je ustrezno v času zasnove in razvoja, ob upoštevanju znanja in strokovnih izkušenj predvidenega uporabnika.

(30)Ker ta direktiva uvaja izpodbojno domnevo, bi moralo biti toženi stranki omogočeno, da jo izpodbija, zlasti tako, da dokaže, da njena krivda ni mogla povzročiti škode.

(31)Treba je zagotoviti pregled te direktive [pet let] po koncu obdobja za prenos. Pri tem pregledu bi bilo treba zlasti preučiti, ali je treba oblikovati pravila o nekrivdni odgovornosti za zahtevke proti operaterju, če še niso zajeta v drugih pravilih Unije o odgovornosti, zlasti v Direktivi 85/374/EGS, skupaj z obveznim zavarovanjem za delovanje nekaterih umetnointeligenčnih sistemov, kot je predlagal Evropski parlament 38 . V skladu z načelom sorazmernosti je primerno, da se taka potreba oceni glede na ustrezen tehnološki in regulativni razvoj v prihodnjih letih, ob upoštevanju učinka in vpliva na uvajanje in uporabo umetnointeligenčnih sistemov, zlasti za MSP. Pri takem pregledu bi bilo treba med drugim upoštevati tveganja za škodo pomembnim pravnim vrednotam, kot so življenje, zdravje in lastnina, tretjih oseb brez njihove vednosti zaradi delovanja umetnointeligenčno omogočenih proizvodov ali storitev. V pregledu bi bilo treba analizirati tudi učinkovitost ukrepov, določenih v tej direktivi, pri obravnavanju takih tveganj ter razvoj ustreznih rešitev na zavarovalniškem trgu. Za zagotovitev razpoložljivosti informacij, potrebnih za izvedbo takega pregleda, je treba zbrati podatke in druge potrebne dokaze o ustreznih zadevah.

(32)Ker je treba prilagoditi nacionalna pravila o civilni odgovornosti in nacionalna postopkovna pravila, da bi spodbudili uvajanje umetnointeligenčno omogočenih proizvodov in storitev v ugodnih pogojih na notranjem trgu, družbeno sprejemanje in zaupanje potrošnikov v umetnointeligenčno tehnologijo in pravosodni sistem, je primerno določiti rok, v katerem morajo države članice sprejeti potrebne ukrepe za prenos, in sicer najpozneje [dve leti po začetku veljavnosti] te direktive.

(33)V skladu s Skupno politično izjavo z dne 28. septembra 2011 držav članic in Komisije o obrazložitvenih dokumentih 39 se države članice zavezujejo, da bodo v upravičenih primerih obvestilu o ukrepih za prenos priložile enega ali več dokumentov, v katerih se pojasni razmerje med elementi direktive in ustreznimi deli nacionalnih instrumentov za prenos. Zakonodajalec meni, da je predložitev takih dokumentov v primeru te direktive upravičena –

SPREJELA NASLEDNJO DIREKTIVO:

Člen 1

Predmet urejanja in področje uporabe

1.Ta direktiva določa skupna pravila o:

(a)razkritju dokazov o umetnointeligenčnih sistemih velikega tveganja, da se tožeči stranki omogoči utemeljitev nepogodbenega civilnopravnega odškodninskega zahtevka na podlagi krivdne odgovornosti;

(b)dokaznem bremenu v primeru nepogodbenih civilnopravnih zahtevkov na podlagi krivdne odgovornosti, vloženih pri nacionalnih sodiščih za škodo, ki jo je povzročil umetnointeligenčni sistem.

2.Ta direktiva se uporablja za nepogodbene civilnopravne odškodninske zahtevke na podlagi krivdne odgovornosti, v primerih, ko škoda, ki jo je povzročil umetnointeligenčni sistem, nastane po [konec obdobja za prenos].

Ta direktiva se ne uporablja za kazensko odgovornost.

3.Ta direktiva ne vpliva na:

(a)pravila prava Unije, ki urejajo pogoje za odgovornost na področju prometa;

(b)kakršne koli pravice, ki jih ima lahko oškodovanec v skladu z nacionalnimi pravili za prenos Direktive 85/374/EGS;

(c)izjeme od odgovornosti in obveznosti potrebne skrbnosti, kot so določene v [aktu o digitalnih storitvah], in

(d)nacionalna pravila, ki določajo, katera stranka nosi dokazno breme, kakšna stopnja gotovosti se zahteva glede dokaznega standarda ali kako je opredeljena krivda, razen v zvezi s tem, kar je določeno v členih 3 in 4.

4.Države članice lahko sprejmejo ali ohranijo nacionalna pravila za utemeljitev nepogodbenih civilnopravnih zahtevkov za škodo, ki jo povzroči umetnointeligenčni sistem, ki so ugodnejša za tožeče stranke, če so taka pravila združljiva s pravom Unije.

Člen 2

Opredelitev pojmov

V tej direktivi se uporabljajo naslednje opredelitve pojmov:

(1)„umetnointeligenčni sistem“ pomeni umetnointeligenčni sistem, kot je opredeljen v [členu 3(1) akta o umetni inteligenci];

(2)„umetnointeligenčni sistem velikega tveganja“ pomeni umetnointeligenčni sistem iz [člena 6 akta o umetni inteligenci];

(3)„ponudnik“ pomeni ponudnika, kot je opredeljen v [členu 3(2) akta o umetni inteligenci];

(4)„uporabnik“ pomeni uporabnika, kot je opredeljen v [členu 3(4) akta o umetni inteligenci];

(5)„odškodninski zahtevek“ pomeni nepogodbeni civilnopravni odškodninski zahtevek na podlagi krivdne odgovornosti za povrnitev škode, nastale zaradi izhodnih podatkov umetnointeligenčnega sistema ali zato, ker tak sistem ni ustvaril izhodnih podatkov, če bi morali biti taki izhodni podatki ustvarjeni;

(6)„tožeča stranka“ pomeni osebo, ki vloži odškodninski zahtevek in ki:

(a)je utrpela škodo zaradi izhodnih podatkov umetnointeligenčnega sistema ali zato, ker tak sistem ni ustvaril izhodnih podatkov, če bi morali biti taki izhodni podatki ustvarjeni;

(b) je nasledila pravico oškodovanca ali se je nanjo ta pravica prenesla na podlagi zakona ali pogodbe; ali

(c)deluje v imenu enega ali več oškodovancev v skladu s pravom Unije ali nacionalnim pravom;

(7)    „potencialna tožeča stranka“ pomeni fizično ali pravno osebo, ki razmišlja o tem, da bi vložila odškodninski zahtevek, vendar tega še ni storila;

(8)    „tožena stranka“ pomeni osebo, proti kateri je vložen odškodninski zahtevek;

(9)    „dolžnost skrbnega ravnanja“ pomeni zahtevani standard ravnanja, določen z nacionalnim pravom ali pravom Unije, da se prepreči škoda pravnim interesom, priznanim na nacionalni ravni ali ravni prava Unije, vključno z življenjem, telesno nedotakljivostjo, lastnino in varstvom temeljnih pravic.

Člen 3

Razkritje dokazov in izpodbojna domneva o neizpolnjevanju dolžnosti

 

1.Države članice zagotovijo, da so nacionalna sodišča pooblaščena, bodisi na zahtevo potencialne tožeče stranke, ki je predhodno zaprosila ponudnika, osebo, za katero veljajo obveznosti ponudnika v skladu s [členom 24 ali členom 28(1) akta o umetni inteligenci], ali uporabnika, da razkrije ustrezne dokaze, ki jih ima na razpolago, o določenem umetnointeligenčnem sistemu velikega tveganja, za katerega obstaja sum, da je povzročil škodo, vendar je bila zahteva zavrnjena, bodisi na zahtevo tožeče stranke, da tem osebam odredijo razkritje takih dokazov.

V utemeljitev te zahteve mora potencialna tožeča stranka predložiti dejstva in dokaze, ki zadostujejo za utemeljitev verodostojnosti odškodninskega zahtevka.

2.V okviru odškodninskega zahtevka nacionalno sodišče odredi razkritje dokazov s strani ene od oseb iz odstavka 1 le, če je tožeča stranka storila vse, kar je sorazmerno potrebno, da bi od tožene stranke zbrala ustrezne dokaze.

3.Države članice zagotovijo, da so nacionalna sodišča na zahtevo tožeče stranke pooblaščena, da odredijo posebne ukrepe za zavarovanje dokazov iz odstavka 1.

4.Nacionalna sodišča omejijo razkritje dokazov na to, kar je potrebno in sorazmerno za utemeljitev potencialnega odškodninskega zahtevka ali odškodninskega zahtevka, in zavarovanje dokazov na to, kar je potrebno in sorazmerno za utemeljitev takega odškodninskega zahtevka.

Nacionalna sodišča pri ugotavljanju, ali je odredba za razkritje ali zavarovanje dokazov sorazmerna, upoštevajo zakonite interese vseh strank, tudi zadevnih tretjih oseb, zlasti v zvezi z varstvom poslovnih skrivnosti v smislu člena 2(1) Direktive (EU) 2016/943 in zaupnih informacij, na primer informacij, povezanih z javno ali nacionalno varnostjo.

Kadar je odrejeno razkritje poslovne skrivnosti ali domnevne poslovne skrivnosti, ki jo je sodišče opredelilo kot zaupno v smislu člena 9(1) Direktive (EU) 2016/943, države članice zagotovijo, da so nacionalna sodišča pooblaščena, da na podlagi ustrezno utemeljenega zahtevka stranke ali na lastno pobudo sprejmejo posebne ukrepe, potrebne za ohranitev zaupnosti, kadar se ti dokazi uporabijo ali se stranke nanje sklicujejo v sodnem postopku.

Države članice zagotovijo tudi, da ima oseba, ki ji je bilo odrejeno razkritje ali zavarovanje dokazov iz odstavka 1 ali 2, na voljo ustrezna procesna sredstva v odziv na take odredbe.

5.Če tožena stranka ne izpolni odredbe nacionalnega sodišča v odškodninskem zahtevku, naj razkrije ali zavaruje dokaze, ki jih ima na razpolago, v skladu z odstavkom 1 ali 2, nacionalno sodišče domneva, da tožena stranka ni izpolnila ustrezne dolžnosti skrbnega ravnanja, zlasti v okoliščinah iz člena 4(2) ali (3), ko so bili zahtevani dokazi namenjeni dokazovanju za namene zadevnega odškodninskega zahtevka.

Tožena stranka ima pravico izpodbijati to domnevo.

Člen 4

Izpodbojna domneva vzročne zveze v primeru krivde

1.Ob upoštevanju zahtev iz tega člena nacionalna sodišča za namene uporabe pravil o odgovornosti za odškodninski zahtevek domnevajo vzročno zvezo med krivdo tožene stranke in izhodnimi podatki, ki jih je ustvaril umetnointeligenčni sistem, ali dejstvom, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, če so izpolnjeni vsi naslednji pogoji:

(a) tožeča stranka je dokazala ali sodišče je v skladu s členom 3(5) domnevalo krivdo tožene stranke ali osebe, za ravnanje katere je odgovorna tožena stranka, in sicer neizpolnjevanje dolžnosti skrbnega ravnanja, določene v pravu Unije ali nacionalnem pravu, ki je neposredno namenjena zaščiti pred nastalo škodo;

(b)na podlagi okoliščin primera se lahko šteje za razumno verjetno, da je krivda vplivala na izhodne podatke, ki jih je ustvaril umetnointeligenčni sistem, ali na to, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov;

(c)tožeča stranka je dokazala, da so izhodni podatki, ki jih je ustvaril umetnointeligenčni sistem, ali dejstvo, da umetnointeligenčni sistem ni ustvaril izhodnih podatkov, povzročili škodo.

2.V primeru odškodninskega zahtevka zoper ponudnika umetnointeligenčnega sistema velikega tveganja, za katerega veljajo zahteve iz poglavij 2 in 3 poglavja III [akta o umetni inteligenci], ali osebo, za katero veljajo obveznosti ponudnika v skladu s [členom 24 ali členom 28(1) akta o umetni inteligenci], se pogoj iz odstavka 1, točka (a), izpolni le, če tožeča stranka dokaže, da ponudnik ali, če je ustrezno, oseba, za katero veljajo obveznosti ponudnika, ni izpolnil katere koli od naslednjih zahtev iz navedenih poglavij, ob upoštevanju izvedenih korakov in rezultatov sistema obvladovanja tveganja v skladu s [členom 9 in členom 16, točka (a), akta o umetni inteligenci]:

(a) umetnointeligenčni sistem je sistem, ki uporablja tehnike, ki vključujejo učenje modelov s podatki, in ki ni bil razvit na podlagi naborov učnih podatkov, podatkov za potrditev in testnih podatkov, ki izpolnjujejo merila kakovosti iz [člena 10(2) do (4) akta o umetni inteligenci];

(b) umetnointeligenčni sistem ni bil zasnovan in razvit tako, da bi izpolnjeval zahteve glede preglednosti iz [člena 13 akta o umetni inteligenci];

(c)umetnointeligenčni sistem ni bil zasnovan in razvit tako, da bi fizičnim osebam omogočal učinkovit nadzor v obdobju uporabe umetnointeligenčnega sistema v skladu s [členom 14 akta o umetni inteligenci];

(d)umetnointeligenčni sistem ni bil zasnovan in razvit tako, da bi glede na predvideni namen dosegel ustrezno raven točnosti, robustnosti in kibernetske varnosti v skladu s [členom 15 in členom 16, točka (a), akta o umetni inteligenci]; ali

(e)potrebni popravni ukrepi niso bili sprejeti takoj za uskladitev umetnointeligenčnega sistema z obveznostmi iz [naslova III, poglavje 2, akta o umetni inteligenci] ali za umik ali preklic sistema, kot je ustrezno, v skladu s [členom 16, točka (g), in členom 21 akta o umetni inteligenci].

3.V primeru odškodninskega zahtevka zoper uporabnika umetnointeligenčnega sistema velikega tveganja, za katerega veljajo zahteve iz poglavij 2 in 3 poglavja III [akta o umetni inteligenci], je pogoj iz odstavka 1, točka (a), izpolnjen, če tožeča stranka dokaže, da:

(a)uporabnik ni izpolnil svojih obveznosti glede uporabe ali spremljanja umetnointeligenčnega sistema v skladu s priloženimi navodili za uporabo ali, če je ustrezno, začasno ustavil ali prekinil njegove uporabe v skladu s [členom 29 akta o umetni inteligenci]; ali

(b)je uporabnik umetnointeligenčni sistem izpostavil vhodnim podatkom pod njegovim nadzorom, ki niso ustrezni glede na predvideni namen sistema, v skladu s [členom 29(3) akta o umetni inteligenci].

4.V primeru odškodninskega zahtevka v zvezi z umetnointeligenčnim sistemom velikega tveganja nacionalno sodišče ne uporabi domneve iz odstavka 1, če tožena stranka dokaže, da je tožeči stranki razumno na voljo dovolj dokazov in strokovnega znanja, da dokaže vzročno zvezo iz odstavka 1.

5.V primeru odškodninskega zahtevka v zvezi z umetnointeligenčnim sistemom, ki ni umetnointeligenčni sistem velikega tveganja, se domneva iz odstavka 1 uporablja le, kadar nacionalno sodišče meni, da je za tožečo stranko pretirano težko dokazati vzročno zvezo iz odstavka 1.

6.V primeru odškodninskega zahtevka zoper toženo stranko, ki je uporabljala umetnointeligenčni sistem v okviru osebne, nepoklicne dejavnosti, se domneva iz odstavka 1 uporablja le, če je tožena stranka bistveno posegla v pogoje delovanja umetnointeligenčnega sistema ali če je bila tožena stranka zavezana in sposobna določiti pogoje delovanja umetnointeligenčnega sistema, vendar tega ni storila.

7.Tožena stranka ima pravico izpodbijati domnevo iz odstavka 1.

Člen 5

Ocena in ciljno usmerjen pregled

1.Komisija do [DATUM pet let po koncu obdobja za prenos] pregleda uporabo te direktive ter Evropskemu parlamentu, Svetu in Evropskemu ekonomsko-socialnemu odboru predloži poročilo, ki mu po potrebi priloži zakonodajni predlog.

2.V poročilu se preučijo učinki členov 3 in 4 na doseganje ciljev te direktive. Zlasti bi morala biti ocenjena ustreznost pravil o nekrivdni odgovornosti za zahtevke zoper operaterje nekaterih umetnointeligenčnih sistemov, če še niso zajeta v drugih pravilih Unije o odgovornosti, in potreba po zavarovalnem kritju, pri tem pa bi se morala upoštevati učinek in vpliv na uvajanje in uporabo umetnointeligenčnih sistemov, zlasti za MSP.

3.Komisija vzpostavi program spremljanja za pripravo poročila v skladu z odstavkoma 1 in 2, v katerem določi, na kakšen način in v kakšnih časovnih presledkih se bodo zbirali podatki in drugi potrebni dokazi. Program določa ukrepe, ki jih Komisija in države članice sprejmejo pri zbiranju in analiziranju podatkov ter drugih dokazov. Za namene tega programa države članice Komisiji sporočijo ustrezne podatke in dokaze do [31. decembra drugega polnega leta po koncu obdobja za prenos] ter do konca vsakega naslednjega leta.

Člen 6

Sprememba Direktive (EU) 2020/1828

V Prilogi I k Direktivi (EU) 2020/1828 40 se doda naslednja točka 67:

„(67) Direktiva (EU).../... Evropskega parlamenta in Sveta z dne ... o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci (direktiva o odgovornosti na področju umetne inteligence) (UL L ..., ..., str. ...).“

Člen 7

Prenos

1.Države članice sprejmejo zakone in druge predpise, potrebne za uskladitev s to direktivo, najpozneje do [dve leti po začetku veljavnosti]. Komisiji takoj sporočijo besedilo teh predpisov.

Države članice se v sprejetih predpisih sklicujejo na to direktivo ali pa sklic nanjo navedejo ob njihovi uradni objavi. Način sklicevanja določijo države članice.

2.Države članice Komisiji sporočijo besedilo temeljnih predpisov nacionalnega prava, sprejetih na področju, ki ga ureja ta direktiva.

Člen 8

Začetek veljavnosti

Ta direktiva začne veljati dvajseti dan po objavi v Uradnem listu Evropske unije.

Člen 9

Naslovniki

Ta direktiva je naslovljena na države članice.

V Bruslju,

Za Evropski parlament    Za Svet

predsednica     predsednik 

(1)    European enterprise survey on the use of technologies based on artificial intelligence (Raziskava evropskih podjetij o uporabi tehnologij, ki temeljijo na umetni inteligenci), Ipsos 2020, končno poročilo, str. 58
(
https://op.europa.eu/sl/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf
(3)    Bela knjiga o umetni inteligenci – evropski pristop k odličnosti in zaupanju (COM(2020) 65 final z dne 19. februarja 2020).
(4)    Poročilo Komisije Evropskemu parlamentu, Svetu in Evropskemu ekonomsko-socialnemu odboru o vprašanjih varnosti in odgovornosti, ki jih sprožajo umetna inteligenca, internet stvari in robotika (COM(2020) 64 final z dne 19. februarja 2020).
(5)    Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o ureditvi civilne odgovornosti za področje umetne inteligence (2020/2014(INL)).
(6)    Resolucija Evropskega parlamenta z dne 3. maja 2022 o umetni inteligenci v digitalni dobi (2020/2266(INI)).
(7)    Predlog uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) (COM(2021) 206 final).
(8)    Akt o umetni inteligenci izrecno prepoveduje le majhno število primerov uporabe umetne inteligence.
(9)    Delovni dokument služb Komisije SWD(2021) 84 final, ocena učinka, priložena aktu o umetni inteligenci, str. 88.
(10)    Predlog uredbe Evropskega parlamenta in Sveta o splošni varnosti proizvodov (COM(2021) 346 final).
(11)    Predlog uredbe Evropskega parlamenta in Sveta o strojih in strojni opremi (COM(2021) 202 final).
(12)    Delegirana uredba Komisije (EU) 2022/30 o dopolnitvi Direktive 2014/53/EU Evropskega parlamenta in Sveta v zvezi z uporabo bistvenih zahtev iz člena 3(3), točke (d), (e) in (f), navedene direktive (UL L 7, 12.1.2022, str. 6).
(13)    Sporočilo Komisije: Oblikovanje digitalne prihodnosti Evrope (COM(2020) 67 final).
(14)    Predlog uredbe Evropskega parlamenta in Sveta o horizontalnih zahtevah glede kibernetske varnosti za izdelke z digitalnimi elementi (COM(2022) 454 final).
(15)    Sporočilo Komisije: Evropska strategija za podatke (COM(2020) 66 final).
(16)    Sporočilo Komisije Evropskemu parlamentu, Evropskemu svetu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij: Evropski zeleni dogovor (COM(2019) 640 final).
(17)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Študija v podporo oceni učinka Komisije o odgovornosti za umetno inteligenco), 2021 (v nadaljnjem besedilu: ekonomska študija).
(18)    Nacionalna strategija Češke za umetno inteligenco, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, National strategies on Artificial Intelligence – A European perspective (Nacionalne strategije za umetno inteligenco – evropska perspektiva), izdaja 2021, poročilo JRC-OECD: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , str. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese (Strategija za tehnološke inovacije in digitalizacijo države do leta 2025): https://assets.innovazione.gov.it/1610546390-midbook2025.pdf .
(20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Študija v podporo oceni učinka Komisije o odgovornosti za umetno inteligenco), 2021, str. 96.
(21)    Glej Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019–2027 (Politika za razvoj umetne inteligence na Poljskem za obdobje 2019–2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102–3.
(22)    AI Portugal 2030 (Umetna inteligenca na Portugalskem do leta 2030): https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., str. 113.
(23)    Predvsem v smislu objektivne odgovornosti, obrnjenega dokaznega bremena ali zmanjšanja dokaznega bremena v obliki neizpodbojnih ali izpodbojnih domnev.
(24)    Povezava: < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_en >.
(25)    Liability for artificial intelligence and other emerging digital technologies (Odgovornost za umetno inteligenco in druge nastajajoče digitalne tehnologije), november 2019, https://op.europa.eu/sl/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1 .
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Primerjalnopravna študija o civilni odgovornosti za umetno inteligenco), 2021, https://op.europa.eu/sl/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1 .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services (Vedenjska študija o povezavi med izzivi umetne inteligence za pravila držav članic o civilni odgovornosti in odnosom potrošnikov do umetnointeligenčno omogočenih proizvodov in storitev), končno poročilo, 2021.
(28)    Deloitte, Study to support the Commission’s Impact Assesment on liability for artificial intelligence (Študija v podporo oceni učinka Komisije o odgovornosti za umetno inteligenco), 2021.
(29)    UL C , , str. .
(30)    UL C , , str. .
(31)    [Predlog uredbe o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) (COM(2021) 206 final)].
(32)    [Predlog uredbe Evropskega parlamenta in Sveta o splošni varnosti proizvodov (COM(2021) 346 final)].
(33)    [Predlog uredbe Evropskega parlamenta in Sveta o strojih in strojni opremi (COM(2021) 202 final)].
(34)    Delegirana uredba Komisije (EU) 2022/30 o dopolnitvi Direktive 2014/53/EU Evropskega parlamenta in Sveta v zvezi z uporabo bistvenih zahtev iz člena 3(3), točke (d), (e) in (f), navedene direktive (UL L 7, 12.1.2022, str. 6).
(35)    Direktiva Sveta 85/374/EGS z dne 25. julija 1985 o približevanju zakonov in drugih predpisov držav članic v zvezi z odgovornostjo za proizvode z napako (UL L 210, 7.8.1985, str. 29).
(36)    [Predlog uredbe Evropskega parlamenta in Sveta o enotnem trgu digitalnih storitev (akt o digitalnih storitvah) (COM(2020) 825 final)].
(37)    Direktiva (EU) 2016/943 Evropskega parlamenta in Sveta z dne 8. junija 2016 o varstvu nerazkritega strokovnega znanja in izkušenj ter poslovnih informacij (poslovnih skrivnosti) pred njihovo protipravno pridobitvijo, uporabo in razkritjem (UL L 157, 15.6.2016, str. 1).
(38)    Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o ureditvi civilne odgovornosti za področje umetne inteligence (2020/2014(INL)) (UL C 404, 6.10.2021, str. 107).
(39)    UL C 369, 17.12.2011, str. 14.
(40)    Direktiva (EU) 2020/1828 Evropskega parlamenta in Sveta z dne 25. novembra 2020 o zastopniških tožbah za varstvo kolektivnih interesov potrošnikov in razveljavitvi Direktive 2009/22/ES (UL L 409, 4.12.2020, str. 1).