EUROPOS KOMISIJA
Briuselis, 2022 09 28
COM(2022) 496 final
2022/0303(COD)
Pasiūlymas
EUROPOS PARLAMENTO IR TARYBOS DIREKTYVA
dėl nesutartinės civilinės atsakomybės taisyklių pritaikymo dirbtiniam intelektui
(Atsakomybės už dirbtinį intelektą direktyva)
(Tekstas svarbus EEE)
{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}
AIŠKINAMASIS MEMORANDUMAS
1.PASIŪLYMO APLINKYBĖS
·Pasiūlymo pagrindimas ir tikslai
Šis aiškinamasis memorandumas pridedamas prie pasiūlymo dėl Direktyvos dėl nesutartinės civilinės atsakomybės taisyklių pritaikymo dirbtiniam intelektui. 2020 m. atlikus reprezentatyvią apklausą nustatyta, kad atsakomybė buvo laikoma viena iš trijų didžiausių kliūčių, dėl kurių Europos įmonės negali naudoti dirbtinio intelekto. Buvo nurodyta, kad aktualiausia išorinė kliūtis (43 proc.) įmonėms, kurios planuoja naudoti dirbtinį intelektą, tačiau jo dar neįdiegė, yra atsakomybė.
Komisijos Pirmininkė Ursula von der Leyen savo politinėse gairėse išdėstė koordinuotą europinį požiūrį į dirbtinį intelektą. 2020 m. vasario 19 d. Baltojoje knygoje dėl dirbtinio intelekto Komisija įsipareigojo skatinti dirbtinio intelekto diegimą ir mažinti riziką, susijusią su kai kuriais jo naudojimo būdais, skatindama kompetenciją ir pasitikėjimą. Prie baltosios knygos pridedamoje Ataskaitoje dėl atsakomybės už dirbtinį intelektą Komisija nustatė konkrečias su galiojančiomis atsakomybės taisyklėmis susijusias problemas, kylančias dėl dirbtinio intelekto. 2020 m. birželio 9 d. išvadose dėl Europos skaitmeninės ateities kūrimo Taryba palankiai įvertino konsultacijas dėl politikos pasiūlymų, aprašytų Baltojoje knygoje dėl dirbtinio intelekto, ir paragino Komisiją pateikti konkrečių pasiūlymų. 2020 m. spalio 20 d. Europos Parlamentas pagal SESV 225 straipsnį savo iniciatyva priėmė teisėkūros rezoliuciją, kurioje Komisijos prašoma priimti pasiūlymą dėl civilinės atsakomybės už dirbtinį intelektą tvarkos, grindžiamą Sutarties dėl ES veikimo (SESV) 114 straipsniu.
Šiuo metu galiojančios nacionalinės atsakomybės taisyklės, kurios visų pirma grindžiamos kalte, nėra tinkamos pretenzijoms dėl atsakomybės už dirbtiniu intelektu grindžiamų produktų ir paslaugų padarytą žalą nagrinėti. Taikant šias taisykles nukentėjusieji turi įrodyti, kad žalą sukėlęs asmuo vykdė neteisėtus veiksmus arba neveikė. Dėl specifinių dirbtinio intelekto savybių, įskaitant sudėtingumą, autonomiją ir neskaidrumą (vadinamąjį juodosios dėžės reiškinį), nukentėjusiesiems gali būti sunku arba pernelyg brangu nustatyti atsakingą asmenį ir įrodyti, kad pretenzijos dėl atsakomybės atitinka reikalavimus. Visų pirma, nukentėjusieji, reikalaudami kompensacijos, galėtų patirti labai didelių pradinių išlaidų ir būti priversti dalyvauti gerokai ilgesniuose teismo procesuose, palyginti su atvejais, nesusijusiais su dirbtiniu intelektu. Todėl nukentėjusieji gali net nemėginti reikalauti atlyginti žalą. Šiuos susirūpinimą keliančius klausimus Europos Parlamentas (EP) taip pat įtraukė į savo 2022 m. gegužės 3 d. rezoliuciją dėl dirbtinio intelekto skaitmeniniame amžiuje.
Jeigu nukentėjusysis pareiškia ieškinį, nacionaliniai teismai, žinodami apie specifines dirbtinio intelekto savybes ir siekdami nukentėjusiojo atžvilgiu teisingo rezultato, galiojančių taisyklių taikymą gali pritaikyti ad hoc. Dėl to atsiras teisinis netikrumas. Įmonėms bus sunku numatyti, kaip bus taikomos galiojančios atsakomybės taisyklės, ir taip įvertinti su atsakomybe susijusią riziką bei nuo jos apsidrausti. Šis poveikis bus dar didesnis įmonėms, vykdančioms tarpvalstybinę prekybą, nes netikrumas bus susijęs su skirtingomis jurisdikcijomis. Tai turės ypač didelį poveikį mažosioms ir vidutinėms įmonėms (MVĮ), kurios neturi savo teisininkų arba kapitalo rezervų.
Iš nacionalinių dirbtinio intelekto strategijų matyti, kad kelios valstybės narės svarsto ar net konkrečiai planuoja teisėkūros veiksmus dėl civilinės atsakomybės už dirbtinį intelektą. Todėl manoma, kad, jeigu ES nesiims veiksmų, valstybės narės pačios pritaikys savo nacionalines atsakomybės taisykles atsižvelgdamos į problemas, kylančias dėl dirbtinio intelekto. Dėl to visoje ES veikiančios įmonės taps dar labiau suskaidytos ir patirs daugiau išlaidų.
Pirmiau paaiškintos problemos buvo patvirtintos visose viešose konsultacijose, kuriomis remiantis buvo atliktas šio pasiūlymo poveikio vertinimas. Visuomenės nuomone, dėl juodosios dėžės reiškinio nukentėjusiajam gali būti sunku įrodyti kaltę ir priežastinį ryšį, taip pat gali kilti neaiškumų dėl to, kaip teismai aiškins ir taikys galiojančias nacionalines atsakomybės taisykles su dirbtiniu intelektu susijusiais atvejais. Be to, konsultacijos atskleidė visuomenės susirūpinimą dėl to, kaip atskirų valstybių narių inicijuoti teisėkūros veiksmai dėl atsakomybės taisyklių pritaikymo ir su tuo susijęs susiskaidymas darytų poveikį įmonių, ypač MVĮ, sąnaudoms ir trukdytų diegti dirbtinį intelektą visoje Sąjungoje.
Todėl šio pasiūlymo tikslas – skatinti pasirengimą patikimo dirbtinio intelekto naudojimui, visiškai išnaudojant jo naudą vidaus rinkai. To siekiama užtikrinant, kad nukentėjusiesiems dėl dirbtinio intelekto padarytos žalos būtų suteikiama tokia pati apsauga, kaip ir nukentėjusiesiems dėl produktų padarytos žalos apskritai. Juo taip pat siekiama sumažinti dirbtinį intelektą kuriančių arba naudojančių įmonių patiriamą teisinį netikrumą dėl galimos atsakomybės rizikos ir užkirsti kelią nesuvienodintam su dirbtiniu intelektu susijusių nacionalinių civilinės atsakomybės taisyklių pritaikymui.
·Suderinamumas su toje pačioje politikos srityje galiojančiomis nuostatomis
Šis pasiūlymas yra dalis priemonių rinkinio, kuriuo siekiama remti dirbtinio intelekto diegimą Europoje skatinant kompetenciją ir pasitikėjimą. Šis rinkinys apima tris viena kitą papildančias darbo kryptis:
–pasiūlymą dėl teisėkūros procedūra priimamo akto, kuriuo nustatomos horizontaliosios dirbtinio intelekto sistemų taisyklės (Dirbtinio intelekto aktas);
–sektorių ir horizontaliųjų gaminių saugos taisyklių peržiūrą;
–ES taisykles, kuriomis sprendžiami su dirbtinio intelekto sistemomis susiję atsakomybės klausimai.
Pasiūlyme dėl Dirbtinio intelekto akto Komisija pasiūlė taisykles, kuriomis siekiama sumažinti saugos riziką ir apsaugoti pagrindines teises. Politika ir atsakomybė yra dvi to paties medalio pusės: jos taikomos skirtingu metu ir sustiprina viena kitą. Nors taisyklėmis, kuriomis siekiama užtikrinti saugą ir pagrindinių teisių apsaugą, sumažinama rizika, ji visiškai nepašalinama. Kai tokia rizika pasitvirtina, žala vis tiek gali būti padaryta. Tokiais atvejais bus taikomos šiame pasiūlyme nustatytos atsakomybės taisyklės.
Veiksmingos atsakomybės taisyklės taip pat veikia kaip ekonominė paskata laikytis saugos taisyklių ir taip padeda užkirsti kelią žalai. Be to, šiuo pasiūlymu prisidedama prie Dirbtinio intelekto akte nustatytų didelės rizikos dirbtinio intelekto sistemoms taikomų reikalavimų vykdymo užtikrinimo, nes šių reikalavimų nesilaikymas yra svarbus veiksnys, dėl kurio sumažėja prievolė įrodyti. Šis pasiūlymas taip pat dera su siūlomomis bendrosiomis ir sektorių gaminių saugos taisyklėmis, taikomomis dirbtiniu intelektu grindžiamiems mašinų gaminiams ir radijo ryšio įrenginiams.
Komisija savo dirbtinio intelekto politikoje laikosi kompleksinio požiūrio į atsakomybę, siūlydama pritaikyti gamintojo atsakomybę už gaminius su trūkumais pagal Atsakomybės už gaminius direktyvą, taip pat tikslinį suderinimą pagal šį pasiūlymą. Šios dvi politikos iniciatyvos yra glaudžiai susijusios ir įtrauktos į rinkinį, nes jos apima reikalavimus, susijusius su skirtingų rūšių atsakomybe. Atsakomybės už gaminius direktyva apima gamintojo atsakomybę be kaltės už gaminius su trūkumais, todėl pagal ją atlyginama tam tikrų rūšių žala, kurią daugiausia patiria fiziniai asmenys. Šis pasiūlymas apima nacionalines pretenzijas dėl atsakomybės, daugiausia grindžiamas bet kurio asmens kalte, siekiant atlyginti bet kokių nukentėjusiųjų patirtą bet kokios rūšies žalą. Šios iniciatyvos papildo viena kitą ir sudaro bendrą veiksmingą civilinės atsakomybės sistemą.
Kartu šiomis taisyklėmis bus skatinamas pasitikėjimas dirbtiniu intelektu (ir kitomis skaitmeninėmis technologijomis), užtikrinant, kad nukentėjusiesiems būtų veiksmingai atlyginama žala, jeigu žala padaroma nepaisant Dirbtinio intelekto akte nustatytų prevencinių reikalavimų ir kitų saugos taisyklių.
·Suderinamumas su kitomis Sąjungos politikos sritimis
Pasiūlymas dera su Sąjungos bendra skaitmenine strategija, nes juo padedama skatinti žmonėms tarnaujančią technologiją, kuri yra vienas iš trijų pagrindinių politikos gairių ir tikslų, paskelbtų komunikate „Europos skaitmeninės ateities formavimas“, ramsčių.
Atsižvelgiant į tai, šiuo pasiūlymu siekiama didinti pasitikėjimą dirbtiniu intelektu ir didinti jo naudojimą. Tai padės užtikrinti sinergiją ir papildo [Kibernetinio atsparumo aktą], kuriuo taip pat siekiama didinti pasitikėjimą skaitmeninių elementų turinčiais produktais mažinant kibernetinį pažeidžiamumą ir geriau apsaugoti įmones ir vartotojus.
Šiuo pasiūlymu nedaromas poveikis [Skaitmeninių paslaugų akte (SPA)] nustatytoms taisyklėms, pagal kurias numatoma išsami ir visiškai suderinta išsamaus patikrinimo pareigų, susijusių su skaitmeninių platformų algoritminių sprendimų priėmimu, sistema, įskaitant išimtį dėl tarpininkavimo paslaugų teikėjų atsakomybės.
Be to, kadangi šiuo pasiūlymu skatinamas dirbtinio intelekto diegimas, jis yra susijęs su ES duomenų strategijos iniciatyvomis. Juo taip pat stiprinamas Sąjungos vaidmuo padedant formuoti pasaulines normas ir standartus ir skatinant kurti patikimą dirbtinį intelektą, atitinkantį Sąjungos vertybes ir interesus.
Šis pasiūlymas taip pat netiesiogiai susijęs su Europos žaliuoju kursu. Visų pirma skaitmeninės technologijos, įskaitant dirbtinį intelektą, yra labai svarbios siekiant žaliojo kurso tvarumo tikslų daugelyje įvairių sektorių (įskaitant sveikatos priežiūros, transporto, aplinkos apsaugos ir ūkininkavimo).
·Pagrindinis ekonominis bei socialinis poveikis ir poveikis aplinkai
Šia direktyva bus prisidedama prie dirbtinio intelekto diegimo. Dirbtinio intelekto technologijų diegimo ir plėtojimo vidaus rinkoje sąlygas galima gerokai pagerinti užkertant kelią susiskaidymui ir didinant teisinį tikrumą taikant suderintas priemones ES lygmeniu, palyginti su galimu atsakomybės taisyklių pritaikymu nacionaliniu lygmeniu. Atlikus ekonominį tyrimą, kuriuo grindžiamas šio pasiūlymo poveikio vertinimas, padaryta konservatyvi išvada, kad, palyginti su baziniu scenarijumi, tikslinės derinimo priemonės, susijusios su civiline atsakomybe už dirbtinį intelektą, turėtų 5–7 proc. teigiamą poveikį atitinkamos tarpvalstybinės prekybos produkcijos vertei. Ši pridėtinė vertė visų pirma būtų sukurta dėl mažesnio susiskaidymo ir didesnio teisinio tikrumo, susijusio su suinteresuotųjų šalių atsakomybe. Būtų sumažintos suinteresuotųjų šalių patiriamos teisinės informacijos ir (arba) atstovavimo, vidaus rizikos valdymo ir reikalavimų laikymosi užtikrinimo išlaidos, palengvintas finansų planavimas ir rizikos vertinimas draudimo tikslais, o įmonės, visų pirma MVĮ, galėtų ieškoti naujų tarpvalstybinių rinkų. Remiantis bendra ES dirbtinio intelekto rinkos, kuriai daro poveikį šioje direktyvoje nagrinėjamos su atsakomybe susijusios problemos, verte, apskaičiuota, kad dėl jos bus sukurta papildoma maždaug 500 mln.–1,1 mlrd. EUR rinkos vertė.
Kalbant apie socialinį poveikį, šia direktyva bus padidintas visuomenės pasitikėjimas dirbtinio intelekto technologijomis ir pagerės prieiga prie veiksmingos teisingumo sistemos. Direktyva padės užtikrinti efektyvią prie dirbtinio intelekto ypatumų pritaikytą civilinės atsakomybės tvarką, kurią taikant bus galima sėkmingai patenkinti pagrįstus reikalavimus atlyginti žalą. Didesnis visuomenės pasitikėjimas taip pat būtų naudingas visoms dirbtinio intelekto vertės grandinės įmonėms, nes sustiprinus piliečių pasitikėjimą būtų galima sparčiau vykdyti dirbtinio intelekto diegimą. Dėl skatinamojo atsakomybės taisyklių poveikio visi piliečiai pajustų ir netiesioginę atsakomybės spragų prevencijos naudą, nes būtų geriau užtikrinama sveikatos apsauga ir sauga (SESV 114 straipsnio 3 dalis) ir pašalinami pavojaus sveikatai šaltiniai (SESV 168 straipsnio 1 dalis).
Kalbant apie poveikį aplinkai, taip pat tikimasi, kad ši direktyva padės įgyvendinti susijusius darnaus vystymosi tikslus (DVT) ir uždavinius. Dirbtinio intelekto programų naudojimas naudingas aplinkai. Pavyzdžiui, dėl dirbtinio intelekto sistemų, naudojamų procesų optimizavimui, procesų metu mažiau švaistoma (pavyzdžiui, sumažinamas reikalingas trąšų ir pesticidų kiekis, sumažinamas vandens suvartojimas užtikrinant tokį patį našumą ir pan.). Direktyva taip pat turėtų teigiamą poveikį DVT, nes veiksmingais teisės aktais dėl skaidrumo, atskaitomybės ir pagrindinių teisių dirbtinio intelekto potencialas bus formuojamas taip, kad, siekiant DVT, jis būtų naudingas ir asmenims, ir visuomenei.
2.TEISINIS PAGRINDAS, SUBSIDIARUMAS IR PROPORCINGUMAS
·
Teisinis pagrindas
Pasiūlymo teisinis pagrindas yra SESV 114 straipsnis, kuriame numatyta nustatyti priemones vidaus rinkos sukūrimui ir veikimui užtikrinti.
Problemos, kurias siekiama spręsti šiuo pasiūlymu, visų pirma susijusios su teisiniu netikrumu ir teisiniu susiskaidymu, trukdo vykdyti vidaus rinkos plėtrą ir sukelia daug kliūčių tarpvalstybinei prekybai dirbtiniu intelektu grindžiamais produktais ir paslaugomis.
Šiuo pasiūlymu siekiama pašalinti kliūtis, kylančias dėl to, kad įmonės, norinčios kurti, platinti ir naudoti dirbtiniu intelektu grindžiamus produktus ir paslaugas tarpvalstybiniu mastu, nėra tikros, ar šiuo metu galiojanti atsakomybės tvarka apima ir dirbtinio intelekto padarytą žalą ir kaip ji taikoma. Šis netikrumas visų pirma susijęs su valstybėmis narėmis, į kurias įmonės eksportuos produktus ir paslaugas arba kuriose vykdys veiklą. Tarpvalstybiniu požiūriu nesutartinei atsakomybei, atsirandančiai dėl delikto, paprastai taikoma valstybės, kurioje buvo padaryta žala, teisė. Šioms įmonėms labai svarbu žinoti, kokia yra atitinkama atsakomybės rizika ir turėti galimybę nuo jos apsidrausti.
Be to, esama konkrečių ženklų, kad kai kurios valstybės narės svarsto galimybę vienašališkai nustatyti teisėkūros priemones, kuriomis būtų sprendžiamos konkrečios dėl dirbtinio intelekto kylančios problemos, susijusios su atsakomybe. Pavyzdžiui, Čekijoje, Italijoje, Maltoje, Lenkijoje ir Portugalijoje priimtose dirbtinio intelekto strategijose minimos iniciatyvos, kuriomis siekiama paaiškinti atsakomybę. Atsižvelgiant į didelius galiojančių valstybių narių civilinės atsakomybės taisyklių skirtumus, tikėtina, kad bet kokia su dirbtiniu intelektu susijusi nacionalinė atsakomybės priemonė būtų grindžiama esamais skirtingais nacionaliniais metodais, todėl padidėtų susiskaidymas.
Todėl pritaikius atsakomybės taisykles vien nacionaliniu lygmeniu padidėtų vidaus rinkos kliūtys dirbtiniu intelektu grindžiamų produktų ir paslaugų diegimui ir dar labiau padidėtų susiskaidymas.
·Subsidiarumas
Šio pasiūlymo tikslų negalima tinkamai pasiekti nacionaliniu lygmeniu, nes dėl naujų skirtingų nacionalinių taisyklių padidėtų teisinis netikrumas ir susiskaidymas, o dėl to visoje vidaus rinkoje atsirastų kliūčių dirbtiniu intelektu grindžiamų produktų ir paslaugų diegimui. Teisinis netikrumas turėtų ypač didelį poveikį tarpvalstybinę veiklą vykdančioms bendrovėms, nes prireiktų papildomos teisinės informacijos ir (arba) atstovavimo, atsirastų papildomų rizikos valdymo išlaidų ir negautų pajamų. Be to, dėl skirtingų nacionalinių taisyklių, susijusių su reikalavimais atlyginti dirbtinio intelekto padarytą žalą, padidėtų įmonių, ypač vykdančių tarpvalstybinę prekybą, sandorių išlaidos, o dėl to atsirastų didelių vidaus rinkos kliūčių. Teisinis netikrumas ir susiskaidymas taip pat daro neproporcingą poveikį startuoliams ir MVĮ, kurių yra dauguma ir kurių investicijų dalis atitinkamose rinkose yra didžiausia.
Nesant ES mastu suderintų taisyklių dėl dirbtinio intelekto sistemų padarytos žalos kompensavimo, dirbtinio intelekto sistemų tiekėjams, veiklos vykdytojams ir naudotojams bei nukentėjusiesiems galėtų būti taikomos 27 skirtingos atsakomybės tvarkos, o dėl to būtų užtikrinama skirtinga apsauga ir iškraipoma skirtingų valstybių narių įmonių konkurencija.
Suderinus priemones ES lygmeniu būtų gerokai pagerintos dirbtinio intelekto technologijų diegimo ir plėtojimo vidaus rinkoje sąlygos, nes būtų išvengiama susiskaidymo ir padidėtų teisinis tikrumas. Ši pridėtinė vertė visų pirma būtų sukurta dėl mažesnio susiskaidymo ir didesnio teisinio tikrumo, susijusio su suinteresuotųjų šalių atsakomybe. Be to, tik visos ES veiksmais galima nuosekliai pasiekti norimą poveikį skatinti vartotojų pasitikėjimą dirbtiniu intelektu grindžiamais produktais ir paslaugomis, visoje vidaus rinkoje užkertant kelią atsakomybės nustatymo spragoms, susijusioms su konkrečiomis dirbtinio intelekto savybėmis. Taip būtų užtikrintas nuoseklus (būtiniausias) visų nukentėjusiųjų (asmenų ir įmonių) apsaugos lygis ir nuoseklios paskatos užkirsti kelią žalai ir užtikrinti atskaitomybę.
·Proporcingumas
Šis pasiūlymas grindžiamas etapiniu požiūriu. Pirmajame etape tikslų bus siekiama taikant mažiausiai intervencinius metodus; antrajame etape bus iš naujo įvertintas griežtesnių arba plačiau taikomų priemonių poreikis.
Pirmajame etape taikomos tik prievolės įrodyti priemonės, skirtos su dirbtiniu intelektu susijusioms problemoms spręsti. Šis etapas grindžiamas esminėmis atsakomybės nustatymo sąlygomis, kurios šiuo metu nustatomos pagal nacionalines taisykles, kaip antai priežastiniu ryšiu arba kalte, tačiau daugiausia dėmesio skiriama tikslinėms su įrodymais susijusioms priemonėms, kuriomis užtikrinama, kad nukentėjusiems būtų suteikiama tokio paties lygio apsauga, kaip ir tais atvejais, kurie nėra susiję su dirbtiniu intelektu. Be to, atsižvelgiant į įvairias pagal nacionalinę teisę numatytas prievolės įrodyti palengvinimo priemones, šiame pasiūlyme kaip mažiausiai intervencinę priemonę pasirinkta naudoti nuginčijamąsias prezumpcijas. Tokios prezumpcijos paprastai taikomos nacionalinėse atsakomybės nustatymo sistemose ir jomis vadovaujantis suderinami ieškovų ir atsakovų interesai. Be to, jomis siekiama skatinti laikytis esamų Sąjungos arba nacionaliniu lygmeniu nustatytų rūpestingumo pareigų. Šiuo pasiūlymu nesiekiama perkelti prievolės įrodyti, kad dirbtinio intelekto sistemų tiekėjai, veiklos vykdytojai ir naudotojai nepatirtų didesnės atsakomybės rizikos, kuri gali trukdyti vykdyti inovacijas ir sumažinti dirbtiniu intelektu grindžiamų produktų ir paslaugų naudojimą.
Antrajame pasiūlyme nurodytame etape užtikrinama, kad vertinant pirmojo etapo poveikį pagal nukentėjusiųjų apsaugą ir dirbtinio intelekto diegimą, į būsimus technologinius, reglamentavimo ir teismų praktikos pokyčius būtų atsižvelgiama iš naujo vertinant poreikį suderinti kitus reikalavimų atlyginti žalą elementus arba kitas priemones, susijusias su pretenzijomis dėl atsakomybės, įskaitant atvejus, kai atsakomybė be kaltės būtų tinkamesnė priemonė, kaip nurodyta Europos Parlamento prašyme. Atliekant tokį vertinimą taip pat tikriausiai būtų svarstoma, ar, siekiant užtikrinti veiksmingumą, toks suderinimas turėtų būti derinamas su privalomuoju draudimu.
·Priemonės pasirinkimas
Pagal šį pasiūlymą direktyva yra tinkamiausia priemonė, nes ja būtų užtikrinamas pageidaujamas suderinimo poveikis ir teisinis tikrumas, kartu suteikiant lankstumo, kad valstybės narės suderintas priemones galėtų be jokių trikdžių įtraukti į savo nacionalines atsakomybės tvarkas.
Privaloma priemone būtų užkirstas kelias apsaugos spragoms, atsirandančioms dėl dalinio įgyvendinimo arba jo nebuvimo. Nors neprivaloma priemonė būtų mažiau intervencinė, nepanašu, kad ją taikant būtų galima veiksmingai išspręsti nustatytas problemas. Neprivalomų priemonių įgyvendinimo lygį sunku numatyti ir nėra pakankamai duomenų, kad rekomendacijos įtikinamasis poveikis būtų pakankamai stiprus ir kad dėl jo būtų galima nuosekliai pritaikyti nacionalinius teisės aktus.
Toks poveikis dar mažiau tikėtinas su privatine teise susijusių priemonių, kurių dalis yra nesutartinės atsakomybės taisyklės, atveju. Šiai sričiai būdingos ilgalaikės teisinės tradicijos, dėl kurių valstybės narės nenori vykdyti koordinuotų reformų, išskyrus atvejus, kai jos grindžiamos aiškia vidaus rinkos naudos, susijusios su privaloma ES priemone, perspektyva arba poreikiu prisitaikyti prie naujų skaitmeninės ekonomikos technologijų.
Šiuo metu žinomi dideli valstybių narių atsakomybės sistemų skirtumai yra dar viena priežastis, dėl kurios mažai tikėtina, kad rekomendacija būtų nuosekliai įgyvendinta.
1.EX POST VERTINIMO, KONSULTACIJŲ SU SUINTERESUOTOSIOMIS ŠALIMIS IR POVEIKIO VERTINIMO REZULTATAI
·Konsultacijos su suinteresuotosiomis šalimis
Siekiant užtikrinti plataus masto suinteresuotųjų šalių dalyvavimą per visą šio pasiūlymo politikos ciklą, buvo įgyvendinta išsami konsultacijų strategija. Konsultacijų strategija buvo pagrįsta tiek viešomis, tiek keliomis tikslinėmis konsultacijomis (internetiniais seminarais, dvišalėmis diskusijomis su bendrovėmis ir įvairiomis organizacijomis).
Pateikus pirminius klausimus dėl atsakomybės, kurie buvo įtraukti į viešas konsultacijas dėl Baltosios knygos dėl dirbtinio intelekto ir Komisijos ataskaitos dėl saugos ir atsakomybės, nuo 2021 m. spalio 18 d. iki 2022 m. sausio 10 d. vyko specialios viešos konsultacijos internetu, kurių metu buvo siekiama sužinoti įvairių suinteresuotųjų šalių, įskaitant vartotojus, pilietinės visuomenės organizacijas, pramonės asociacijas, įmones, įskaitant MVĮ, ir valdžios institucijas, nuomonę. Išanalizavusi visus gautus atsakymus, Komisija savo svetainėje paskelbė rezultatų santrauką ir pavienius atsakymus.
Iš viso gauti 233 atsakymai, kuriuos pateikė respondentai iš 21 valstybės narės ir trečiųjų šalių. Apskritai dauguma suinteresuotųjų šalių patvirtino problemas, susijusias su prievole įrodyti, teisiniu netikrumu ir susiskaidymu, ir pritarė, kad veiksmų turėtų būti imamasi ES lygmeniu.
Dauguma ES piliečių, vartotojų organizacijų ir akademinių institucijų patvirtino, kad ES turi imtis veiksmų, kad nukentėjusiesiems būtų lengviau vykdyti prievolę įrodyti. Įmonės, nors jos ir pripažino neigiamą neapibrėžtumo, susijusio su atsakomybės taisyklių taikymu, poveikį, buvo atsargesnės ir prašė imtis tikslinių priemonių, kad būtų išvengta inovacijų ribojimo.
Panaši padėtis buvo ir politikos galimybių atveju. ES piliečiai, vartotojų organizacijos ir akademinės institucijos tvirtai pritarė priemonėms, susijusioms su prievole įrodyti, ir atsakomybės be kaltės suderinimui su privalomuoju draudimu. Įmonių nuomonės dėl politikos galimybių labiau išsiskyrė, o jų skirtumai iš dalies priklausė nuo įmonių dydžio. Dauguma įmones atstovavusių respondentų manė, kad atsakomybė be kaltės yra neproporcinga. Daugiau buvo pritariama dėl to, kad prievolės įrodyti palengvinimas turėtų būti suderintas, ypač MVĮ nuomone. Tačiau įmonės įspėjo netaikyti visiško prievolės įrodyti perkėlimo.
Todėl tinkamiausia politikos galimybė buvo parengta ir patikslinta atsižvelgiant į suinteresuotųjų šalių atsiliepimus, gautus poveikio vertinimo proceso metu, siekiant išlaikyti pusiausvyrą tarp visų atitinkamų suinteresuotųjų šalių grupių nurodytų poreikių ir susirūpinimą keliančių klausimų.
·Tiriamųjų duomenų rinkimas ir naudojimas
Šis pasiūlymas grindžiamas ketverius metus vykdyta analize ir aktyviu suinteresuotųjų šalių, įskaitant mokslininkus, įmones, vartotojų asociacijas, valstybes nares ir piliečius, dalyvavimu. Parengiamasis darbas pradėtas 2018 m., kai buvo įsteigta Atsakomybės ir naujų technologijų (naujų technologijų formavimo) ekspertų grupė. 2019 m. lapkričio mėn. ši ekspertų grupė parengė ataskaitą, kurioje įvertino problemas, kylančias dėl kai kurių dirbtinio intelekto savybių, susijusias su nacionalinėmis civilinės atsakomybės taisyklėmis.
Ekspertų grupės ataskaita buvo papildyta trimis papildomais išorės tyrimais:
–lyginamuoju teisės tyrimu, grindžiamu lyginamąja teisine Europos deliktų teisės aktų analize, daugiausia dėmesio skiriant pagrindiniams su dirbtiniu intelektu susijusiems klausimams;
–elgsenos ekonomikos tyrimu, kuriame buvo nagrinėjamas tikslinio atsakomybės tvarkos pritaikymo poveikis vartotojų sprendimų priėmimui, visų pirma jų pasitikėjimui ir norui naudoti dirbtiniu intelektu grindžiamus produktus ir paslaugas;
–ekonominiu tyrimu, apėmusiu keletą klausimų: kokias problemas patiria nukentėjusieji dėl dirbtinio intelekto programų, palyginti su asmenimis, nukentėjusiais ne dėl dirbtiniu intelektu grindžiamų prietaisų, siekdami, kad būtų atlyginta jų patirta žala; ar įmonėms kyla abejonių dėl šiuo metu galiojančių atsakomybės taisyklių taikymo jų veiklai, susijusiai su dirbtiniu intelektu, koks yra tokių abejonių mastas, ir ar teisinis netikrumas gali trukdyti investuoti į dirbtinį intelektą; ar dėl tolesnio nacionalinių atsakomybės teisės aktų susiskaidymo galėtų sumažėti dirbtinio intelekto programų ir paslaugų vidaus rinkos veiksmingumas, ar ES teisės aktais suderinus tam tikrus nacionalinės civilinės atsakomybės aspektus šios problemos būtų sumažintos ir taip pat būtų palengvintas bendras dirbtinio intelekto technologijų naudojimas ES įmonėse ir koks būtų tokio poveikio mastas.
·Poveikio vertinimas
Laikydamasi savo geresnio reglamentavimo politikos, Komisija atliko šio pasiūlymo poveikio vertinimą, kurį išnagrinėjo Komisijos reglamentavimo patikros valdyba. 2022 m. balandžio 6 d. įvykusiame Reglamentavimo patikros valdybos posėdyje pateikta teigiama nuomonė su pastabomis.
Buvo įvertintos trys politikos galimybės:
1 politikos galimybė: trys priemonės, kuriomis siekiama palengvinti nukentėjusiųjų, bandančių įrodyti savo pretenzijas dėl atsakomybės, prievolę įrodyti;
2 politikos galimybė: 1 politikos galimybės priemonės + atsakomybės be kaltės taisyklių, taikomų dirbtinio intelekto naudojimo atvejais, kuriems būdingas tam tikras rizikos profilis, suderinimas su privalomuoju draudimu;
3 politikos galimybė: etapinis požiūris, apimantis:
–pirmąjį etapą: 1 politikos galimybės priemones;
–antrąjį etapą: peržiūros mechanizmą, kuriuo siekiama iš naujo įvertinti, visų pirma, ar reikia suderinti atsakomybę be kaltės už dirbtinio intelekto naudojimo atvejus, kuriems būdingas tam tikras rizikos profilis (galbūt kartu su privalomuoju draudimu).
Politikos galimybės buvo palygintos remiantis įvairiais kriterijais, atsižvelgiant į jų veiksmingumą, efektyvumą, suderinamumą ir proporcingumą. Įvertinus įvairius kriterijų ir jautrumo analizės rezultatus nustatyta, kad 3 politikos galimybė, kurią taikant palengvinama prievolė įrodyti su dirbtiniu intelektu susijusias pretenzijas ir atliekama tikslinė peržiūra, susijusi su atsakomybe be kaltės (galbūt kartu su privalomuoju draudimu), buvo įvertinta geriausiai, todėl šio pasiūlymo atveju ji yra tinkamiausias politikos pasirinkimas.
Pasirinkus tinkamiausią politikos galimybę bus užtikrinta, kad dėl dirbtiniu intelektu grindžiamų produktų ir paslaugų nukentėję asmenys (fiziniai asmenys, įmonės ir kiti viešieji arba privatūs subjektai) bus apsaugoti ne mažiau nei nukentėjusieji dėl tradicinių technologijų. Taip bus padidintas pasitikėjimas dirbtiniu intelektu ir skatinamas jo diegimas.
Be to, bus sumažintas teisinis netikrumas ir išvengta susiskaidymo, taip padedant bendrovėms ir, visų pirma, MVĮ, norinčioms išnaudoti visą ES bendrosios rinkos potencialą diegti dirbtiniu intelektu grindžiamus produktus ir paslaugas tarpvalstybiniu mastu. Pasirinkus tinkamiausią politikos galimybę taip pat bus sukurtos geresnės sąlygos draudikams apdrausti su dirbtiniu intelektu susijusią veiklą, o tai labai svarbu įmonėms, ypač MVĮ, kad jos galėtų valdyti riziką. Būtent apskaičiuota, kad pasirinkus tinkamiausią politikos galimybę 2025 m. 27 ES valstybėse narėse dirbtinio intelekto rinkos vertė padidėtų nuo maždaug 500 mln. EUR iki maždaug 1,1 mlrd. EUR.
·Pagrindinės teisės
Viena iš svarbiausių civilinės atsakomybės taisyklių funkcijų – užtikrinti, kad nukentėjusieji galėtų reikalauti, kad būtų atlyginta jų patirta žala. Užtikrinant veiksmingą žalos atlyginimą, šiomis taisyklėmis prisidedama prie teisės į veiksmingą teisinę gynybą ir teisingą bylos nagrinėjimą (ES pagrindinių teisių chartijos (toliau – Chartija) 47 straipsnis) apsaugos, o potencialiai atsakingi asmenys skatinami užkirsti kelią galimai žalai ir taip išvengti atsakomybės.
Šiuo pasiūlymu Komisija siekia užtikrinti, kad nukentėjusiųjų dėl dirbtinio intelekto padarytos žalos apsaugos lygis pagal civilinės atsakomybės taisykles būtų toks pat, kaip nukentėjusiųjų dėl žalos, padarytos nenaudojant dirbtinio intelekto. Šiuo pasiūlymu bus sudarytos sąlygos veiksmingam privačiam pagrindinių teisių užtikrinimui ir išsaugota teisė į veiksmingą teisinę gynybą tais atvejais, kai su dirbtiniu intelektu susijusi rizika pasitvirtina. Visų pirma šis pasiūlymas padės apsaugoti pagrindines teises, kaip antai teisę į gyvybę (Chartijos 2 straipsnis), teisę į fizinę ir psichinę neliečiamybę (3 straipsnis) ir teisę į nuosavybę (17 straipsnis). Be to, priklausomai nuo kiekvienos valstybės narės civilinės teisės sistemos ir tradicijų, nukentėjusieji galės reikalauti atlyginti žalą, susijusią su kitais teisiniais interesais, kaip antai asmens orumo pažeidimais (Chartijos 1 ir 4 straipsniai), teise į privatų ir šeimos gyvenimą (7 straipsnis), teise į lygybę (20 straipsnis) ir nediskriminavimą (21 straipsnis).
Be to, šiuo pasiūlymu papildomos kitos Komisijos dirbtinio intelekto politikos priemonės, grindžiamos prevenciniais reglamentavimo ir priežiūros reikalavimais, kuriais tiesiogiai siekiama išvengti pagrindinių teisių pažeidimų (pavyzdžiui, diskriminavimo). Tai Dirbtinio intelekto aktas, Bendrasis duomenų apsaugos reglamentas, Skaitmeninių paslaugų aktas ir ES teisės aktai dėl nediskriminavimo ir vienodo požiūrio. Be to, šiuo pasiūlymu nenustatomos ir nesuderinamos įvairių subjektų, kurių veikla reglamentuojama tais teisės aktais, rūpestingumo pareigos arba atsakomybė, todėl nesukuriama priežasčių naujoms pretenzijoms dėl atsakomybės ir nedaromas poveikis atleidimui nuo atsakomybės pagal tuos kitus teisės aktus. Šiuo pasiūlymu tik palengvinama nukentėjusiųjų nuo dirbtinio intelekto sistemų padarytos žalos prievolė įrodyti, kai pretenzijos gali būti grindžiamos nacionaline teise arba šiais kitais ES teisės aktais. Šiuo pasiūlymu papildomos šios kitos priemonės ir apsaugoma nukentėjusiojo teisė į žalos atlyginimą pagal privatinę teisę, įskaitant žalos atlyginimą pagrindinių teisių pažeidimų atvejais.
4.POVEIKIS BIUDŽETUI
Šis pasiūlymas poveikio Europos Sąjungos biudžetui neturės.
5.KITI ELEMENTAI
·Įgyvendinimo planai ir stebėsena, vertinimas, stebėsenos programa ir tikslinė peržiūra
Šiame pasiūlyme pateikiamas etapinis požiūris. Siekdama užtikrinti, kad antrajame etape būtų pakankamai įrodymų tikslinei peržiūrai atlikti, Komisija parengs stebėsenos planą, kuriame išsamiai išdėstys, kaip ir kaip dažnai bus renkami duomenys ir kiti būtini įrodymai.
Stebėsenos mechanizmas galėtų apimti šių rūšių duomenis ir įrodymus:
–valstybių narių ataskaitų teikimą ir keitimąsi informacija apie priemonės, kuria siekiama palengvinti prievolę įrodyti nacionaliniu mastu vykdomose teisminėse arba neteisminėse ginčų sprendimo procedūrose, taikymą;
–Komisijos arba rinkos priežiūros institucijų pagal Dirbtinio intelekto aktą (visų pirma jo 62 straipsnį) arba kitas atitinkamas priemones renkamą informaciją;
–informaciją ir analizės duomenis, kuriais grindžiamas Dirbtinio intelekto akto vertinimas, ir su šio akto įgyvendinimu susijusias ataskaitas, kurias turi rengti Komisija;
–informaciją ir analizės duomenis, padedančius įvertinti atitinkamas būsimas politikos priemones, rengiamas pagal „senojo požiūrio“ saugos srities teisės aktus, siekiant užtikrinti, kad Sąjungos rinkai pateikiami produktai atitiktų griežtus sveikatos, saugos ir aplinkosaugos reikalavimus;
–informaciją ir analizės duomenis, kuriais grindžiama Komisijos ataskaita dėl Motorinių transporto priemonių draudimo direktyvos taikymo vykdant technologinę plėtrą (visų pirma autonominių ir pusiau autonominių transporto priemonių) pagal jos 28c straipsnio 2 dalies a punktą.
·Išsamus konkrečių pasiūlymo nuostatų paaiškinimas
1. Dalykas ir taikymo sritis (1 straipsnis)
Šios direktyvos tikslas – pagerinti vidaus rinkos veikimą nustatant vienodus tam tikrų nesutartinės civilinės atsakomybės už žalą, padarytą naudojant dirbtinio intelekto sistemas, aspektų reikalavimus. Ji parengta atsižvelgiant į Europos Parlamento rezoliuciją 2020/2014(INL) ir šioje direktyvoje privatinė teisė pritaikoma prie perėjimo prie skaitmeninės ekonomikos poreikių.
Tinkamų teisinių priemonių pasirinkimas yra ribotas, atsižvelgiant į prievolės įrodyti klausimo pobūdį ir konkrečias dirbtinio intelekto savybes, dėl kurių kyla problemų, susijusių su galiojančiomis atsakomybės taisyklėmis. Šiuo atžvilgiu šia direktyva labai tikslingai ir proporcingai palengvinama prievolė įrodyti, nes taikomi faktų atskleidimo ir nuginčijamų prezumpcijų principai. Pagal šią direktyvą asmenims, prašantiems atlyginti žalą, nustatoma galimybė gauti informaciją apie didelės rizikos dirbtinio intelekto sistemas, kuri registruojama ir (arba) patvirtinama dokumentais pagal Dirbtinio intelekto aktą. Be to, taikant nuginčijamas prezumpcijas asmenims, prašantiems atlyginti dirbtinio intelekto sistemų padarytą žalą, bus nustatoma labiau pagrįsta prievolė įrodyti ir galimybė patenkinti pagrįstas pretenzijas dėl atsakomybės.
Šios priemonės nėra naujos. Jos numatytos pagal kai kurias nacionalines teisėkūros sistemas. Todėl šios nacionalinės priemonės yra naudingi atskaitos taškai, pagal kuriuos galima spręsti dėl dirbtinio intelekto kylančias problemas, susijusias su galiojančiomis atsakomybės taisyklėmis, taip, kad būtų kuo mažiau kišamasi į skirtingas nacionalinės teisės sistemas.
Be to, konsultacijų metu įmonių pateikti atsiliepimai apie didesnio masto pokyčius, kaip antai prievolės įrodyti perkėlimą arba nenuginčijamą prezumpciją, buvo neigiami. Kaip pragmatiškas ir tinkamas būdas padėti nukentėjusiesiems kuo tikslingiau ir proporcingiau vykdyti prievolę įrodyti pasirinktos tikslinės priemonės, kuriomis prievolė įrodyti palengvinama taikant nuginčijamas prezumpcijas.
1 straipsnyje nurodytas šios direktyvos dalykas ir taikymo sritis: ji taikoma nesutartiniams civiliniams ieškiniams dėl dirbtinio intelekto sistemos padarytos žalos atlyginimo, kai tokie ieškiniai pareiškiami pagal kalte grindžiamos atsakomybės tvarką. Tai tvarka, pagal kurią teisės aktais nustatoma pareiga atlyginti žalą, padarytą tyčia arba dėl aplaidumo ar neveikimo. Šioje direktyvoje numatytos priemonės gali būti be trikdžių suderinamos su galiojančiomis civilinės atsakomybės sistemomis, nes jos atspindi požiūrį, kuris nėra susijęs su pagrindinių sąvokų, kaip antai „kaltė“ arba „žala“, apibrėžtimis, atsižvelgiant į tai, kad šių sąvokų reikšmė valstybėse narėse labai skiriasi. Taigi, be šia direktyva nustatytų prielaidų, ja nedaromas poveikis Sąjungos arba nacionalinėms taisyklėms, kuriomis, pavyzdžiui, nustatoma, kuriai šaliai tenka prievolė įrodyti, koks turi būti tikrumo lygis kalbant apie įrodymų pakankamumo standartą arba kaip apibrėžiama kaltė.
Be to, šia direktyva nedaromas poveikis galiojančioms taisyklėms, kuriomis reglamentuojamos atsakomybės transporto sektoriuje sąlygos, ir taisyklėms, nustatytoms Skaitmeninių paslaugų aktu.
Nors ši direktyva netaikoma siekiant užtikrinti baudžiamąją atsakomybę, ji gali būti taikoma siekiant užtikrinti valstybės atsakomybę. Dirbtinio intelekto akto nuostatos taikomos ir valstybių institucijoms, nes jos turi vykdyti šiame akte nustatytas pareigas.
Ši direktyva netaikoma atgaline data. Ji taikoma tik reikalavimams atlyginti žalą, pareikštiems po jos perkėlimo į nacionalinę teisę dienos.
Pasiūlymas dėl šios direktyvos buvo priimtas kartu su pasiūlymu peržiūrėti Atsakomybės už gaminius direktyvą 85/374/EEB, o abu šie pasiūlymai yra dokumentų rinkinio, kuriuo siekiama pritaikyti atsakomybės taisykles prie skaitmeninio amžiaus ir dirbtinio intelekto, užtikrinant būtiną šių dviejų vienas kitą papildančių teisinių priemonių suderinimą, dalis.
2.Terminų apibrėžtys (2 straipsnis)
Siekiant užtikrinti nuoseklumą, 2 straipsnyje pateiktos terminų apibrėžtys atitinka Dirbtinio intelekto akte nustatytas apibrėžtis.
2 straipsnio 6 dalies b punkte numatyta, kad reikalavimus dėl žalos atlyginimo gali pareikšti ne tik nukentėjęs asmuo, bet ir asmenys, kurie perėmė arba kuriems buvo perleistos nukentėjusio asmens teises. Perleidimas – tai trečiosios šalies (pavyzdžiui, draudimo bendrovės) prisiimta kitos šalies juridinė teisė išieškoti skolą arba reikalauti atlyginti žalą. Taigi vienas asmuo turi teisę savo naudai įgyvendinti kito asmens teises. Perleidimas apima ir atvejus, kai kalbama apie mirusio nukentėjusiojo įpėdinius.
Be to, 2 straipsnio 6 dalies c punkte nustatyta, kad ieškinį dėl žalos atlyginimo taip pat gali pareikšti asmuo, pagal Sąjungos arba nacionalinę teisę veikiantis vienos arba kelių nukentėjusiųjų šalių vardu. Šia nuostata siekiama užtikrinti, kad nuo dirbtinio intelekto sistemos nukentėję asmenys turėtų daugiau galimybių pateikti savo pretenzijas teismui, net tais atvejais, kai gali atrodyti, kad teikti atskiras pretenzijas yra pernelyg brangu arba pernelyg sudėtinga, arba kai bendri veiksmai gali būti naudingesni. Siekiant užtikrinti, kad nukentėjusieji dėl dirbtinio intelekto sistemų padarytos žalos galėtų naudotis savo teisėmis, susijusiomis su šia direktyva, ir teikti atstovaujamuosius ieškinius, 6 straipsniu iš dalies keičiamas Direktyvos (ES) 2020/1828 I priedas.
3.Įrodymų atskleidimas (3 straipsnis)
Šia direktyva siekiama asmenims, reikalaujantiems atlyginti didelės rizikos dirbtinio intelekto sistemų padarytą žalą, suteikti veiksmingų priemonių, kurias naudodami jie galėtų nustatyti potencialiai atsakingus asmenis ir atitinkamus jų reikalavimui pagrįsti reikalingus įrodymus. Be to, taikant tokias priemones galima atmesti neteisingai nurodytus potencialius atsakovus, sutaupyti laiko bei susijusių šalių patiriamas išlaidas ir sumažinti teismuose sprendžiamų bylų kiekį.
Šiuo atžvilgiu Direktyvos 3 straipsnio 1 dalyje nustatyta, kad teismas gali nurodyti atskleisti atitinkamus įrodymus, susijusius su konkrečiomis didelės rizikos dirbtinio intelekto sistemomis, dėl kurių, kaip įtariama, buvo padaryta žala. Prašymai pateikti įrodymus nukreipiami dirbtinio intelekto sistemos tiekėjui, asmeniui, kuriam taikomos Dirbtinio intelekto akto 24 straipsnyje arba 28 straipsnio 1 dalyje nustatytos tiekėjo pareigos, arba pagal Dirbtinio intelekto aktą apibrėžtam naudotojui. Prašymai turėtų būti grindžiami faktais ir įrodymais, kurių pakaktų svarstomo reikalavimo atlyginti žalą pagrįstumui nustatyti, o prašomus įrodymus adresatai turėtų turėti savo žinioje. Prašymai negali būti teikiami šalims, kurios nėra įsipareigojusios pagal Dirbtinio intelekto aktą ir todėl neturi galimybės susipažinti su įrodymais.
Pagal 3 straipsnio 2 dalį ieškovas gali prašyti, kad įrodymus atskleistų tiekėjai arba naudotojai, kurie nėra atsakovai, tik tuo atveju, jeigu visi proporcingi bandymai surinkti įrodymus iš atsakovo buvo nesėkmingi.
Siekiant, kad teisminės priemonės būtų veiksmingos, Direktyvos 3 straipsnio 3 dalyje numatyta, kad teismas taip pat gali nurodyti saugoti tokius įrodymus.
Kaip numatyta 3 straipsnio 4 dalies pirmoje pastraipoje, teismas gali nurodyti atskleisti tokią informaciją tik tiek, kiek tai būtina reikalavimui pagrįsti, atsižvelgiant į tai, kad žalos, susijusios su dirbtinio intelekto sistemomis, atveju, informacija gali būti susijusi su lemiamais įrodymais, reikalingais nukentėjusiojo reikalavimui pagrįsti.
Apribojant prievolę atskleisti arba saugoti ir nustatant, kad turi būti atskleidžiami arba saugomi tik būtini ir proporcingi įrodymai, 3 straipsnio 4 dalies pirma pastraipa siekiama užtikrinti proporcingumą atskleidžiant įrodymus, t. y. apriboti informacijos atskleidimą tik iki būtiniausių duomenų ir išvengti bendrųjų prašymų.
3 straipsnio 4 dalies antra ir trečia pastraipomis taip pat siekiama rasti pusiausvyrą tarp ieškovo teisių ir poreikio užtikrinti, kad tokiam informacijos atskleidimui būtų taikomos priemonės, kuriomis apsaugomi visų susijusių šalių teisėti interesai, kaip antai komercinės paslaptys arba konfidenciali informacija.
Tomis pačiomis aplinkybėmis 3 straipsnio 4 dalies ketvirta pastraipa siekiama užtikrinti, kad asmuo, kuriam nurodoma atskleisti arba saugoti įrodymus, galėtų naudotis procedūrinėmis teisių gynimo priemonėmis.
3 straipsnio 5 dalyje aprašoma rūpestingumo pareigos nesilaikymo prezumpcija. Tai procesinė priemonė, taikoma tik tais atvejais, kai už prašymo atskleisti arba išsaugoti įrodymus nevykdymo pasekmes atsako reikalavimo atlyginti žalą faktinis atsakovas. Atsakovas turi turėti teisę nuginčyti tą prezumpciją. Šioje dalyje nurodyta priemone siekiama ne tik skatinti atskleisti informaciją, bet ir paspartinti teismo procesą.
4.Priežastinio ryšio prezumpcija kaltės atveju (4 straipsnis)
Kalbant apie dirbtinio intelekto sistemų padarytą žalą, šia direktyva siekiama suteikti veiksmingą pagrindą reikalauti kompensacijos dėl kaltės, susijusios su tuo, kad buvo nevykdoma rūpestingumo pareiga, nustatyta pagal Sąjungos arba nacionalinę teisę.
Ieškovams gali būti sunku nustatyti priežastinį ryšį tarp tokios neatitikties ir dirbtinio intelekto sistemos sugeneruoto išvedinio arba dirbtinio intelekto sistemos nesugebėjimo sugeneruoti išvedinį, dėl kurio buvo padaryta atitinkama žala. Todėl 4 straipsnio 1 dalyje dėl šio priežastinio ryšio nustatoma tikslinė nuginčijama priežastinio ryšio prezumpcija. Tokia prezumpcija yra mažiausiai apsunkinanti priemonė, kurią naudojant galima patenkinti poreikį teisingai atlyginti nukentėjusiojo patirtą žalą.
Atsakovo kaltę turi įrodyti ieškovas, vadovaudamasis galiojančiomis Sąjungos arba nacionalinėmis taisyklėmis. Tokią kaltę galima nustatyti, pavyzdžiui, kai nesilaikoma rūpestingumo pareigos pagal Dirbtinio intelekto aktą arba kitas Sąjungos lygmeniu nustatytas taisykles, pavyzdžiui, taisykles, kuriomis reglamentuojamas automatizuotų stebėsenos ir sprendimų priėmimo naudojimas darbui skaitmeninėse platformose, arba taisykles, kuriomis reglamentuojamas bepiločių orlaivių naudojimas. Teismas taip pat gali taikyti tokios kaltės prezumpciją, jeigu nevykdomas teismo nurodymas atskleisti arba išsaugoti įrodymus pagal 3 straipsnio 5 dalį. Vis dėlto priežastinio ryšio prezumpciją tikslinga taikyti tik tada, kai galima manyti, kad atitinkamam dirbtinio intelekto sistemos išvediniui arba jo nebuvimui turėjo įtakos tam tikra kaltė, ir tai galima įvertinti atsižvelgiant į bendras bylos aplinkybes. Be to, ieškovas dar turi įrodyti, kad žalą sukėlė dirbtinio intelekto sistema (t. y. jos išvedinys arba nesugebėjimas sugeneruoti išvedinį).
2 ir 3 dalyse atskiriami ieškiniai, kurie gali būti pareiškiami didelės rizikos dirbtinio intelekto sistemos tiekėjui arba asmeniui, kuriam pagal Dirbtinio intelekto aktą taikomos tiekėjo pareigos, ir ieškiniai, kurie gali būti pareiškiami tokių sistemų naudotojui. Šiuo atžvilgiu laikomasi atitinkamų Dirbtinio intelekto akto nuostatų ir aktualių sąlygų. Jeigu ieškiniai grindžiami 4 straipsnio 2 dalimi, tai, kaip atsakovai laikosi toje dalyje išvardytų pareigų, taip pat turi būti vertinama atsižvelgiant į rizikos valdymo sistemą ir jos rezultatus, t. y. rizikos valdymo priemones pagal Dirbtinio intelekto aktą.
Dirbtinio intelekto akte apibrėžtų didelės rizikos dirbtinio intelekto sistemų atveju, 4 straipsnio 4 dalyje nustatoma priežastinio ryšio prezumpcijos išimtis, jeigu atsakovas įrodo, kad ieškovas turi pakankamai įrodymų ir ekspertinių žinių, reikalingų įrodyti priežastinį ryšį. Ši galimybė gali paskatinti atsakovus laikytis informacijos atskleidimo prievolių, Dirbtinio intelekto akte nustatytų priemonių, kuriomis siekiama užtikrinti aukštą dirbtinio intelekto skaidrumo lygį, arba patvirtinimo dokumentais ir registravimo reikalavimų.
Nedidelės rizikos dirbtinio intelekto sistemų atveju 4 straipsnio 5 dalyje nustatyta priežastinio ryšio prezumpcijos taikymo sąlyga, pagal kurią teismas gali nustatyti, kad ieškovui pernelyg sudėtinga įrodyti priežastinį ryšį. Tokie sunkumai turi būti vertinami atsižvelgiant į tam tikrų dirbtinio intelekto sistemų savybes, kaip antai autonomiją ir neskaidrumą, dėl kurių praktiškai labai sunku paaiškinti vidinį dirbtinio intelekto sistemos veikimą, o tai daro neigiamą poveikį ieškovo sugebėjimui įrodyti priežastinį ryšį tarp atsakovo kaltės ir dirbtinio intelekto išvedinio.
Tais atvejais, kai atsakovas dirbtinio intelekto sistemą naudoja vykdydamas asmeninę neprofesinę veiklą, 4 straipsnio 6 dalyje nustatyta, kad priežastinio ryšio prezumpcija turėtų būti taikoma tik tuomet, kai atsakovas iš esmės pakeitė dirbtinio intelekto sistemos eksploatavimo sąlygas arba jeigu atsakovas buvo įpareigotas ir galėjo nustatyti dirbtinio intelekto sistemos eksploatavimo sąlygas, tačiau to nepadarė. Ši sąlyga grindžiama būtinybe suderinti nukentėjusių asmenų ir neprofesionalių naudotojų interesus, netaikant priežastinio ryšio prezumpcijos tais atvejais, kai neprofesionalūs naudotojai dėl savo elgesio nesukelia papildomos rizikos.
Galiausiai 4 straipsnio 7 dalyje numatyta, kad atsakovas turi teisę paneigti 4 straipsnio 1 dalimi grindžiamą priežastinio ryšio prezumpciją.
Tokios veiksmingos civilinės atsakomybės taisyklės turi papildomą pranašumą, nes jomis visiems, vykdantiems su dirbtinio intelekto sistemomis susijusią veiklą, suteikiama papildoma paskata vykdyti savo pareigas, susijusias su numatomu jų elgesiu.
5.Vertinimas ir tikslinė peržiūra (5 straipsnis)
Įvairiose nacionalinėse teisinėse sistemose numatoma skirtinga atsakomybės be kaltės tvarka. Taikyti tokios tvarkos elementus Sąjungos lygmeniu 2020 m. spalio 20 d. savo iniciatyva pateiktoje rezoliucijoje taip pat pasiūlė Europos Parlamentas, nurodydamas, kad tam tikroms dirbtiniu intelektu grindžiamoms technologijoms galėtų būti taikoma ribota atsakomybės be kaltės tvarka ir supaprastinta prievolė įrodyti vadovaujantis kalte grindžiamomis atsakomybės taisyklėmis. Viešose konsultacijose taip pat atkreiptas dėmesys į tai, kad respondentai (išskyrus įmones, kurios nėra mažosios ir vidutinės) teikia pirmenybę tokiai tvarkai, nepriklausomai nuo to, ar ji susieta su privalomuoju draudimu.
Tačiau pasiūlyme atsižvelgiama į nacionalinių teisinių tradicijų skirtumus ir į tai, kad produktai ir paslaugos, kuriuose naudojamos dirbtinio intelekto sistemos ir kurie gali daryti poveikį plačiajai visuomenei ir kelti pavojų svarbioms juridinėms teisėms, kaip antai teisėms į gyvybę, sveikatą ir nuosavybę, todėl jiems galėtų būti taikoma atsakomybės be kaltės tvarka, kol kas nėra plačiai prieinami rinkoje.
Siekiant teikti Komisijai informaciją apie incidentus, susijusius su dirbtinio intelekto sistemomis, įgyvendinama stebėsenos programa. Atliekant tikslinę peržiūrą bus įvertinta, ar reikėtų papildomų priemonių, pavyzdžiui, nustatytos atsakomybės be kaltės tvarkos ir (arba) privalomo draudimo.
6.Perkėlimas į nacionalinę teisę (7 straipsnis)
Pranešdamos Komisijai apie perkėlimo į nacionalinę teisę priemones, skirtas užtikrinti, kad būtų laikomasi šios direktyvos, valstybės narės taip pat turėtų pateikti aiškinamuosius dokumentus, kuriuose būtų pateikiama pakankamai aiški ir tiksli informacija, ir dėl kiekvienos šios direktyvos nuostatos nurodyti nacionalinę (-es) nuostatą (-as), kuria (-iomis) užtikrinamas šios direktyvos perkėlimas į nacionalinę teisę. Tai būtina, kad Komisija galėtų kiekvienai šios direktyvos nuostatai, kurią reikia perkelti į nacionalinę teisę, nustatyti atitinkamą nacionalinių perkėlimo į nacionalinę teisę priemonių dalį, kurią taikant nacionalinėje teisinėje sistemoje nustatoma atitinkama teisinė prievolė, nepriklausomai nuo to, kokia forma perkelti šią direktyvą nuspręs valstybės narės.
2022/0303 (COD)
Pasiūlymas
EUROPOS PARLAMENTO IR TARYBOS DIREKTYVA
dėl nesutartinės civilinės atsakomybės taisyklių pritaikymo dirbtiniam intelektui
(Atsakomybės už dirbtinį intelektą direktyva)
(Tekstas svarbus EEE)
EUROPOS PARLAMENTAS IR EUROPOS SĄJUNGOS TARYBA,
atsižvelgdami į Sutartį dėl Europos Sąjungos veikimo, ypač į jos 114 straipsnį,
atsižvelgdami į Europos Komisijos pasiūlymą,
teisėkūros procedūra priimamo akto projektą perdavus nacionaliniams parlamentams,
atsižvelgdami į Europos ekonomikos ir socialinių reikalų komiteto nuomonę,
atsižvelgdami į Regionų komiteto nuomonę,
laikydamiesi įprastos teisėkūros procedūros,
kadangi:
(1)dirbtinis intelektas yra didelio poveikio technologijos, galinčios suteikti įvairios naudos visai ekonomikai ir visuomenei. Jis turi didelį technologijų pažangos potencialą ir padeda kurti naujus verslo modelius daugelyje skaitmeninės ekonomikos sektorių;
(2)kartu, priklausomai nuo aplinkybių, susijusių su jo konkrečiu taikymu ir naudojimu, dirbtinis intelektas gali kelti riziką ir padaryti žalos interesams ir teisėms, kurių apsauga užtikrinama Sąjungos arba nacionalinės teisės aktais. Pavyzdžiui, dirbtinio intelekto naudojimas gali turėti neigiamą poveikį įvairioms pagrindinėms teisėms, įskaitant teisę į gyvybę, fizinę neliečiamybę ir nediskriminavimą bei vienodą požiūrį. Europos Parlamento ir Tarybos reglamente (ES) /… [Dirbtinio intelekto akte] nustatyti reikalavimai, kuriais siekiama sumažinti riziką saugai ir pagrindinėms teisėms, o kitomis Sąjungos teisės priemonėmis reglamentuojamos bendros ir sektorių gaminių saugos taisyklės, taikomos ir dirbtiniu intelektu grindžiamiems mašinų gaminiams bei radijo ryšio įrenginiams. Nors tokiais reikalavimais, skirtais sumažinti riziką saugai ir pagrindinėms teisėms, siekiama užkirsti kelią rizikai, ją stebėti ir šalinti, taigi ir spręsti visuomenei susirūpinimą keliančius klausimus, jais neužtikrinama individuali pagalba asmenims, nukentėjusiems dėl dirbtinio intelekto padarytos žalos. Galiojančiuose reikalavimuose visų pirma numatyti su dirbtinio intelekto sistemomis susiję leidimai, patikros, stebėsena ir administracinės nuobaudos, kuriais siekiama užkirsti kelią galimai žalai. Juose nenumatoma, kaip turi būti atlyginama žala, kurią nukentėję asmenys gali patirti dėl dirbtinio intelekto sistemos sugeneruoto išvedinio arba nesugebėjimo sugeneruoti išvedinį;
(3)kai nukentėjęs asmuo prašo atlyginti patirtą žalą, valstybių narių bendrosiomis kalte grindžiamomis atsakomybės taisyklėmis paprastai reikalaujama, kad tas asmuo įrodytų asmens, kuris potencialiai atsakingas už tokią žalą, aplaidumą, tyčinius žalingus veiksmus arba neveikimą (kaltę), taip pat priežastinį ryšį tarp tos kaltės ir atitinkamos žalos. Tačiau tais atvejais, kai tarp asmens veiksmo ar neveikimo ir žalos įsiterpia dirbtinis intelektas, dėl tam tikrų specifinių dirbtinio intelekto sistemų savybių, kaip antai neskaidrumo, autonomijos ir sudėtingumo, nukentėjusiajam gali būti pernelyg sudėtinga, o gal net neįmanoma, įvykdyti šią prievolę įrodyti. Visų pirma gali būti pernelyg sunku įrodyti, kad dėl konkretaus potencialiai atsakingo asmens įvedinio atsirado konkretus dirbtinio intelekto sistemos išvedinys, dėl kurio buvo padaryta atitinkama žala;
(4)tokiais atvejais nacionalinėmis civilinės atsakomybės taisyklėmis užtikrinamas žalos atlyginimo lygis gali būti žemesnis nei tais atvejais, kai žala patiriama ne dėl dirbtinio intelekto, o dėl kitų technologijų. Dėl tokių žalos atlyginimo spragų visuomenė gali mažiau pritarti dirbtinio intelekto naudojimui ir mažiau pasitikėti dirbtiniu intelektu grindžiamais produktais ir paslaugomis;
(5)siekiant pasinaudoti dirbtinio intelekto teikiama ekonomine ir visuomenine nauda ir skatinti perėjimą prie skaitmeninės ekonomikos, būtina tikslingai pritaikyti tam tikras nacionalines civilinės atsakomybės taisykles prie konkrečių tam tikrų dirbtinio intelekto sistemų savybių. Toks pritaikymas turėtų padėti didinti visuomenės ir vartotojų pasitikėjimą ir taip skatinti dirbtinio intelekto diegimą. Atlikus šiuos pakeitimus taip pat turėtų būti išlaikytas pasitikėjimas teismų sistema, užtikrinant, kad nukentėjusiesiems dėl žalos, padarytos naudojant dirbtinį intelektą, būtų atlyginama taip pat veiksmingai, kaip ir nukentėjusiesiems dėl žalos, padarytos naudojant kitas technologijas;
(6)suinteresuotosios šalys (žalą patiriantys nukentėję asmenys, potencialiai atsakingi asmenys, draudikai) jaučia teisinį netikrumą dėl to, kaip nacionaliniai teismai, spręsdami konkrečius su dirbtiniu intelektu susijusius klausimus ir siekdami teisingų rezultatų, galėtų atskirais atvejais taikyti galiojančias atsakomybės taisykles. Jeigu nebus imtasi veiksmų Sąjungos lygmeniu, tikėtina, kad bent kai kurios valstybės narės, siekdamos pašalinti žalos atlyginimo spragas ir teisinį netikrumą, susijusį su konkrečiomis tam tikrų dirbtinio intelekto sistemų savybėmis, pritaikys savo civilinės atsakomybės taisykles. Taip atsirastų teisinis susiskaidymas ir vidaus rinkos kliūtys įmonėms, kuriančioms arba teikiančioms novatoriškus dirbtiniu intelektu grindžiamus produktus arba paslaugas. Ypač didelį poveikį pajustų mažosios ir vidutinės įmonės;
(7)šios direktyvos tikslas – prisidėti prie tinkamo vidaus rinkos veikimo suderinant tam tikras nacionalines nesutartinės kalte grindžiamos atsakomybės taisykles, siekiant užtikrinti, kad asmenys, reikalaujantys atlyginti jų dėl dirbtinio intelekto sistemos patirtą žalą, būtų apsaugoti taip pat, kaip ir asmenys, reikalaujantys atlyginti žalą, padarytą nenaudojant dirbtinio intelekto sistemos. Šio tikslo valstybės narės negali deramai pasiekti, nes atitinkamos vidaus rinkos kliūtys yra susijusios su rizika, kad nacionaliniu lygmeniu bus taikomos vienašalės ir nenuoseklios reguliavimo priemonės. Atsižvelgiant į produktų ir paslaugų, kuriems taikoma ši direktyva, skaitmeninį pobūdį, ši direktyva yra ypač svarbi tarpvalstybiniu mastu;
(8)todėl tikslą užtikrinti teisinį tikrumą ir išvengti žalos atlyginimo spragų tais atvejais, kai reikalavimai atlyginti žalą yra susiję su dirbtinio intelekto sistemomis, galima geriau pasiekti visos Sąjungos lygmeniu. Todėl Sąjunga gali priimti priemones laikydamasi ES sutarties 5 straipsnyje nustatyto subsidiarumo principo. Pagal tame straipsnyje nustatytą proporcingumo principą šia direktyva neviršijama to, kas būtina nurodytam tikslui pasiekti;
(9)todėl būtina tikslingai suderinti konkrečius kalte grindžiamos atsakomybės taisyklių aspektus Sąjungos lygmeniu. Atlikus tokį suderinimą turėtų būti padidintas teisinis tikrumas ir sudarytos vienodos sąlygos dirbtinio intelekto sistemoms, o dėl to pagerės vidaus rinkos veikimas, kiek tai susiję su dirbtiniu intelektu grindžiamų produktų ir paslaugų gamyba ir sklaida;
(10)siekiant užtikrinti proporcingumą, reikėtų tikslingai suderinti tik tas kalte grindžiamas atsakomybės taisykles, kuriomis reglamentuojama asmenų, reikalaujančių atlyginti dirbtinio intelekto sistemų padarytą žalą, prievolė įrodyti. Šia direktyva neturėtų būti derinami bendrieji civilinės atsakomybės aspektai, kurie skirtingai reglamentuojami nacionalinėmis civilinės atsakomybės taisyklėmis – pavyzdžiui, kaltės arba priežastinio ryšio apibrėžtis, skirtingos žalos, dėl kurios galima reikšti reikalavimus dėl žalos atlyginimo, rūšys, atsakomybės paskirstymas keliems žalą sukėlusiems asmenims, prisidėjimas prie patirtos žalos, žalos apskaičiavimas ar senaties terminai;
(11)valstybių narių teisės aktai, susiję su gamintojų atsakomybe už žalą, patirtą dėl jų gaminių trūkumų, Sąjungos lygmeniu jau buvo suderinti Tarybos direktyva 85/374/EEB. Tačiau šie teisės aktai neturi įtakos valstybių narių sutartinės ar nesutartinės atsakomybės taisyklėms, kaip antai garantijai, kaltei ar atsakomybei be kaltės dėl kitų priežasčių nei gaminio trūkumas. Tarybos direktyvos 85/374/EEB peržiūra siekiama paaiškinti ir užtikrinti, kad nukentėjęs asmuo galėtų reikalauti atlyginti žalą, patirtą dėl dirbtiniu intelektu grindžiamų gaminių su trūkumais naudojant dirbtinį intelektą, todėl reikėtų paaiškinti, kad šios direktyvos nuostatos neturi poveikio bet kokioms teisėms, kurias nukentėjęs asmuo gali turėti pagal nacionalines taisykles, kuriomis įgyvendinama Direktyva 85/374/EEB. Be to, transporto srityje ši direktyva neturėtų daryti poveikio Sąjungos teisei, kuria reglamentuojama vežėjų atsakomybė.
(12)[Skaitmeninių paslaugų aktu (SPA)] visiškai suderinamos taisyklės, taikomos tarpininkavimo paslaugų teikėjams vidaus rinkoje ir apimančios riziką visuomenei, kylančią dėl tų paslaugų teikėjų teikiamų paslaugų, be kita ko, kiek tai susiję su jų naudojamomis dirbtinio intelekto sistemomis. Šia direktyva nedaromas poveikis [Skaitmeninių paslaugų akto (SPA)] nuostatoms, kuriomis nustatoma išsami ir visiškai suderinta išsamaus patikrinimo prievolių, susijusių su prieglobos paslaugų teikėjų algoritminių sprendimų priėmimu, sistema, įskaitant atleidimą nuo atsakomybės už jų paslaugų gavėjų įkelto neteisėto turinio platinimą, kai tenkinamos to reglamento sąlygos;
(13)išskyrus šia direktyva nustatytas prezumpcijas, ja nesuderinamos nacionalinės teisės nuostatos dėl to, kuriai šaliai tenka prievolė įrodyti arba kokio tikrumo lygio reikalaujama kalbant apie įrodymų pakankamumo standartą;
(14)šioje direktyvoje turėtų būti laikomasi minimalaus suderinimo principo. Laikydamiesi tokio požiūrio ieškovai, reikalaujantys atlyginti dirbtinio intelekto sistemų padarytą žalą gali remtis palankesnėmis nacionalinės teisės taisyklėmis. Todėl, pavyzdžiui, nacionalinės teisės aktuose galėtų būti toliau numatomas prievolės įrodyti perkėlimas pagal nacionalinę kalte grindžiamą tvarką arba nacionalinę atsakomybės be kaltės tvarką, kurių nacionalinės teisės aktuose jau numatyta nemažai, ir galbūt jis galėtų būti taikomas dirbtinio intelekto sistemų padarytai žalai;
(15)taip pat turėtų būti užtikrinamas suderinamumas su [Dirbtinio intelekto aktu]. Todėl tikslinga, kad šioje direktyvoje būtų vartojamos tos pačios dirbtinio intelekto sistemų, tiekėjų ir naudotojų apibrėžtys. Be to, ši direktyva turėtų būti taikoma tik ieškiniams dėl žalos, padarytos dėl dirbtinio intelekto sistemos sugeneruoto išvedinio arba nesugebėjimo sugeneruoti išvedinį dėl [Dirbtinio intelekto akte] nurodyto asmens, pavyzdžiui, tiekėjo arba naudotojo, kaltės. Ši direktyva netaikoma pretenzijoms dėl atsakomybės, kai žala padaroma dėl žmogaus atlikto įvertinimo, po kurio buvo atliktas žmogaus veiksmas ar nebuvo veikiama, o dirbtinio intelekto sistema buvo naudojama tik informacijai arba rekomendacijoms, į kurias atsižvelgė atitinkamas žmogus, gauti. Pastaruoju atveju galima atsekti dėl žmogaus veiksmų arba neveikimo padarytą žalą, nes žmogaus veiksmo arba neveikimo ir žalos neskiria dirbtinio intelekto sistemos išvedinys, todėl nustatyti priežastinį ryšį nėra sunkiau nei tais atvejais, kai dirbtinio intelekto sistema nenaudojama;
(16)galimybė susipažinti su informacija, susijusia su konkrečiomis didelės rizikos dirbtinio intelekto sistemomis, dėl kurių, kaip įtariama, buvo padaryta žala, yra svarbus veiksnys, kai siekiama nustatyti, ar reikia reikalauti atlyginti žalą ir pagrįsti reikalavimus atlyginti žalą. Be to, didelės rizikos dirbtinio intelekto sistemų atveju [Dirbtinio intelekto akte] nustatyti konkretūs dokumentavimo, informavimo ir registravimo reikalavimai, tačiau nukentėjusiam asmeniui nesuteikiama teisė susipažinti su šia informacija. Todėl, siekiant nustatyti atsakomybę, tikslinga nustatyti asmenims, kurių žinioje yra atitinkami įrodymai, taikomas įrodymų atskleidimo taisykles. Šios taisyklės taip pat turėtų veikti kaip papildoma paskata laikytis atitinkamų [Dirbtinio intelekto akte] nustatytų reikalavimų dokumentuoti arba registruoti atitinkamą informaciją;
(17)dėl didelio žmonių, kurie paprastai dalyvauja kuriant, plėtojant, diegiant ir eksploatuojant didelės rizikos dirbtinio intelekto sistemas, skaičiaus nukentėjusiesiems sunku nustatyti asmenį, kuris potencialiai atsakingas už padarytą žalą, ir įrodyti, kad jų reikalavimai atlyginti žalą atitinka nustatytas sąlygas. Siekiant, kad nukentėję asmenys galėtų patikrinti, ar reikalavimas atlyginti žalą yra pagrįstas, tikslinga potencialiems ieškovams suteikti teisę prieš pateikiant reikalavimą atlyginti žalą paprašyti teismo nurodyti atskleisti atitinkamus įrodymus. Toks nurodymas turėtų būti pateikiamas tik tuo atveju, kai potencialus ieškovas pateikia faktus ir informaciją, kurių pakanka reikalavimo atlyginti žalą patikimumui pagrįsti, ir yra pateikęs tiekėjui, asmeniui, kuris vykdo tiekėjo pareigas, arba naudotojui išankstinį prašymą atskleisti tokius turimus įrodymus, susijusius su konkrečiomis didelės rizikos dirbtinio intelekto sistemomis, dėl kurių, kaip įtariama, buvo padaryta žala, kurią buvo atsisakyta atlyginti. Nurodymas atskleisti informaciją turėtų padėti sumažinti nereikalingą bylinėjimąsi ir išvengti galimų bylos šalių išlaidų, kurių jos gali patirti dėl nepagrįstų arba greičiausiai nesėkmingų ieškinių. Tiekėjo, asmens, kuris vykdo tiekėjo pareigas, arba naudotojo atsisakymas prieš pateikiant teismui prašymą atskleisti įrodymus neturėtų lemti prezumpcijos, kad asmuo, kuris atsisako atskleisti įrodymus, nevykdo atitinkamų rūpestingumo pareigų;
(18)įrodymų, susijusių su didelės rizikos dirbtinio intelekto sistemomis, atskleidimo apribojimas atitinka [Dirbtinio intelekto aktą], kuriame nustatytos tam tikros konkrečios su didelės rizikos dirbtinio intelekto sistemų kūrimu, plėtojimu ir diegimu susijusios veiklos vykdytojų dokumentavimo, registravimo ir informavimo pareigos. Tokiu nuoseklumu taip pat užtikrinamas būtinas proporcingumas, nes išvengiama situacijų, kai mažesnės rizikos arba visai rizikos nekeliančių dirbtinio intelekto sistemų veiklos vykdytojai turėtų dokumentuoti informaciją panašiu lygmeniu, kaip pagal [Dirbtinio intelekto aktą] reikalaujama didelės rizikos dirbtinio intelekto sistemų atveju;
(19)nacionaliniai teismai civilinėse bylose turėtų turėti galimybę nurodyti, kad asmenys, kurie jau yra įpareigoti dokumentuoti arba registruoti informaciją pagal [Dirbtinio intelekto aktą], atskleistų arba išsaugotų atitinkamus įrodymus, susijusius su žala, padaryta dėl didelės rizikos dirbtinio intelekto sistemų, nepriklausomai nuo to, ar jie yra dirbtinio intelekto sistemos tiekėjai, asmenys, kurie vykdo tiekėjo pareigas, ar naudotojai, veikiantys kaip atsakovai ar ieškinio tretieji asmenys. Gali būti atvejų, kai byloje atitinkamus įrodymus turi subjektai, kurie nėra reikalavimo atlyginti žalą šalys, bet kuriems pagal [Dirbtinio intelekto aktą] yra nustatyta pareiga tokius įrodymus dokumentuoti arba registruoti. Todėl būtina numatyti sąlygas, kuriomis tokiems reikalavimo tretiesiems asmenims gali būti nurodoma atskleisti atitinkamus įrodymus;
(20)siekdami išlaikyti pusiausvyrą tarp reikalavime atlyginti žalą dalyvaujančių šalių ir atitinkamų trečiųjų asmenų interesų, teismai turėtų nurodyti atskleisti įrodymus tik tais atvejais, kai tai būtina ir proporcinga siekiant pagrįsti reikalavimą arba galimą reikalavimą atlyginti žalą. Šiuo atžvilgiu turėtų būti atskleidžiami tik tie įrodymai, kurie yra būtini sprendimui dėl atitinkamo reikalavimo atlyginti žalą priimti, pavyzdžiui, tik atitinkamų įrašų arba duomenų rinkinių dalys, kurių reikia siekiant įrodyti, kad nebuvo laikomasi [Dirbtinio intelekto akte] nustatyto reikalavimo. Siekiant užtikrinti tokių atskleidimo arba išsaugojimo priemonių proporcingumą, nacionaliniai teismai turėtų taikyti veiksmingas priemones visų susijusių šalių teisėtiems interesams, kaip antai komercinėms paslaptims, kaip apibrėžta Europos Parlamento ir Tarybos direktyvoje (ES) 2016/943, ir konfidencialiai informacijai, pavyzdžiui, informacijai, susijusiai su viešuoju ar nacionaliniu saugumu, apsaugoti. Kiek tai susiję su komercinėmis paslaptimis arba tariamomis komercinėmis paslaptimis, kurias teismas pripažino konfidencialiomis, kaip apibrėžta Direktyvoje (ES) 2016/943, nacionaliniams teismams turėtų būti suteikti įgaliojimai imtis konkrečių priemonių, kad būtų užtikrinamas komercinių paslapčių konfidencialumas teismo proceso metu ir jam pasibaigus, kartu užtikrinant teisingą ir proporcingą pusiausvyrą tarp komercinės paslapties turėtojo interesų išsaugoti slaptumą ir nukentėjusio asmens interesų. Tai turėtų apimti priemones, kuriomis galimybė susipažinti su dokumentais, kuriuose yra komercinių paslapčių, ir galimybė dalyvauti posėdžiuose arba susipažinti su jų dokumentais ir stenogramomis būtų suteikiama tik ribotam asmenų skaičiui. Spręsdami dėl tokių priemonių nacionaliniai teismai turėtų atsižvelgti į būtinybę užtikrinti teisę į veiksmingą teisinę gynybą ir teisingą bylos nagrinėjimą, šalių ir, kai tinkama, trečiųjų asmenų teisėtus interesus ir į bet kokią galimą žalą bet kuriai šaliai ir, kai tinkama, tretiesiems asmenims, kurią sukeltų tokių priemonių nustatymas ar atmetimas. Be to, siekiant užtikrinti proporcingą informacijos atskleidimo priemonės taikymą trečiųjų asmenų atžvilgiu nagrinėjant reikalavimus atlyginti žalą, nacionaliniai teismai turėtų nurodyti tretiesiems asmenims atskleisti informaciją tik tais atvejais, kai įrodymų negalima gauti iš atsakovo;
(21)nors nacionaliniai teismai turi įvairių priemonių, kuriomis užtikrina, kad būtų vykdomi jų nurodymai atskleisti informaciją, dėl tokių vykdymo užtikrinimo priemonių gali būti vėluojama nagrinėti reikalavimus atlyginti žalą ir dėl to bylos šalys gali patirti papildomų išlaidų. Dėl tokio vėlavimo ir papildomų išlaidų nukentėjusiesiems gali būti sunkiau pasinaudoti veiksmingomis apskundimo teismine tvarka priemonėmis. Todėl tuo atveju, kai atsakovas, kuriam pateiktas ieškinys dėl žalos atlyginimo, neatskleidžia turimų įrodymų, kuriuos atskleisti nurodė teismas, tikslinga nustatyti rūpestingumo pareigų, kurių vykdymą buvo siekiama įrodyti tokiais įrodymais, nevykdymo prezumpciją. Taikant šią nuginčijamą prezumpciją bus sutrumpintas bylinėjimosi laikas ir sudaromos palankesnės sąlygos veiksmingesniam teismo procesui. Atsakovui turėtų būti suteikiama galimybė nuginčyti tą prezumpciją pateikiant priešingus įrodymus;
(22)siekiant pašalinti sunkumus, kurių patiriama įrodinėjant, kad dėl konkretaus potencialiai atsakingo asmens įvedinio atsirado konkretus dirbtinio intelekto sistemos išvedinys, dėl kurio buvo padaryta atitinkama žala, tam tikromis sąlygomis tikslinga numatyti priežastinio ryšio prezumpciją. Nors kalte grindžiamo reikalavimo atveju ieškovas paprastai turi įrodyti žalą, žmogaus veiksmą arba neveikimą, dėl kurio kaltas atsakovas, ir priežastinį ryšį tarp šių dviejų aplinkybių, šia direktyva nesuderinamos sąlygos, kuriomis nacionaliniai teismai nustato kaltę. Jos ir toliau reglamentuojamos taikytinais nacionalinės teisės aktais ir, tai atvejais, kai jos suderintos, taikytinais Sąjungos teisės aktais. Be to, šia direktyva nederinamos su žala susijusios sąlygos, pavyzdžiui, tai, kokią žalą galima atlyginti, kurios taip pat reglamentuojamos taikytinais nacionalinės ir Sąjungos teisės aktais. Siekiant taikyti priežastinio ryšio prezumpciją pagal šią direktyvą, atsakovo kaltė turėtų būti nustatoma kaip žmogaus veiksmas arba neveikimas, neatitinkantis pagal Sąjungos teisę arba nacionalinę teisę nustatytos rūpestingumo pareigos, kurią vykdant tiesiogiai siekiama apsaugoti nuo padarytos žalos. Taigi ši prezumpcija gali būti taikoma, pavyzdžiui, reikalavimų atlyginti žalą dėl kūno sužalojimo atveju, kai teismas nustato atsakovo kaltę dėl naudojimo instrukcijų, kuriomis siekiama išvengti žalos fiziniams asmenims, nesilaikymo. Rūpestingumo pareigų, kurios nebuvo tiesiogiai skirtos apsisaugoti nuo padarytos žalos, nesilaikymo atveju prezumpcija netaikoma; pavyzdžiui, jei tiekėjas nepateikia reikiamų dokumentų kompetentingoms institucijoms, reikalavimų atlyginti žalą dėl kūno sužalojimo atveju prezumpcija nebūtų taikoma. Taip pat reikėtų nustatyti, ar, atsižvelgiant į konkretaus atvejo aplinkybes, galima pagrįstai manyti, kad kaltė turėjo įtakos dirbtinio intelekto sistemos sugeneruotam išvediniui arba dirbtinio intelekto sistemos nesugebėjimui sugeneruoti išvedinį. Galiausiai iš ieškovo vis tiek turėtų būti reikalaujama įrodyti, kad žala buvo padaryta dėl išvedinio arba nesugebėjimo sugeneruoti išvedinį;
(23)tokią kaltę galima nustatyti, kai nesilaikoma Sąjungos taisyklių, kuriomis konkrečiai reglamentuojamos didelės rizikos dirbtinio intelekto sistemos, pavyzdžiui, tam tikroms didelės rizikos dirbtinio intelekto sistemoms [Dirbtinio intelekto akte] nustatytų reikalavimų, reikalavimų, kurie pagal [Dirbtinio intelekto akto 2 straipsnio 2 dalį] būsimuose sektorių teisės aktuose gali būti nustatyti kitoms didelės rizikos dirbtinio intelekto sistemoms arba rūpestingumo pareigų, susijusių su tam tikra veikla ir taikytinų neatsižvelgiant į tai, ar dirbtinis intelektas naudojamas vykdant tą veiklą. Be to, šia direktyva nenustatomi ir nesuderinami reikalavimai arba subjektų, kurių veikla reglamentuojama tais teisės aktais, atsakomybė, todėl nesukuriama priežasčių naujoms pretenzijoms dėl atsakomybės. Kaltei prilygstantis tokio reikalavimo pažeidimas bus nustatomas pagal tų taikytinų Sąjungos taisyklių nuostatas, nes šia direktyva nenustatomi nauji reikalavimai ir nedaromas poveikis galiojantiems reikalavimams. Pavyzdžiui, ši direktyva nedaro poveikio tarpininkavimo paslaugų teikėjų atleidimui nuo atsakomybės ir išsamaus patikrinimo prievolėms, kurios jiems taikomos pagal [Skaitmeninių paslaugų aktą]. Panašiai turi būti nustatyta, ar laikomasi Direktyva (ES) 2019/790 dėl autorių teisių ir gretutinių teisių bendrojoje skaitmeninėje rinkoje ir kitais atitinkamais Sąjungos autorių teisių teisės aktais interneto platformoms nustatytų reikalavimų, kuriais siekiama išvengti neteisėto autorių teisių saugomų kūrinių viešo paskelbimo;
(24)Sąjungos teisės aktais nesuderintose srityse toliau taikoma nacionalinė teisė, o kaltė nustatoma pagal taikytinus nacionalinės teisės aktus. Visose nacionalinėse atsakomybės tvarkose numatytos rūpestingumo pareigos, kurias vykdant kaip elgesio standartu vadovaujamasi skirtingomis principų, pagal kuriuos turėtų veikti supratingas asmuo, formomis, ir jomis taip pat užtikrinamas saugus dirbtinio intelekto sistemų eksploatavimas, taip išvengiant žalos pripažintiems teisiniams interesams. Nustatant tokias rūpestingumo pareigas, pavyzdžiui, gali būti reikalaujama, kad dirbtinio intelekto sistemų naudotojai, vykdydami tam tikras užduotis, pasirinktų konkrečią atitinkamų savybių turinčią dirbtinio intelekto sistemą arba kad tam tikri gyventojų segmentai neturėtų prieigos prie tam tikros dirbtinio intelekto sistemos. Nacionalinės teisės aktais taip pat gali būti nustatomi konkretūs įpareigojimai, kuriais siekiama išvengti rizikos, susijusios su tam tikra veikla, ir kurie taikomi nepriklausomai nuo to, ar dirbtinis intelektas naudojamas vykdant tą veiklą – pavyzdžiui, eismo taisyklės arba specialiai dirbtinio intelekto sistemoms nustatomos pareigos, kaip antai papildomi nacionaliniai reikalavimai didelės rizikos dirbtinio intelekto sistemų naudotojams, nustatyti [Dirbtinio intelekto akto] 29 straipsnio 2 dalyje. Šia direktyva tokie reikalavimai nenustatomi ir nedaromas poveikis sąlygoms, kuriomis tokių reikalavimų pažeidimo atveju nustatoma kaltė;
(25)net ir tuomet, kai nustatoma kaltė, atsiradusi dėl to, kad nebuvo laikomasi rūpestingumo pareigos, kuria buvo tiesiogiai siekiama apsaugoti nuo padarytos žalos, ne visais kaltės atvejais turėtų būti taikoma nuginčijama prezumpcija, pagal kurią kaltė būtų susiejama su dirbtinio intelekto išvediniu. Tokia prezumpcija turėtų būti taikoma tik tada, kai, atsižvelgiant į aplinkybes, kuriomis buvo padaryta žala, galima pagrįstai manyti, kad tokia kaltė turėjo įtakos dirbtinio intelekto sistemos sugeneruotam išvediniui arba dirbtinio intelekto sistemos nesugebėjimui sugeneruoti išvedinį ir dėl to buvo padaryta žala. Pavyzdžiui, galima pagrįstai manyti, kad kaltė turėjo įtakos išvediniui arba nesugebėjimui sugeneruoti išvedinį, kai dėl tokios kaltės buvo pažeista rūpestingumo pareiga apriboti dirbtinio intelekto sistemos eksploatavimo sritį ir žala buvo padaryta už tokios eksploatavimo srities ribų. Ir priešingai, negali būti pagrįstai laikoma, kad reikalavimo pateikti tam tikrus dokumentus arba užsiregistruoti tam tikroje institucijoje pažeidimas, net jeigu tai buvo galima numatyti kalbant apie konkrečią veiklą arba net jeigu toks reikalavimas buvo aiškiai taikomas dirbtinio intelekto sistemos eksploatavimui, turėtų įtakos dirbtinio intelekto sistemos sugeneruotam išvediniui arba dirbtinio intelekto sistemos nesugebėjimui sugeneruoti išvedinį;
(26)ši direktyva taikoma kaltei, kuri atsiranda, kai nesilaikoma [Dirbtinio intelekto akto] 2 ir 3 skyriuose išvardytų tam tikrų reikalavimų didelės rizikos dirbtinio intelekto sistemų tiekėjams ir naudotojams, dėl kurių nesilaikymo tam tikromis sąlygomis galima taikyti priežastinio ryšio prezumpciją. Dirbtinio intelekto akte numatytas visiškas dirbtinio intelekto sistemų reikalavimų suderinimas, išskyrus atvejus, kai aiškiai nustatyta kitaip. Juo suderinami konkretūs didelės rizikos dirbtinio intelekto sistemoms taikomi reikalavimai. Taigi, kalbant apie ieškinius dėl žalos atlyginimo, kai taikoma šioje direktyvoje numatyta priežastinio ryšio prezumpcija, galima tiekėjų arba asmens, kurie vykdo tiekėjų pareigas pagal [Dirbtinio intelekto aktą] kaltė nustatoma tik tais atvejais, kai tokių reikalavimų nesilaikoma. Atsižvelgiant į tai, kad ieškovui gali būti sunku praktiškai įrodyti tokį reikalavimų nesilaikymą, kai atsakovas yra dirbtinio intelekto sistemos tiekėjas, ir visapusiškai laikantis [Dirbtinio intelekto akto] logikos, šioje direktyvoje taip pat turėtų būti nustatyta, kad nustatant, ar tiekėjas laikėsi atitinkamų šioje direktyvoje nurodytų Dirbtinio intelekto akto reikalavimų, turėtų būti atsižvelgiama į veiksmus, kurių, taikydamas rizikos valdymo sistemą, ėmėsi tiekėjas, ir į rizikos valdymo sistemos rezultatus, t. y. į sprendimą taikyti tam tikras rizikos valdymo priemones arba jų netaikyti. Pagal [Dirbtinio intelekto aktą] tiekėjo įdiegta rizikos valdymo sistema yra per visą didelės rizikos dirbtinio intelekto sistemos gyvavimo ciklą vykstantis nuolatinis kartotinis procesas, kuriuo tiekėjas užtikrina atitiktį privalomiems rizikos mažinimo reikalavimams, todėl ji gali būti naudinga vertinant šį reikalavimų laikymąsi. Ši direktyva taip pat taikoma naudotojų kaltės atvejais, kai ši kaltė atsiranda dėl tam tikrų [Dirbtinio intelekto akte] nustatytų konkrečių reikalavimų nesilaikymo. Be to, didelės rizikos dirbtinio intelekto sistemų naudotojų kaltė gali būti nustatoma nevykdant kitų Sąjungos arba nacionalinės teisės aktais nustatytų rūpestingumo pareigų, atsižvelgiant į [Dirbtinio intelekto akto] 29 straipsnio 2 dalį;
(27)nors dėl konkrečių tam tikrų dirbtinio intelekto sistemų savybių, pavyzdžiui, autonomijos ir neskaidrumo, ieškovui gali būti pernelyg sudėtinga vykdyti prievolę įrodyti, gali būti atvejų, kai tokių sunkumų nekyla, nes ieškovas gali turėti pakankamai įrodymų ir ekspertinių žinių, reikalingų įrodyti priežastinį ryšį. Taip galėtų būti, pavyzdžiui, didelės rizikos dirbtinio intelekto sistemų atvejais, kai ieškovas gali pagrįstai gauti pakankamai įrodymų ir ekspertinių žinių vadovaudamasis [Dirbtinio intelekto akte] nustatytais dokumentavimo ir registravimo reikalavimais. Tokiais atvejais teismas prezumpcijos taikyti neturėtų;
(28)priežastinio ryšio prezumpcija taip pat galėtų būti taikoma dirbtinio intelekto sistemų, kurios nėra didelės rizikos dirbtinio intelekto sistemos, atvejais, nes ieškovui gali kilti pernelyg daug sunkumų įrodinėjant patirtą žalą. Pavyzdžiui, tokie sunkumai galėtų būti vertinami atsižvelgiant į tam tikrų dirbtinio intelekto sistemų savybes, kaip antai autonomiją ir neskaidrumą, dėl kurių praktiškai labai sunku paaiškinti vidinį dirbtinio intelekto sistemos veikimą, o tai daro neigiamą poveikį ieškovo sugebėjimui įrodyti priežastinį ryšį tarp atsakovo kaltės ir dirbtinio intelekto išvedinio. Nacionalinis teismas turėtų taikyti prezumpciją, kai ieškovui yra pernelyg sunku įrodyti priežastinį ryšį, nes jis turi paaiškinti, kaip dirbtinio intelekto sistemai poveikį padarė žmogaus veiksmas arba neveikimas, dėl kurio atsirado kaltė, susijusi su sugeneruotu išvediniu arba nesugebėjimu sugeneruoti išvedinį, dėl kurios buvo padaryta žala. Tačiau neturėtų būti reikalaujama, kad ieškovas paaiškintų atitinkamos dirbtinio intelekto sistemos savybes arba kodėl dėl šių savybių sunkiau nustatyti priežastinį ryšį;
(29)taikant priežastinio ryšio prezumpciją siekiama užtikrinti panašaus lygio nukentėjusiojo asmens apsaugą, kaip ir tais atvejais, kai dirbtinis intelektas nenaudojamas ir todėl gali būti lengviau įrodyti priežastinį ryšį. Vis dėlto taip atvejais, kai atsakovas yra ne profesionalus naudotojas, o asmuo, naudojantis dirbtinio intelekto sistemą savo privačiai veiklai vykdyti, sumažinti prievolę įrodyti priežastinį ryšį pagal šią direktyvą ne visada tikslinga. Tokiomis aplinkybėmis, siekiant suderinti nukentėjusio asmens ir neprofesionalaus naudotojo interesus, reikia atsižvelgti į tai, ar tokie neprofesionalūs naudotojai savo elgesiu gali padidinti riziką, kad naudojant dirbtinio intelekto sistemą gali būti padaryta žala. Jeigu dirbtinio intelekto sistemos tiekėjas įvykdė visas savo pareigas ir dėl to ta sistema buvo laikoma pakankamai saugia, kad ją būtų galima pateikti rinkai, ir neprofesionalūs naudotojai galėtų ją tam tikrais tikslais naudoti, ir tada ji buvo naudojama tais tikslais, priežastinio ryšio prezumpcija neturėtų būti taikoma tuomet, kai tokie neprofesionalūs naudotojai paprasčiausiai pradeda eksploatuoti tokią sistemą. Neprofesionaliam naudotojui, kuris įsigijo dirbtinio intelekto sistemą ir paprasčiausiai pradeda ją naudoti pagal jos paskirtį, iš esmės nekeisdamas jos eksploatavimo sąlygų, neturėtų būti taikoma šioje direktyvoje nustatyta priežastinio ryšio prezumpcija. Tačiau jeigu nacionalinis teismas nustato, kad neprofesionalus naudotojas iš esmės pakeitė dirbtinio intelekto sistemos eksploatavimo sąlygas arba kad jis turėjo ir galėjo nustatyti dirbtinio intelekto sistemos eksploatavimo sąlygas, tačiau to nepadarė, priežastinio ryšio prezumpcija turėtų būti taikoma, jei tenkinamos visos kitos sąlygos. Taip galėtų būti, pavyzdžiui, tais atvejais, kai neprofesionalus naudotojas, rinkdamasis eksploatavimo sritį arba nustatydamas dirbtinio intelekto sistemos eksploatavimo sąlygas, nesilaiko naudojimo instrukcijų arba nevykdo kitų nustatytų rūpestingumo pareigų. Tai nedaro poveikio faktui, kad tiekėjas turėtų nustatyti numatomą dirbtinio intelekto sistemos paskirtį, įskaitant konkrečias jos naudojimo aplinkybes ir sąlygas, o kurdamas ir plėtodamas tokią sistemą atitinkamai pašalintų arba kuo labiau sumažintų su ja susijusią riziką, atsižvelgdamas į numatomo naudotojo ekspertines žinias ir patirtį;
(30)kadangi šia direktyva nustatoma nuginčijama prezumpcija, atsakovui turėtų būti suteikiama galimybė ją paneigti, visų pirma įrodant, kad žala negalėjo būti padaryta dėl jo kaltės;
(31)būtina numatyti šios direktyvos peržiūrą praėjus [penkeriems metams] nuo perkėlimo į nacionalinę teisę laikotarpio pabaigos. Visų pirma, atliekant tą peržiūrą turėtų būti išnagrinėta, ar reikia sukurti atsakomybės be kaltės taisykles, taikomas ieškiniams veiklos vykdytojams, jei jiems dar netaikomos kitos Sąjungos atsakomybės taisyklės, visų pirma Direktyva 85/374/EEB, kartu su privalomuoju tam tikrų dirbtinio intelekto sistemų eksploatavimo draudimu, kaip siūlo Europos Parlamentas. Laikantis proporcingumo principo, tikslinga įvertinti tokį poreikį atsižvelgiant į atitinkamus technologinius ir reguliavimo pokyčius ateinančiais metais, atsižvelgiant į poveikį dirbtinio intelekto sistemų diegimui ir naudojijmui, ypač MVĮ. Atliekant tokią peržiūrą, be kita ko, turėtų būti atsižvelgiama į riziką, susijusią su žala svarbioms teisinėms vertybėms, kaip antai rizikos nesuvokiančių trečiųjų šalių gyvybei, sveikatai ir turtui, kuri gali būti padaryta eksploatuojant dirbtiniu intelektu grindžiamus produktus ar paslaugas. Atliekant šią peržiūrą taip pat turėtų būti analizuojamas šioje direktyvoje numatytų priemonių veiksmingumas kovojant su tokia rizika, taip pat atitinkamų sprendimų raida draudimo rinkoje. Siekiant užtikrinti, kad būtų prieinama tokiai peržiūrai atlikti reikalinga informacija, būtina rinkti duomenis ir kitus būtinus įrodymus, susijusius su atitinkamais klausimais;
(32)atsižvelgiant į poreikį pritaikyti nacionalines civilinės atsakomybės ir procedūrines taisykles, siekiant skatinti dirbtiniu intelektu grindžiamų produktų ir paslaugų diegimą naudingomis vidaus rinkos sąlygomis, visuomenės pripažinimą ir vartotojų pasitikėjimą dirbtinio intelekto technologijomis ir teisingumo sistema, tikslinga nustatyti ne vėliau kaip [dvejų metų nuo šios direktyvos įsigaliojimo dienos] terminą, per kurį valstybės narės turės priimti būtinas perkėlimo į nacionalinę teisę priemones;
(33)pagal 2011 m. rugsėjo 28 d. bendrą valstybių narių ir Komisijos politinį pareiškimą dėl aiškinamųjų dokumentų, valstybės narės pagrįstais atvejais įsipareigojo prie pranešimų apie perkėlimo priemones pridėti vieną ar daugiau dokumentų, kuriuose paaiškinamos direktyvos sudedamųjų dalių ir nacionalinių perkėlimo priemonių atitinkamų dalių sąsajos. Kalbant apie šią direktyvą, teisės aktų leidėjas laikosi nuomonės, kad tokių dokumentų perdavimas yra pagrįstas;
PRIĖMĖ ŠIĄ DIREKTYVĄ:
1 straipsnis
Dalykas ir taikymo sritis
1.Šioje direktyvoje nustatomos bendros taisyklės dėl:
(a)didelės rizikos dirbtinio intelekto sistemų įrodymų atskleidimo, kad ieškovas galėtų pagrįsti nesutartine kalte grindžiamą civilinį ieškinį dėl žalos atlyginimo;
(b)prievolės įrodyti tais atvejais, kai nacionaliniuose teismuose pareiškiami nesutartine kalte grindžiami civiliniai ieškiniai dėl dirbtinio intelekto sistemos padarytos žalos atlyginimo.
2.Ši direktyva taikoma nesutartine kalte grindžiamiems civiliniams ieškiniams dėl žalos atlyginimo tais atvejais, kai dirbtinio intelekto sistemos padaryta žala atsiranda po [perkėlimo į nacionalinę teisę laikotarpio pabaigos].
Ši direktyva netaikoma baudžiamosios atsakomybės atvejais.
3.Ši direktyva nedaro poveikio:
(a)Sąjungos teisės normoms, kuriomis reglamentuojamos atsakomybės transporto srityje sąlygos;
(b)visoms teisėms, kurias nukentėjęs asmuo gali turėti pagal nacionalines taisykles, kuriomis įgyvendinama Direktyva 85/374/EEB;
(c)atleidimui nuo atsakomybės ir išsamaus patikrinimo prievolėms, nustatytoms [Skaitmeninių paslaugų akte] ir
(d)nacionalinėms taisyklėms, pagal kurias nustatoma, kuriai šaliai tenka prievolė įrodyti, kokio tikrumo lygio reikalaujama kalbant apie įrodymų pakankamumo standartą arba kaip apibrėžiama kaltė, išskyrus 3 ir 4 straipsniuose numatytus atvejus.
4.Valstybės narės gali priimti arba toliau taikyti nacionalines taisykles, kurios yra palankesnės ieškovams, siekiantiems pagrįsti nesutartinį civilinį ieškinį dėl dirbtinio intelekto sistemos padarytos žalos atlyginimo, su sąlyga, kad tokios taisyklės yra suderinamos su Sąjungos teise.
2 straipsnis
Apibrėžtys
Šioje direktyvoje vartojamų terminų apibrėžtys:
(1)dirbtinio intelekto sistema – dirbtinio intelekto sistema, apibrėžta [Dirbtinio intelekto akto 3 straipsnio 1 dalyje];
(2)didelės rizikos dirbtinio intelekto sistema – dirbtinio intelekto sistema, nurodyta [Dirbtinio intelekto akto 6 straipsnyje];
(3)tiekėjas – tiekėjas, kaip apibrėžta [Dirbtinio intelekto akto 3 straipsnio 2 dalyje];
(4)naudotojas – naudotojas, kaip apibrėžta [Dirbtinio intelekto akto 3 straipsnio 4 dalyje];
(5)reikalavimas atlyginti žalą – nesutartine kalte grindžiamas civilinis ieškinys dėl žalos, patirtos dėl dirbtinio intelekto sistemos sugeneruoto išvedinio arba tokios sistemos nesugebėjimo sugeneruoti išvedinį, kai toks išvedinys turėjo būti sugeneruotas, atlyginimo;
(6)ieškovas – asmuo, pareiškiantis reikalavimą atlyginti žalą, kuris:
(a)nukentėjo dėl dirbtinio intelekto sistemos sugeneruoto išvedinio arba tokios sistemos nesugebėjimo sugeneruoti išvedinį, kai toks išvedinys turėjo būti sugeneruotas;
(b) pagal teisės aktus ar sutartį perėmė nukentėjusio asmens teisę arba kuriam ši teisė buvo perleista arba
(c)veikia vieno ar kelių nukentėjusiųjų vardu pagal Sąjungos arba nacionalinę teisę.
(7)
potencialus ieškovas – fizinis arba juridinis asmuo, kuris svarsto pateikti reikalavimą atlyginti žalą, bet jo dar nepateikė;
(8)
atsakovas – asmuo, kuriam pareiškiamas reikalavimas atlyginti žalą;
(9)
rūpestingumo pareiga – nacionalinėje arba Sąjungos teisėje nustatyta privaloma elgesio norma, kuria siekiama išvengti žalos nacionalinės arba Sąjungos teisės lygmeniu pripažintiems teisiniams interesams, įskaitant gyvybę, fizinę neliečiamybę, nuosavybę ir pagrindinių teisių apsaugą.
3 straipsnis
Įrodymų atskleidimas ir nuginčijama prezumpcija dėl reikalavimų nesilaikymo
1.Valstybės narės užtikrina, kad nacionaliniai teismai būtų įgalioti potencialaus ieškovo, kuris anksčiau kreipėsi į tiekėją, asmenį, kuris turi vykdo tiekėjo pareigas pagal [Dirbtinio intelekto akto 24 straipsnį arba 28 straipsnio 1 dalį], arba naudotoją prašydamas atitinkamus atskleisti turimus įrodymus apie konkrečią didelės rizikos dirbtinio intelekto sistemą, dėl kurios, kaip įtariama, buvo padaryta žala, tačiau kuriuos pateikti buvo atsisakyta, prašymu arba ieškovo prašymu nurodyti, kad šie asmenys atskleistų tokius įrodymus.
Siekdamas pagrįsti šį prašymą potencialus ieškovas turi nurodyti faktines aplinkybes ir pateikti įrodymus, kurių pakanka reikalavimo atlyginti žalą patikimumui pagrįsti.
2.Nagrinėdamas reikalavimą atlyginti žalą, nacionalinis teismas nurodo vienam iš 1 dalyje išvardytų asmenų atskleisti įrodymus tik tuo atveju, jeigu ieškovas ėmėsi visų proporcingų bandymų siekdamas gauti atitinkamus įrodymus iš atsakovo.
3.Valstybės narės užtikrina, kad ieškovo prašymu nacionaliniai teismai būtų įgalioti nurodyti imtis konkrečių priemonių, kad 1 dalyje nurodyti įrodymai būtų išsaugoti.
4.Nacionaliniai teismai nurodo atskleisti tik tuos įrodymus, kurie yra būtini ir proporcingi galimam ieškiniui arba reikalavimui atlyginti žalą pagrįsti, o išsaugoti – tik tiek, kiek būtina ir proporcinga tokiam reikalavimui atlyginti žalą pagrįsti.
Nustatydami, ar nurodymas atskleisti arba išsaugoti įrodymus yra proporcingas, nacionaliniai teismai atsižvelgia į visų šalių, įskaitant atitinkamas trečiąsias šalis, teisėtus interesus, visų pirma susijusius su komercinių paslapčių, kaip apibrėžta Direktyvos (ES) 2016/943 2 straipsnio 1 dalyje, ir konfidencialios informacijos, pavyzdžiui, informacijos, susijusios su viešuoju ar nacionaliniu saugumu, apsauga.
Valstybės narės užtikrina, kad tais atvejais, kai nurodoma atskleisti komercinę paslaptį arba tariamą komercinę paslaptį, kurią teismas pripažino konfidencialia, kaip apibrėžta Direktyvos (ES) 2016/943 9 straipsnio 1 dalyje, nacionaliniai teismai, gavę tinkamai pagrįstą šalies prašymą arba savo iniciatyva, būtų įgalioti imtis konkrečių priemonių, būtinų konfidencialumui išsaugoti, kai tie įrodymai naudojami arba jais remiamasi teismo procese.
Valstybės narės taip pat užtikrina, kad, reaguodamas į tokius nurodymus, asmuo, kuriam nurodyta atskleisti arba išsaugoti 1 arba 2 dalyje nurodytus įrodymus, galėtų pasinaudoti tinkamomis procedūrinėmis teisių gynimo priemonėmis.
5.Jeigu atsakovas nevykdo su reikalavimu atlyginti žalą susijusio nacionalinio teismo nurodymo atskleisti arba išsaugoti turimus įrodymus pagal 1 arba 2 dalį, nacionalinis teismas preziumuoja, kad atsakovas neįvykdė atitinkamos rūpestingumo pareigos, visų pirma 4 straipsnio 2 arba 3 dalyje nurodytomis aplinkybėmis, kuriomis prašomi įrodymai buvo reikalingi atitinkamo reikalavimo atlyginti žalą įrodymo tikslais.
Atsakovas turi teisę nuginčyti tą prezumpciją.
4 straipsnis
Nuginčijama priežastinio ryšio prezumpcija kaltės atveju
1.Laikydamiesi šiame straipsnyje nustatytų reikalavimų, nacionaliniai teismai, taikydami atsakomybės taisykles reikalavimui atlyginti žalą, preziumuoja priežastinį ryšį tarp atsakovo kaltės ir dirbtinio intelekto sistemos sugeneruoto išvedinio arba dirbtinio intelekto sistemos nesugebėjimo sugeneruoti išvedinį, kai tenkinamos visos šios sąlygos:
(a) ieškovas įrodė arba teismas pagal 3 straipsnio 5 dalį preziumavo atsakovo arba asmens, už kurio veiksmus atsako atsakovas, kaltę, atsiradusią dėl Sąjungos arba nacionalinės teisės aktais nustatytos rūpestingumo pareigos, kuria buvo tiesiogiai siekiama apsaugoti nuo padarytos žalos, nevykdymo;
(b)atsižvelgiant į konkretaus atvejo aplinkybes, galima pagrįstai manyti, kad kaltė turėjo įtakos dirbtinio intelekto sistemos sugeneruotam išvediniui arba dirbtinio intelekto sistemos nesugebėjimui sugeneruoti išvedinį;
(c)ieškovas įrodė, kad žala buvo padaryta dėl dirbtinio intelekto sistemos sugeneruoto išvedinio arba dirbtinio intelekto sistemos nesugebėjimo sugeneruoti išvedinį.
2.Jeigu didelės rizikos dirbtinio intelekto sistemos tiekėjui, kuriam taikomi [Dirbtinio intelekto akto] III antraštinės dalies 2 ir 3 skyriuose nustatyti reikalavimai, arba asmeniui, kuriam taikomos tiekėjo pareigos pagal [Dirbtinio intelekto akto 24 straipsnį arba 28 straipsnio 1 dalį], pareiškiamas reikalavimas atlyginti žalą, 1 dalies a punkto sąlyga įvykdoma tik tuo atveju, jeigu ieškovas įrodo, kad tiekėjas arba, atitinkamais atvejais, asmuo, kuriam taikomos tiekėjo pareigos, neįvykdė kurio nors iš šių tuose skyriuose nustatytų reikalavimų, atsižvelgiant į rizikos valdymo sistemos veiksmus ir jų rezultatus pagal [Dirbtinio intelekto akto 9 straipsnį ir 16 straipsnio a punktą]:
(a) dirbtinio intelekto sistema yra sistema, kurioje naudojami metodai, pagal kuriuos modeliai mokomi pasitelkiant duomenis, ir kuri nebuvo kuriama remiantis mokymo, validavimo ir bandymo duomenų rinkiniais, atitinkančiais [Dirbtinio intelekto akto 10 straipsnio 2–4 dalyse] nurodytus kokybės kriterijus;
(b) dirbtinio intelekto sistema nebuvo projektuojama ir kuriama laikantis [Dirbtinio intelekto akto 13 straipsnyje] nustatytų skaidrumo reikalavimų;
(c)dirbtinio intelekto sistema nebuvo projektuojama ir kuriama taip, kad tuo metu, kai ta dirbtinio intelekto sistema naudojama, ją galėtų veiksmingai prižiūrėti fiziniai asmenys, kaip numatyta [Dirbtinio intelekto akto 14 straipsnyje];
(d)dirbtinio intelekto sistema nebuvo projektuojama ir kuriama taip, kad atsižvelgiant į numatytąją jos paskirtį, būtų pasiektas tinkamas tikslumo, patvarumo ir kibernetinio saugumo lygis, kaip numatyta [Dirbtinio intelekto akto 15 straipsnyje ir 16 straipsnio a punkte] arba
(e)nebuvo nedelsiant imtasi būtinų taisomųjų veiksmų siekiant užtikrinti, kad dirbtinio intelekto sistema atitiktų [Dirbtinio intelekto akto III antraštinės dalies 2 skyriuje] nustatytus reikalavimus, arba atitinkamai pašalinti ar atšaukti sistemą, kaip nurodyta [Dirbtinio intelekto akto 16 straipsnio g punkte ir 21 straipsnyje].
3.Jeigu reikalavimas atlyginti žalą pareiškiamas didelės rizikos dirbtinio intelekto sistemos, kuriai taikomi [Dirbtinio intelekto akto] III antraštinės dalies 2 ir 3 skyriuose nustatyti reikalavimai, naudotojui, 1 dalies a punkto sąlyga įvykdoma, jeigu ieškovas įrodo, kad naudotojas:
(a)nevykdė savo pareigų naudoti arba stebėti dirbtinio intelekto sistemą pagal pateiktas naudojimo instrukcijas arba, kai tinkama, laikinai sustabdyti arba nutraukti jos naudojimą, kaip numatyta [Dirbtinio intelekto akto 29 straipsnyje] arba
(b)pateikė sistemai naudotojo kontroliuojamus įvesties duomenis, kurie nebuvo aktualūs atsižvelgiant į numatytąją sistemos paskirtį, kaip numatyta [Dirbtinio intelekto akto 29 straipsnio 3 dalyje].
4.Tais atvejais, kai reikalaujama atlyginti žalą, susijusią su didelės rizikos dirbtinio intelekto sistema, nacionalinis teismas netaiko 1 dalyje nustatytos prezumpcijos, jeigu atsakovas įrodo, kad ieškovas turi pakankamai įrodymų ir ekspertinių žinių, kad galėtų įrodyti 1 dalyje nurodytą priežastinį ryšį.
5.Tais atvejais, kai reikalaujama atlyginti žalą, susijusią su dirbtinio intelekto sistema, kuri nėra didelės rizikos dirbtinio intelekto sistema, 1 dalyje nustatyta prezumpcija taikoma tik tuo atveju, jeigu nacionalinis teismas mano, kad ieškovui bus pernelyg sudėtinga įrodyti 1 dalyje nurodytą priežastinį ryšį.
6.Tais atvejais, kai reikalavimas atlyginti žalą pareiškiamas atsakovui, kuris dirbtinio intelekto sistemą naudojo vykdydamas asmeninę neprofesinę veiklą, 1 dalyje nustatyta prezumpcija taikoma tik tuomet, kai atsakovas iš esmės pakeitė dirbtinio intelekto sistemos eksploatavimo sąlygas arba jeigu atsakovas buvo įpareigotas ir galėjo nustatyti dirbtinio intelekto sistemos eksploatavimo sąlygas, tačiau to nepadarė.
7.Atsakovas turi teisę nuginčyti 1 dalyje nustatytą prezumpciją.
5 straipsnis
Vertinimas ir tikslinė peržiūra
1.Komisija iki [DATA, penkeri metai nuo perkėlimo į nacionalinę teisę laikotarpio pabaigos], peržiūri, kaip taikoma ši direktyva ir pateikia Europos Parlamentui, Tarybai ir Europos ekonomikos ir socialinių reikalų komitetui ataskaitą, prireikus kartu pateikdama pasiūlymą dėl teisėkūros procedūra priimamo akto.
2.Ataskaitoje nagrinėjamas 3 ir 4 straipsnių poveikis siekiant šia direktyva siekiamų tikslų. Visų pirma joje turėtų būti įvertintas atsakomybės be kaltės taisyklių tinkamumas ieškiniams, pareikštiems tam tikrų dirbtinio intelekto sistemų veiklos vykdytojams, jei jiems dar netaikomos kitos Sąjungos atsakomybės taisyklės, ir draudimo poreikis, kartu atsižvelgiant į poveikį dirbtinio intelekto sistemų diegimui ir naudojijmui, ypač MVĮ.
3.Komisija parengia 1 ir 2 dalyse nurodytos ataskaitos rengimo stebėsenos programą, nurodydama, kaip ir kokiais intervalais bus renkami duomenys ir kiti būtini įrodymai. Programoje nurodomi veiksmai, kurių turi imtis Komisija ir valstybės narės, rinkdamos ir analizuodamos duomenis bei kitus įrodymus. Tos programos tikslais valstybės narės atitinkamus duomenis ir įrodymus Komisijai pateikia iki [visų antrų metų, einančių po perkėlimo į nacionalinę teisę laikotarpio pabaigos, gruodžio 31 d.], o vėliau – iki kiekvienų metų pabaigos.
6 straipsnis
Direktyvos (ES) 2020/1828 pakeitimas
Direktyvos (ES) 2020/1828 I priedas papildomas šiuo 67 punktu:
„(67) Europos Parlamento ir Tarybos direktyva (ES) …/… dėl nesutartinės civilinės atsakomybės taisyklių pritaikymo dirbtiniam intelektui (Atsakomybės už dirbtinį intelektą direktyva) (OL L …, …, p. …).“.
7 straipsnis
Perkėlimas į nacionalinę teisę
1.Valstybės narės užtikrina, kad įsigaliotų įstatymai ir kiti teisės aktai, būtini, kad šios direktyvos būtų laikomasi ne vėliau kaip nuo [dveji metai nuo įsigaliojimo]. Jos nedelsdamos pateikia Komisijai tų teisės aktų nuostatų tekstą.
Valstybės narės, priimdamos tuos teisės aktus, daro juose nuorodą į šią direktyvą arba tokia nuoroda daroma juos oficialiai skelbiant. Nuorodos darymo tvarką nustato valstybės narės.
2.Valstybės narės pateikia Komisijai šios direktyvos taikymo srityje priimtų nacionalinės teisės aktų pagrindinių nuostatų tekstus.
8 straipsnis
Įsigaliojimas
Ši direktyva įsigalioja dvidešimtą dieną po jos paskelbimo Europos Sąjungos oficialiajame leidinyje.
9 straipsnis
Adresatai
Ši direktyva skirta valstybėms narėms.
Priimta Briuselyje
Europos Parlamento vardu
Tarybos vardu
Pirmininkė
Pirmininkas