EURÓPSKA KOMISIA
V Bruseli28. 9. 2022
COM(2022) 496 final
2022/0303(COD)
Návrh
SMERNICA EURÓPSKEHO PARLAMENTU A RADY
o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii
(smernica o zodpovednosti za umelú inteligenciu)
(Text s významom pre EHP)
{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}
DÔVODOVÁ SPRÁVA
1.KONTEXT NÁVRHU
·Dôvody a ciele návrhu
Táto dôvodová správa je sprievodným dokumentom k návrhu smernice o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii. V reprezentatívnom prieskume z roku 2020 uviedli európske spoločnosti, že zodpovednosť predstavuje jednu z troch najväčších prekážok využívania umelej inteligencie. Ako najvýznamnejšiu vonkajšiu prekážku (43 %) ju uvádzali spoločnosti, ktoré plánujú umelú inteligenciu zaviesť, ale ešte tak neurobili.
Predsedníčka Komisie Ursula von der Leyenová stanovila vo svojich politických usmerneniach koordinovaný európsky prístup k umelej inteligencii. V bielej knihe o umelej inteligencii z 19. februára 2020 sa Komisia podujala propagovať využívanie umelej inteligencie a riešiť riziká súvisiace s niektorými jej použitiami prostredníctvom posilnenia excelentnosti a dôvery. V správe o zodpovednosti za umelú inteligenciu, ktorá je sprievodným dokumentom k bielej knihe, Komisia identifikovala konkrétne výzvy, ktoré umelá inteligencia predstavuje pre existujúce pravidlá zodpovednosti. V záveroch z 9. júna 2020 o formovaní digitálnej budúcnosti Európy Rada privítala konzultáciu o návrhoch politík v bielej knihe o umelej inteligencii a vyzvala Komisiu na predloženie konkrétnych návrhov. Európsky parlament prijal 20. októbra 2020 legislatívne uznesenie z vlastnej iniciatívy podľa článku 225 ZFEÚ, v ktorom žiada Komisiu o prijatie návrhu týkajúceho sa systému občianskoprávnej zodpovednosti za umelú inteligenciu na základe článku 114 Zmluvy o fungovaní EÚ (ZFEÚ).
Súčasné vnútroštátne pravidlá zodpovednosti, a najmä tie, ktoré sa odvíjajú od existencie pochybenia, nie sú vhodné na riešenie nárokov na náhradu škody spôsobenej produktmi a službami založenými na umelej inteligencii. Podľa nich musia obete dokázať zavinenie alebo opomenutie osoby, ktorá spôsobila škodu. Osobitné vlastnosti umelej inteligencie, akými sú zložitosť, autonómia a neprehľadnosť (tzv. efekt čiernej skrinky), môžu obetiam sťažovať alebo neúmerne predražovať určenie zodpovednej osoby a dodržanie požiadaviek na úspešné uplatnenie nároku na náhradu škody. Konkrétne by im mohli pri uplatňovaní náhrady škody vzniknúť veľmi vysoké počiatočné náklady, pričom súdne konania sú v týchto prípadoch oveľa dlhšie ako v prípade vecí, ktoré sa netýkajú umelej inteligencie. Môže ich to preto úplne odradiť od uplatnenia nároku na náhradu škody. Tieto obavy vyjadril aj Európsky parlament vo svojom uznesení z 3. mája 2022 o umelej inteligencii v digitálnom veku.
Ak si obeť uplatní nárok, vnútroštátne súdy môžu vzhľadom na osobitné vlastnosti umelej inteligencie prispôsobiť uplatnenie existujúcich pravidiel na báze ad hoc tak, aby pre ňu dosiahli spravodlivý výsledok. To spôsobí právnu neistotu. Podniky budú mať ťažkosti predvídať uplatňovanie existujúcich pravidiel zodpovednosti, čiže aj posúdiť a poistiť vyvodenie zodpovednosti. Tento účinok bude ešte výraznejší v prípade podnikov obchodujúcich cezhranične, keďže daná neistota sa bude týkať rôznych jurisdikcií. Najväčší vplyv to bude mať na malé a stredné podniky (MSP), ktoré sa nemôžu spoliehať na svoje odborné kapacity v oblasti práva ani kapitálové rezervy.
Z národných stratégií pre umelú inteligenciu vyplýva, že viacero členských štátov zvažuje alebo dokonca konkrétne plánuje legislatívne opatrenie v oblasti občianskoprávnej zodpovednosti za umelú inteligenciu. Preto možno očakávať, že ak EÚ nebude konať, členské štáty prispôsobia svoje vnútroštátne pravidlá zodpovednosti výzvam spojeným s umelou inteligenciou. Dôsledkom bude ďalšia fragmentácia a vyššie náklady pre podniky pôsobiace v celej EÚ.
Uvedené problémy sa potvrdili aj v rámci otvorenej verejnej konzultácie, na základe ktorej sa vypracovalo posúdenie vplyvu tohto návrhu. Podľa názoru verejnosti môže „efekt čiernej skrinky“ sťažovať obeti dokázanie pochybenia a príčinnej súvislosti a zároveň môže existovať neistota vo výklade a uplatnení existujúcich vnútroštátnych pravidiel zodpovednosti súdmi v prípadoch týkajúcich sa umelej inteligencie. Ďalej z nej vyplynula obava verejnosti z toho, akým spôsobom legislatívne opatrenie týkajúce sa prispôsobenia pravidiel zodpovednosti v jednotlivých členských štátoch a z neho vyplývajúca fragmentácia ovplyvnia náklady spoločností, najmä MSP, čo môže brániť vo využívaní umelej inteligencie v celej Únii.
Cieľom tohto návrhu je preto podporiť zavádzanie dôveryhodnej umelej inteligencie, aby sa na vnútornom trhu jej prínosy využívali v plnej miere. Dosahuje sa to tým, že obetiam, ktorým spôsobila škodu umelá inteligencia, sa zabezpečí rovnaká ochrana ako obetiam, ktorým spôsobili škodu výrobky vo všeobecnosti. Takisto sa ním zníži právna neistota podnikov, ktoré vyvíjajú alebo používajú umelú inteligenciu, pokiaľ ide o možné vyvodenie ich zodpovednosti, a zabráni sa vzniku fragmentovaných prispôsobení vnútroštátnych pravidiel občianskoprávnej zodpovednosti za umelú inteligenciu.
·Súlad s existujúcimi ustanoveniami v tejto oblasti politiky
Tento návrh je súčasťou balíka opatrení na podporu zavádzania umelej inteligencie v Európe prostredníctvom posilnenia excelentnosti a dôvery. Tento balík pozostáva z troch doplnkových oblastí činnosti:
–legislatívneho návrhu, v ktorom sa stanovujú horizontálne pravidlá pre systémy umelej inteligencie (akt o umelej inteligencii),
–revízie sektorových a horizontálnych predpisov v oblasti bezpečnosti výrobkov,
–pravidiel EÚ na riešenie problematiky zodpovednosti v súvislosti so systémami umelej inteligencie.
V návrhu aktu o umelej inteligencii Komisia navrhla pravidlá, ktorými sa znižujú riziká v oblasti bezpečnosti a chránia základné práva. Bezpečnosť a zodpovednosť sú dve strany jednej mince: uplatňujú sa v odlišných chvíľach a navzájom sa posilňujú. Hoci sa pravidlami na zaistenie bezpečnosti a ochrany základných práv riziká znížia, úplne sa neodstránia. Ak sa takéto riziko prejaví, aj tak môže dôjsť k vzniku škody. V takých prípadoch sa uplatnia pravidlá zodpovednosti z tohto návrhu.
Účinné pravidlá zodpovednosti zabezpečujú aj hospodársky stimul na dodržiavanie bezpečnostných pravidiel, čím prispievajú k predchádzaniu vzniku škôd. Okrem toho sa týmto návrhom prispieva k posilneniu požiadaviek na vysokorizikové systémy umelej inteligencie uložených v akte o umelej inteligencii, pretože nedodržanie týchto požiadaviek tvorí významný prvok, ktorým sa zmierňuje dôkazné bremeno. Tento návrh je takisto v súlade so všeobecnými a sektorovými predpismi v oblasti bezpečnosti výrobkov, ktoré sa vzťahujú na strojnícke výrobky a rádiové zariadenia založené na umelej inteligencii.
Komisia zaujíma vo svojej politike v oblasti umelej inteligencie holistický prístup k zodpovednosti tým, že navrhuje úpravy zodpovednosti výrobcu za chybné výrobky podľa smernice o zodpovednosti za výrobky, ako aj cielenú harmonizáciu podľa tohto návrhu. Tieto dve politické iniciatívy sú úzko previazané a tvoria balík, keďže nároky patriace do ich rozsahu pôsobnosti sa týkajú odlišných druhov zodpovednosti. Smernica o zodpovednosti za výrobky sa týka objektívnej zodpovednosti za chybné výrobky, ktorá vedie k náhrade niektorých druhov škôd, najmä tých, ktoré utrpeli jednotlivci. Tento návrh sa týka vnútroštátnych nárokov na náhradu škody, ktoré vychádzajú najmä z pochybenia osoby, pričom ich cieľom je nahradiť každú škodu a odškodniť všetky obete. Navzájom sa dopĺňajú a spolu tvoria celkový účinný systém občianskoprávnej zodpovednosti.
Spoločne sa bude týmito pravidlami podporovať dôvera v umelú inteligenciu (a ďalšie digitálne technológie), pretože sa nimi zabezpečí účinné odškodnenie obetí v prípade, ak škoda vznikla aj napriek preventívnym požiadavkám aktu o umelej inteligencii a ďalších bezpečnostných predpisov.
·Súlad s ostatnými politikami Únie
Návrh je v súlade s celkovou digitálnou stratégiou Únie, keďže prispieva k podpore technológie v službách človeka, čo je jeden z troch hlavných pilierov zamerania a cieľov politiky uvedených v oznámení Formovanie digitálnej budúcnosti Európy.
V tejto súvislosti je cieľom tohto návrhu vybudovať dôveru v umelú inteligenciu a zvýšiť jej využívanie. Tým sa dosiahnu synergie a bude sa dopĺňať s [aktom o kybernetickej odolnosti], ktorého cieľom takisto je zvýšiť dôveru v produkty s digitálnymi prvkami znížením kybernetických zraniteľností a lepšie chrániť komerčných a používateľov spomedzi spotrebiteľských.
Tento návrh nemá vplyv na pravidlá stanovené v [akte o digitálnych službách], v ktorom sa uvádza komplexný a plne harmonizovaný rámec povinností náležitej starostlivosti o algoritmické rozhodovanie online platforiem, ani na vyňatie poskytovateľov sprostredkovateľských služieb zo zodpovednosti, ktoré je v ňom stanovené.
Okrem toho tento návrh svojou podporou zavádzania umelej inteligencie súvisí s iniciatívami v rámci Európskej dátovej stratégie. Ďalej sa ním posilňuje úloha Únie v oblasti pomoci pri formovaní globálnych noriem a štandardov a podpore dôveryhodnej umelej inteligencie, ktorá je v súlade s hodnotami a záujmami Únie.
Návrh takisto nepriamo súvisí s Európskou zelenou dohodou. Konkrétne predstavujú digitálne technológie vrátane umelej inteligencie kritický faktor plnenia cieľov Európskej zelenej dohody v oblasti udržateľnosti v mnohých sektoroch (vrátane zdravotnej starostlivosti, dopravy, životného prostredia a poľnohospodárstva).
·Hlavné hospodárske, sociálne a environmentálne vplyvy
Smernicou sa prispeje k zavádzaniu umelej inteligencie. Podmienky zavádzania a vývoja technológií umelej inteligencie na vnútornom trhu možno výrazne zlepšiť tým, že sa zabráni fragmentácii v dôsledku možných prispôsobení pravidiel zodpovednosti na vnútroštátnej úrovni a zvýši sa právna istota prostredníctvom harmonizovaných opatrení na úrovni EÚ. V hospodárskej štúdii, ktorá je podkladom pre vypracovanie posúdenia vplyvu tohto návrhu, sa dospelo k záveru, že podľa konzervatívneho odhadu by cielené opatrenia harmonizácie v oblasti občianskoprávnej zodpovednosti za umelú inteligenciu mali v porovnaní so základným scenárom pozitívny vplyv na 5 až 7 % výrobnej hodnoty príslušného cezhraničného obchodu. Táto pridaná hodnota by sa vytvorila najmä prostredníctvom zníženej fragmentácie a zvýšenej právnej istoty v oblasti vyvodenia zodpovednosti zainteresovaných strán. Znížili by sa tým náklady zainteresovaných strán na právne informácie/zastúpenie, interné riadenie rizík a na dodržiavanie predpisov, uľahčilo by sa finančné plánovanie, ako aj odhad rizika na poistné účely, a spoločnostiam, a najmä MSP, by sa umožnilo skúmať nové trhy za hranicami. Na základe celkovej hodnoty trhu EÚ s umelou inteligenciou, ktorý ovplyvňujú problémy so zodpovednosťou riešené v tejto smernici, sa odhaduje, že sa vytvorí dodatočná trhová hodnota v rozpätí od 500 mil. EUR približne do 1,1 mld. EUR.
Pokiaľ ide o sociálne vplyvy, smernicou sa zvýši dôvera spoločnosti v technológie umelej inteligencie a zlepší prístup k účinnému justičnému systému. Prispeje sa ňou k dosiahnutiu účinného systému občianskoprávnej zodpovednosti prispôsobeného osobitostiam umelej inteligencie, v ktorom sú opodstatnené nároky na náhradu škody úspešné. Zvýšenie dôvery spoločnosti okrem toho prospeje všetkým spoločnostiam v hodnotovom reťazci umelej inteligencie, pretože posilnením dôvery občanov sa dosiahne rýchlejšie využívanie umelej inteligencie. Vzhľadom na stimulujúci účinok pravidiel zodpovednosti by predchádzanie nedostatkom v oblasti zodpovednosti nepriamo prospelo aj všetkým občanom, pretože sa zvýši úroveň ochrany ich zdravia a bezpečnosti (článok 114 ods. 3 ZFEÚ) a odstránia zdroje zdravotných rizík (článok 168 ods. 1 ZFEÚ).
Pokiaľ ide o vplyvy na životné prostredie, smernica by mala okrem toho prispieť aj k dosahovaniu súvisiacich cieľov a zámerov v oblasti udržateľného rozvoja. Využívanie aplikácií umelej inteligencie prospieva životnému prostrediu. Systémy umelej inteligencie využívané pri optimalizácii procesov napríklad zabezpečujú lepšiu hospodárnosť procesov (napr. znižovaním množstva potrebných hnojív a pesticídov, ako aj spotreby vody, pri dosahovaní rovnakých výsledkov atď.). Smernica by pozitívne ovplyvnila aj ciele udržateľného rozvoja, pretože účinné právne predpisy o transparentnosti, zodpovednosti a základných právach budú zacielené na využívanie potenciálu umelej inteligencie v prospech jednotlivcov a spoločnosti pri dosahovaní cieľov udržateľného rozvoja.
2.PRÁVNY ZÁKLAD, SUBSIDIARITA A PROPORCIONALITA
·
Právny základ
Právnym základom tohto návrhu je článok 114 ZFEÚ, v ktorom sa stanovuje prijímanie opatrení na zabezpečenie vytvorenia a fungovania vnútorného trhu.
Problémy, ktoré sa majú týmto návrhom riešiť, najmä v súvislosti s právnou neistotou a právnou fragmentáciou, brzdia rozvoj vnútorného trhu, čím sa významne podieľajú na tvorbe prekážok pre cezhraničný obchod s produktmi a službami založenými na umelej inteligencii.
V návrhu sa riešia prekážky vyplývajúce zo skutočnosti, že podniky, ktoré chcú cezhranične vytvárať, šíriť a prevádzkovať produkty a služby založené na umelej inteligencii, nemajú istotu, či a do akej miery sa uplatňujú existujúce systémy zodpovednosti na škodu spôsobenú umelou inteligenciou. Táto neistota sa týka najmä členských štátov, do ktorých podniky vyvážajú alebo v ktorých prevádzkujú svoje produkty a služby. V cezhraničných situáciách je štandardne rozhodným právom pre mimozmluvnú zodpovednosť vyplývajúcu z protiprávneho konania právo krajiny, v ktorej vznikla škoda. Pre podniky je veľmi dôležité poznať príslušné riziká súvisiace so zodpovednosťou a poistiť sa proti nim.
Okrem toho existujú konkrétne náznaky, že viacero členských štátov zvažuje jednostranné legislatívne opatrenia na riešenie konkrétnych výziev, ktoré umelá inteligencia predstavuje pre zodpovednosť. Napríklad v stratégiách pre umelú inteligenciu prijatých v Česku, Taliansku, na Malte, v Poľsku a Portugalsku sa uvádzajú iniciatívy na objasnenie zodpovednosti. Vzhľadom na veľké rozdiely v existujúcich pravidlách občianskoprávnej zodpovednosti medzi jednotlivými členskými štátmi je pravdepodobné, že všetky vnútroštátne opatrenia týkajúce sa umelej inteligencie by vychádzali z existujúcich rozdielnych vnútroštátnych prístupov, čím by sa zvýšila fragmentácia.
Prispôsobením pravidiel zodpovednosti vykonaným výlučne na vnútroštátnom základe by sa preto ešte zhoršili prekážky brániace zavádzaniu produktov a služieb založených na umelej inteligencii na vnútornom trhu a prispelo by sa k ďalšej fragmentácii.
·Subsidiarita
Ciele tohto návrhu nie je možné primerane dosiahnuť na vnútroštátnej úrovni, pretože vznikajúce rozdielne vnútroštátne pravidlá by zvýšili právnu neistotu a fragmentáciu a vytvorili prekážky brániace zavádzaniu produktov a služieb založených na umelej inteligencii na vnútornom trhu. Právna neistota by najviac ovplyvnila spoločnosti pôsobiace cezhranične, pretože by to pre ne znamenalo potrebu ďalších nákladov na právne informácie/zastúpenie a interné riadenie rizík, ako aj ušlé príjmy. Zároveň by rozdielne vnútroštátne pravidlá týkajúce sa nárokov na náhradu škody spôsobenej umelou inteligenciou zvýšili transakčné náklady podnikov, a to najmä pri cezhraničnom obchode, čo predstavuje významné prekážky vnútorného trhu. Ďalej by mala právna neistota a fragmentácia neprimeraný vplyv na startupy a MSP, ktoré tvoria väčšinu spoločností a najväčšiu časť investícií na relevantných trhoch.
V prípade neexistencie harmonizovaných pravidiel EÚ týkajúcich sa náhrady škody spôsobenej systémami umelej inteligencie by poskytovatelia, prevádzkovatelia a používatelia systémov umelej inteligencie na jednej strane a poškodené osoby na strane druhej čelili 27 rôznym systémom zodpovednosti s rôznou úrovňou ochrany a narušeniu hospodárskej súťaže medzi podnikmi z rôznych členských štátov.
Harmonizovanými opatreniami na úrovni EÚ by sa významne zlepšili podmienky zavádzania a vývoja technológií umelej inteligencie na vnútornom trhu, pretože by sa zabránilo fragmentácii a zvýšila by sa právna istota. Táto pridaná hodnota by sa vytvorila najmä prostredníctvom zníženej fragmentácie a zvýšenej právnej istoty v oblasti vyvodenia zodpovednosti zainteresovaných strán. Okrem toho len opatrením na úrovni EÚ je možné neustále dosahovať želaný účinok podpory dôvery spotrebiteľov v produkty a služby založené na umelej inteligencii, pretože sa zabráni nedostatkom v oblasti zodpovednosti v súvislosti s osobitnými vlastnosťami umelej inteligencie na vnútornom trhu. Zabezpečila by sa tým jednotná (minimálna) úroveň ochrany všetkých obetí (jednotlivcov aj spoločností) a jednotné stimuly na predchádzanie škodám a zabezpečenie zodpovednosti.
·Proporcionalita
Tento návrh vychádza z fázového prístupu. V prvej fáze sa ciele dosahujú pomocou minimálne rušivého prístupu; v druhej fáze sa opätovne posúdi potreba prísnejších alebo rozsiahlejších opatrení.
Prvá fáza sa obmedzuje na opatrenia týkajúce sa dôkazného bremena na riešenie identifikovaných problémov s umelou inteligenciou. Vychádza z hmotnoprávnych podmienok zodpovednosti, ktoré v súčasnosti existujú vo vnútroštátnych pravidlách, akými sú príčinná súvislosť alebo pochybenie, ale zameriava sa na cielené opatrenia týkajúce sa dôkazného bremena, čím sa zabezpečuje rovnaká úroveň ochrany obetí ako v prípadoch, ktoré nesúvisia so systémami umelej inteligencie. Okrem toho spomedzi rôznych nástrojov dostupných vo vnútroštátnom práve na zmiernenie dôkazného bremena sa v tomto návrhu využívajú vyvrátiteľné domnienky ako najmenej intervenčný nástroj. Takéto domnienky sa bežne nachádzajú vo vnútroštátnych systémoch zodpovednosti a vyvažujú záujmy navrhovateľov a žalovaných. Zároveň sú koncipované tak, aby stimulovali súlad s existujúcimi povinnosťami náležitej starostlivosti na úrovni Únie alebo na vnútroštátnej úrovni. Návrh nevedie k preneseniu dôkazného bremena s cieľom zabrániť tomu, aby boli poskytovatelia, prevádzkovatelia a používatelia systémov umelej inteligencie vystavení vyšším rizikám zodpovednosti za škodu, čo by mohlo brzdiť inováciu a znižovať využívanie produktov a služieb založených na umelej inteligencii.
Druhou fázou uvedenou v návrhu sa zabezpečuje, aby sa pri posudzovaní účinku prvej fázy na ochranu obetí a využívanie umelej inteligencie zohľadnil budúci technologický, regulačný vývoj a vývoj judikatúry, ak sa bude znovu posudzovať potreba harmonizácie ďalších prvkov nárokov na náhradu škody alebo iných nástrojov súvisiacich s nárokmi na náhradu škody, a to aj v situáciách, v ktorých by bola vhodnejšia objektívna zodpovednosť, ako to vyžaduje Európsky parlament. Pri takomto posudzovaní by sa pravdepodobne zvažovalo aj to, či bude na účely zabezpečenia účinnosti potrebné túto harmonizáciu spojiť s povinným poistením.
·Výber nástroja
Smernica je pre tento návrh najvhodnejším nástrojom, pretože sa ňou zabezpečuje želaný harmonizačný účinok a právna istota a zároveň sa poskytuje flexibilita, ktorá členským štátom umožňuje bezproblémové začleňovanie harmonizovaných opatrení do svojich vnútroštátnych systémov zodpovednosti.
Povinným nástrojom by sa zabránilo nedostatkom v ochrane vyplývajúcim z čiastočného vykonávania alebo nevykonávania nástroja. Hoci nezáväzný nástroj by bol menej rušivý, je nepravdepodobné, že by sa ním dokázali účinne riešiť identifikované problémy. Mieru vykonávania nezáväzných nástrojov je zložité predpokladať a neexistujú dostatočné záruky, že odporúčanie by malo presvedčivý účinok a zabezpečilo by sa ním jednotné prispôsobenie vnútroštátnych zákonov.
Ešte nepravdepodobnejšie je to v prípade opatrení týkajúcich sa súkromného práva, ktorého súčasťou je aj mimozmluvná zodpovednosť. V tejto oblasti prevládajú dlhodobé právne tradície, pre ktoré členské štáty len neochotne presadzujú koordinovanú reformu, ak ich k tomu nemotivuje jasná perspektíva prínosov pre vnútorný trh v rámci záväzného nástroja EÚ alebo potreba prispôsobiť sa novým technológiám v digitálnom hospodárstve.
Ďalším dôvodom, pre ktorý by sa odporúčanie pravdepodobne nevykonávalo jednotne, sú aj významné existujúce rozdiely v rámcoch zodpovednosti jednotlivých členských štátov.
1.VÝSLEDKY HODNOTENÍ EX POST, KONZULTÁCIÍ SO ZAINTERESOVANÝMI STRANAMI A POSÚDENÍ VPLYVU
·Konzultácie so zainteresovanými stranami
Realizovala sa rozsiahla konzultačná stratégia s cieľom zabezpečiť širokú účasť zainteresovaných strán počas celého cyklu tvorby politiky tohto návrhu. Konzultačná stratégia vychádzala z verejných a viacerých cielených konzultácií (webinárov, dvojstranných diskusií so spoločnosťami a rôznymi organizáciami).
Po počiatočných otázkach týkajúcich sa zodpovednosti, ktoré boli súčasťou verejnej konzultácie o bielej knihe o umelej inteligencii a správy Komisie o bezpečnosti a zodpovednosti, sa od 18. októbra 2021 do 10. januára 2022 uskutočnila osobitná verejná konzultácia online s cieľom získať názory širokého spektra zainteresovaných strán vrátane spotrebiteľov, organizácií občianskej spoločnosti, priemyselných združení, podnikov vrátane MSP a subjektov verejného sektora. Komisia po analýze všetkých prijatých odpovedí zverejnila na svojom webovom sídle zhrnutie výsledkov a jednotlivé odpovede.
Celkovo bolo doručených 233 odpovedí od respondentov z 21 členských štátov, ako aj z tretích krajín. Väčšina zainteresovaných strán vo všeobecnosti potvrdila problémy s dôkazným bremenom, právnou neistotou a fragmentáciou a podporila opatrenie na úrovni EÚ.
Občania EÚ, spotrebiteľské organizácie a akademické inštitúcie prevažnou väčšinou potvrdili potrebu opatrenia na úrovni EÚ na zmiernenie problémov obetí, pokiaľ ide o dôkazné bremeno. Podniky uznali negatívny vplyv neistoty na uplatňovanie pravidiel zodpovednosti, boli však opatrnejšie a žiadali cielené opatrenia, ktorými by sa zabránilo obmedzeniu inovácie.
Podobne to platilo aj pri možnostiach politiky. Občania EÚ, spotrebiteľské organizácie a akademické inštitúcie do veľkej miery podporili opatrenia týkajúce sa dôkazného bremena a harmonizácie objektívnej zodpovednosti spojenej s povinným poistením. Podniky boli pri možnostiach politiky nejednotnejšie, pričom to čiastočne záviselo od ich veľkosti. Objektívnu zodpovednosť považovala za neprimeranú väčšina respondentov z radov podnikov. Harmonizácia zmiernenia dôkazného bremena si získala väčšiu podporu, a to najmä medzi MSP. Podniky však varovali pred úplným prenesením dôkazného bremena.
Uprednostňovaná možnosť politiky sa preto počas procesu posudzovania vplyvu rozvinula a prepracovala na základe spätnej väzby od zainteresovaných strán, aby sa nastolila správna rovnováha medzi potrebami a obavami vyjadrenými všetkými príslušnými skupinami zainteresovaných strán.
·Získavanie a využívanie expertízy
Návrh vychádza zo štvorročnej analýzy a úzkeho zapojenia zainteresovaných strán vrátane akademických pracovníkov, podnikov, spotrebiteľských organizácií, členských štátov a občanov. Prípravné práce sa začali v roku 2018 zriadením expertnej skupiny pre zodpovednosť a nové technológie (formácie pre nové technológie). Expertná skupina vypracovala v novembri 2019 správu obsahujúcu posúdenie výziev, ktoré niektoré vlastnosti umelej inteligencie predstavujú pre vnútroštátne pravidlá občianskoprávnej zodpovednosti.
Vstupné informácie zo správy expertnej skupiny doplnili tri ďalšie externé štúdie:
–štúdia o porovnávacom práve vychádzajúca z porovnávacej právnej analýzy európskeho práva mimozmluvnej zodpovednosti zameranej na kľúčové problémy s umelou inteligenciou,
–behaviorálna hospodárska štúdia o vplyvoch cielených prispôsobení systému zodpovednosti na rozhodovanie spotrebiteľov, a najmä na ich dôveru a ochotu využívať produkty a služby založené na umelej inteligencii,
–hospodárska štúdia týkajúca sa množstva otázok: výziev, ktorým čelia obete aplikácií umelej inteligencie v porovnaní s obeťami zariadení, v ktorých sa nevyužíva umelá inteligencia, pri získaní náhrady škody za svoje straty; či a do akej miery pociťujú podniky neistotu pri uplatňovaní súčasných pravidiel zodpovednosti pri svojich činnostiach súvisiacich s umelou inteligenciou a či môže vplyv právnej neistoty brzdiť investície do umelej inteligencie; či by sa ďalšou fragmentáciou vnútroštátnych zákonov o zodpovednosti znížila účinnosť vnútorného trhu s aplikáciami a službami umelej inteligencie a či a do akej miery by sa harmonizáciou určitých aspektov vnútroštátnej občianskoprávnej zodpovednosti prostredníctvom právnych predpisov EÚ zmiernili tieto problémy a zlepšilo celkové využívanie technológie umelej inteligencie spoločnosťami z EÚ.
·Posúdenie vplyvu
V súlade so svojou politikou „lepšej právnej regulácie“ Komisia vykonala posúdenie vplyvu tohto návrhu, ktoré preskúmal výbor Komisie pre kontrolu regulácie. Na zasadnutí zo 6. apríla 2022 vydal výbor pre kontrolu regulácie kladné stanovisko s pripomienkami.
Posúdili sa tri možnosti politiky:
Možnosť politiky 1: tri opatrenia na zmiernenie dôkazného bremena obetí, ktoré sa pokúšajú preukázať svoj nárok na náhradu škody.
Možnosť politiky 2: opatrenia v rámci možnosti 1 + harmonizácia pravidiel objektívnej zodpovednosti pre prípady používania umelej inteligencie s osobitným rizikovým profilom v spojení s povinným poistením.
Možnosť politiky 3: fázový prístup pozostávajúci z:
–prvej fázy: opatrenia v rámci možnosti 1,
–druhej fázy: mechanizmus preskúmania na účely opätovného posúdenia, a to najmä potreby harmonizácie objektívnej zodpovednosti pre prípady používania umelej inteligencie s osobitným rizikovým profilom (v možnom spojení s povinným poistením).
Možnosti politiky sa porovnali podľa analýzy založenej na viacerých kritériách, pričom sa zohľadnila ich účinnosť, efektívnosť, koherentnosť a primeranosť. Z výsledkov analýzy založenej na viacerých kritériách a analýzy citlivosti vyplýva, že možnosť politiky 3, ktorou sa zmierňuje dôkazné bremeno v prípade nárokov súvisiacich s umelou inteligenciou a vykonáva cielené preskúmanie objektívnej zodpovednosti v možnom spojení s povinným poistením, dostala najväčšiu podporu, a preto je uprednostňovanou možnosťou politiky pre tento návrh.
Uprednostňovanou možnosťou politiky by sa zabezpečilo, aby obete produktov a služieb založených na umelej inteligencii (fyzické osoby, podniky a akékoľvek iné verejné alebo súkromné subjekty) neboli menej chránené ako obete tradičných technológií. Zvýšila by sa tým dôvera v umelú inteligenciu a podporilo jej využívanie.
Ďalej by sa tým zmiernila právna neistota a zabránilo fragmentácii, čím by sa pomohlo spoločnostiam, a predovšetkým všetkým MSP, ktoré chcú využívať potenciál jednotného trhu EÚ v plnej miere cezhraničným zavádzaním produktov a služieb založených na umelej inteligencii. Uprednostňovanou možnosťou politiky sa takisto vytvárajú lepšie podmienky pre poisťovateľov, ktorí tak môžu ponúkať krytie činností súvisiacich s umelou inteligenciou, čo je mimoriadne dôležité pre podniky, a najmä MSP, na riadenie ich rizík. Konkrétne sa odhaduje, že uprednostňovaná možnosť politiky by priniesla v roku 2025 zvýšenie hodnoty trhu s umelou inteligenciou v krajinách EÚ27 v rozpätí od 500 mil. EUR približne do 1,1 mld. EUR.
·Základné práva
Jednou z najdôležitejších funkcií pravidiel občianskoprávnej zodpovednosti je zabezpečenie toho, aby si mohli obete uplatniť nárok na náhradu škody. Zaisťovaním účinnej náhrady škody tieto pravidlá prispievajú k ochrane práva na účinný prostriedok nápravy a na spravodlivý proces (článok 47 Charty základných práv EÚ, ďalej len „charta“), pričom zároveň motivujú potenciálne zodpovedné osoby, aby predchádzali škodám s cieľom vyhnúť sa zodpovednosti.
Týmto návrhom chce Komisia zabezpečiť, aby mali obete škody spôsobenej umelou inteligenciou rovnakú úroveň ochrany na základe pravidiel občianskoprávnej zodpovednosti ako obete škody spôsobenej bez pričinenia umelej inteligencie. Návrhom sa umožní účinné súkromné presadzovanie základných práv a zachovanie práva na účinný prostriedok nápravy v prípade výskytu rizík súvisiacich s umelou inteligenciou. Konkrétne sa návrhom prispeje k ochrane základných práv, ako sú právo na život (článok 2 charty), právo na fyzickú a duševnú integritu (článok 3) a vlastnícke právo (článok 17). Okrem toho si budú môcť obete v závislosti od systému a tradícií občianskeho práva uplatňovať náhradu škody, ktorá vznikla na iných zákonných záujmoch, ako napríklad v prípade porušenia ľudskej dôstojnosti (články 1 a 4 charty), rešpektovania súkromného a rodinného života (článok 7), práva na rovnosť (článok 20) a nediskrimináciu (článok 21).
Okrem toho tento návrh dopĺňa ďalšie časti politiky Komisie v oblasti umelej inteligencie, ktoré sa týkajú preventívnych požiadaviek na reguláciu a dohľad zameraných priamo na zabránenie porušovaniu základných práv (napríklad diskriminácii). Sú nimi akt o umelej inteligencii, všeobecné nariadenie o ochrane údajov, akt o digitálnych službách a právo EÚ o nediskriminácii a rovnakom zaobchádzaní. Zároveň sa týmto návrhom nevytvárajú ani neharmonizujú povinnosti náležitej starostlivosti alebo zodpovednosti rôznych subjektov, ktorých činnosť je regulovaná uvedenými právnymi aktmi, a preto sa ním ani nevytvárajú nové nároky na náhradu škody, pričom návrh nemá vplyv na výnimky zo zodpovednosti podľa týchto ďalších právnych aktov. V návrhu sa zavádza iba zmiernenie dôkazného bremena pre obete škody spôsobenej systémami umelej inteligencie pri nárokoch, ktoré možno podložiť vnútroštátnym právom alebo uvedenými ďalšími právnymi predpismi EÚ. Tým, že tieto ostatné časti dopĺňa, chráni tento návrh právo obete na náhradu škody podľa súkromného práva, a to aj škody, ktorá vznikla v dôsledku porušenia základných práv.
4.VPLYV NA ROZPOČET
Tento návrh nemá žiadny vplyv na rozpočet Európskej únie.
5.ĎALŠIE PRVKY
·Plány vykonávania a monitorovanie, hodnotenie, program monitorovania a cielené preskúmanie
V tomto návrhu sa presadzuje fázový prístup. V záujme zabezpečenia dostupnosti dostatočných dôkazov na cielené preskúmanie v druhej fáze Komisia vypracuje plán monitorovania, v ktorom sa podrobne uvedie, ako a ako často sa budú získavať údaje a ďalšie potrebné dôkazy.
Mechanizmus monitorovania by sa mal vzťahovať na tieto druhy údajov a dôkazov:
–podávanie správ a výmenu informácií medzi členskými štátmi o uplatňovaní opatrenia na zmiernenie dôkazného bremena pri vnútroštátnych alebo mimosúdnych konaniach o urovnaní,
–informácie získané Komisiou alebo orgánmi dohľadu nad trhom podľa aktu o umelej inteligencii (najmä jeho článku 62) alebo iné relevantné nástroje,
–informácie a analýzy na podporu hodnotenia aktu o umelej inteligencii a správy, ktoré má vypracovať Komisia o vykonávaní uvedeného aktu,
–informácie a analýzy na podporu posúdenia príslušných budúcich opatrení politík podľa právnych predpisov o bezpečnosti, ktoré obsahujú „starý prístup“, aby sa zabezpečil súlad produktov umiestňovaných na trh Únie so zdravotnými, s bezpečnostnými a environmentálnymi požiadavkami,
–informácie a analýzy na podporu správy Komisie o uplatňovaní smernice o poistení motorových vozidiel na technologický vývoj (najmä na autonómne a poloautonómne vozidlá) podľa jej článku 28c ods. 2 písm. a).
·Podrobné vysvetlenie konkrétnych ustanovení návrhu
1. Predmet úpravy a rozsah pôsobnosti (článok 1)
Cieľom tejto smernice je zlepšiť fungovanie vnútorného trhu stanovením jednotných požiadaviek na určité aspekty mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú pričinením systémov umelej inteligencie. Vychádza z uznesenia Európskeho parlamentu 2020/2014(INL) a súkromné právo sa v nej prispôsobuje potrebám prechodu na digitálne hospodárstvo.
Vzhľadom na povahu problematiky dôkazného bremena a osobitné vlastnosti umelej inteligencie, ktoré predstavujú problém pre existujúce pravidlá zodpovednosti, je výber vhodných právnych nástrojov obmedzený. V smernici sa preto veľmi cieleným a primeraným spôsobom zmierňuje dôkazné bremeno prostredníctvom využitia poskytovania dôkazov a vyvrátiteľných domnienok. Osobám, ktoré požadujú náhradu škody, umožňuje získať informácie o vysokorizikových systémoch umelej inteligencie, ktoré sa majú zaznamenávať/dokumentovať podľa aktu o umelej inteligencii. Okrem toho poskytnú vyvrátiteľné domnienky osobám, ktoré požadujú náhradu škody spôsobenej systémami umelej inteligencie, zmiernenie dôkazného bremena a šancu uspieť s opodstatnenými nárokmi na náhradu škody.
Tieto nástroje nie sú nové; možno ich nájsť vo vnútroštátnych legislatívnych systémoch. Preto tieto vnútroštátne nástroje predstavujú užitočné referenčné body na riešenie problémov s umelou inteligenciou v oblasti existujúcich pravidiel zodpovednosti takým spôsobom, ktorý čo najmenej zasahuje do jednotlivých vnútroštátnych právnych systémov.
K rozsiahlejším zmenám, akými sú prenesenie dôkazného bremena alebo nevyvrátiteľná domnienka, sa vyjadrili podniky pri konzultáciách negatívne. Cielené opatrenia na zmiernenie dôkazného bremena vo forme vyvrátiteľných domnienok boli vybraté ako pragmatické a vhodné nástroje na pomoc obetiam pri znášaní dôkazného bremena najcielenejším a najprimeranejším možným spôsobom.
V článku 1 sa uvádza predmet úpravy a rozsah pôsobnosti tejto smernice: mimozmluvné občianskoprávne nároky na náhradu škody spôsobenej systémom umelej inteligencie, ak sa takéto nároky uplatňujú v rámci systémov subjektívnej zodpovednosti. Znamená to konkrétne systémy, v rámci ktorých sa rieši zákonná povinnosť nahradiť škodu spôsobenú zámerne, z nedbanlivosti alebo opomenutia. Opatrenia uvedené v tejto smernici možno bez problémov začleniť do existujúcich systémov občianskoprávnej zodpovednosti, keďže zohľadňujú prístup, ktorým sa nemení vymedzenie základných pojmov ako „pochybenie“ alebo „škoda“ vzhľadom na to, že význam týchto pojmov sa v jednotlivých členských štátoch do veľkej miery líši. Preto táto smernica okrem predpokladov, na ktorých je založená, nemá vplyv na pravidlá Únie ani vnútroštátne pravidlá určujúce napríklad to, ktorá strana nesie dôkazné bremeno, aká miera istoty sa vyžaduje pri štandarde dokazovania alebo ako sa vymedzuje pochybenie.
Okrem toho táto smernica nemá vplyv na existujúce pravidlá, ktorými sa regulujú podmienky zodpovednosti v sektore dopravy a podmienky stanovené v akte o digitálnych službách.
Hoci sa táto smernica neuplatňuje na trestnú zodpovednosť, môže sa uplatňovať v oblasti zodpovednosti štátu. Na štátne orgány sa vzťahujú aj ustanovenia aktu o umelej inteligencii, v ktorých je štát predmetom povinností.
Smernica sa neuplatňuje retroaktívne, ale len na nároky na náhradu škody, ktorá vznikla od dátumu jej transpozície.
Návrh tejto smernice bol prijatý spoločne s návrhom revízie smernice 85/374/EHS o zodpovednosti za výrobky, a to v balíku, ktorého cieľom je prispôsobiť pravidlá zodpovednosti digitálnemu veku a umelej inteligencii, čím sa zabezpečí potrebné zosúladenie medzi týmito dvomi doplnkovými právnymi nástrojmi.
2.Vymedzenie pojmov (článok 2)
Vymedzenie pojmov v článku 2 vychádza z vymedzenia pojmov v akte o umelej inteligencii, čím sa zabezpečuje jednotnosť.
V článku 2 ods. 6 písm. b) sa stanovuje, že nárok na náhradu škody si môže uplatniť nielen poškodená osoba, ale aj akékoľvek osoby, ktorým boli postúpené alebo na ktoré boli subrogované práva poškodenej osoby. Subrogácia je predpoklad tretej strany (napríklad poisťovne) týkajúci sa vymáhateľného práva inej strany na výber dlžnej sumy alebo náhradu škody. Jedna osoba má preto nárok na vymáhanie práv inej osoby vo svoj prospech. Subrogácia by sa vzťahovala aj na dedičov zosnulej obete.
Okrem toho sa v článku 2 ods. 6 písm. c) stanovuje, že žalobu o náhradu škody môže v súlade s právom Únie alebo vnútroštátnym právom podať aj osoba konajúca v mene jednej alebo viacerých poškodených strán. Cieľom tohto ustanovenia je poskytnúť osobám poškodeným systémom umelej inteligencie viac možností na to, aby ich nároky posúdil súd, a to aj v prípadoch, keď sa môže podanie jednotlivých žalôb javiť príliš nákladné alebo príliš ťažkopádne alebo keď môžu spoločné žaloby viesť k zníženiu nákladov. V záujme poskytnutia obetiam škody spôsobenej systémami umelej inteligencie možnosť uplatniť si svoje práva podľa tejto smernice prostredníctvom žalôb v zastúpení sa článkom 6 mení príloha I k smernici (EÚ) 2020/1828.
3.Poskytovanie dôkazov (článok 3)
Cieľom tejto smernice je poskytnúť osobám, ktoré požadujú náhradu škody spôsobenej vysokorizikovými systémami umelej inteligencie, účinné prostriedky na identifikovanie potenciálne zodpovedných osôb a relevantných dôkazov na podloženie nároku. Zároveň slúžia takéto prostriedky na to, aby sa vylúčili nesprávne identifikované potenciálne žalované osoby, čím sa šetrí čas aj náklady zainteresovaných strán a znižuje zaťaženosť súdov.
Vzhľadom na to sa v článku 3 ods. 1 smernice stanovuje, že súd môže nariadiť poskytnutie relevantných dôkazov o konkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu. Žiadosti o predloženie dôkazov sú adresované poskytovateľovi systému umelej inteligencie, osobe, na ktorú sa vzťahujú povinnosti poskytovateľa, stanovenej v článku 24 alebo článku 28 ods. 1 aktu o umelej inteligencii, alebo používateľovi podľa aktu o umelej inteligencii. Žiadosti by mali byť podložené skutočnosťami a dôkazmi dostatočnými na stanovenie dôveryhodnosti zvažovaného nároku na náhradu škody, pričom adresáti by mali mať k dispozícii požadované dôkazy. Žiadosti nemôžu byť adresované stranám, ktoré nemajú žiadne povinnosti podľa aktu o umelej inteligencii, a preto nemajú prístup k dôkazom.
Podľa článku 3 ods. 2 môže navrhovateľ požiadať o poskytnutie dôkazov poskytovateľov alebo používateľov, ktorí nie sú žalovanými, iba vtedy, ak boli všetky primerané pokusy o získanie dôkazov od žalovaného neúspešné.
S cieľom zabezpečiť účinnosť súdnych prostriedkov sa v článku 3 ods. 3 smernice stanovuje, že súd môže nariadiť aj zachovanie takýchto dôkazov.
Ako sa stanovuje v článku 3 ods. 4 prvom pododseku, súd môže nariadiť takéto poskytnutie iba v rozsahu potrebnom na odôvodnenie nároku, keďže dané informácie môžu predstavovať kritické dôkazy pre nárok poškodenej osoby v prípade škody spôsobenej pričinením systémov umelej inteligencie.
Obmedzením tejto povinnosti poskytnutia alebo zachovania iba na nevyhnutné a primerané dôkazy sa v článku 3 ods. 4 prvom pododseku zamýšľa zabezpečiť primeranosť pri poskytovaní dôkazov, t. j. obmedziť poskytovanie na nevyhnutné minimum a zabrániť plošným žiadostiam.
Ďalej je cieľom článku 3 ods. 4 druhého a tretieho pododseku nastoliť rovnováhu medzi právami navrhovateľa a potrebou zabezpečiť, aby sa na poskytované dôkazy vzťahovali záruky ochrany oprávnených záujmov všetkých dotknutých strán, ako napríklad obchodných tajomstiev alebo dôverných informácií.
V tejto súvislosti je cieľom článku 3 ods. 4 štvrtého pododseku zaistiť, aby mala osoba, na ktorú sa vzťahujú, k dispozícii procesnoprávne prostriedky nápravy voči príkazu na poskytnutie alebo zachovanie dôkazov.
V článku 3 ods. 5 sa zavádza domnienka nedodržania povinností náležitej starostlivosti. Ide o procesný nástroj, ktorý je relevantný iba v prípadoch, ak dôsledky nedodržania žiadosti o poskytnutie alebo zachovanie dôkazov znáša skutočný žalovaný v spore o náhradu škody. Žalovaný bude mať právo vyvrátiť túto domnienku. Cieľom opatrenia stanoveného v tomto odseku je podporiť poskytnutie dôkazov, ale aj skrátiť súdne konanie.
4.Domnienka príčinnej súvislosti v prípade pochybenia (článok 4)
V oblasti škody spôsobenej systémami umelej inteligencie sa táto smernica zameriava aj na zabezpečenie účinnej základne na uplatňovanie nárokov na náhradu škody v súvislosti s pochybením spočívajúcim v nedostatočnom dodržaní povinnosti náležitej starostlivosti podľa práva Únie alebo vnútroštátneho práva.
Pre navrhovateľov môže byť náročné stanoviť príčinnú súvislosť medzi takýmto nedodržaním a výstupom systému umelej inteligencie alebo nevytvorením výstupu systému umelej inteligencie, ktorý viedol k vzniku príslušnej škody. Preto sa v článku 4 ods. 1 stanovuje cielená vyvrátiteľná domnienka príčinnej súvislosti týkajúca sa tejto príčinnej súvislosti. Takáto domnienka predstavuje najmenej zaťažujúce opatrenie na riešenie potreby spravodlivého odškodnenia obete.
Pochybenie žalovaného musí navrhovateľ dokázať podľa uplatniteľných pravidiel Únie alebo vnútroštátnych pravidiel. Takéto pochybenie možno stanoviť napríklad na základe nedodržania povinnosti náležitej starostlivosti podľa aktu o umelej inteligencii alebo podľa iných pravidiel stanovených na úrovni Únie, akými sú pravidlá, ktorými sa reguluje používanie automatického monitorovania a rozhodovania v rámci práce pre platformy alebo prevádzka bezpilotných lietadiel. Súd môže takéto pochybenie predpokladať aj na základe nedodržania súdneho príkazu na poskytnutie alebo zachovanie dôkazov podľa článku 3 ods. 5. Napriek tomu je vhodné zaviesť domnienku príčinnej súvislosti len pre prípady, keď sa považuje za pravdepodobné, že dané pochybenie ovplyvnilo výstup príslušného systému umelej inteligencie alebo jeho nevytvorenie, čo možno posúdiť na základe celkových okolností prípadu. Zároveň musí navrhovateľ dokázať, že systém umelej inteligencie (t. j. jeho výstup alebo nevytvorenie výstupu) je zodpovedný za vznik škody.
V odsekoch 2 a 3 sa rozlišuje na jednej strane medzi nárokmi uplatnenými voči poskytovateľovi vysokorizikového systému umelej inteligencie alebo voči osobe, na ktorú sa vzťahujú povinnosti poskytovateľa podľa aktu o umelej inteligencii, a medzi nárokmi uplatnenými voči používateľom takýchto systémov na strane druhej. Vzhľadom na to vychádzajú z príslušných ustanovení a relevantných podmienok aktu o umelej inteligencii. V prípade nárokov uplatnených na základe článku 4 ods. 2 sa musí dodržanie povinností uvedených v danom odseku žalovanými posudzovať aj z hľadiska systému riadenia rizík a jeho výsledkov, t. j. opatrení na riadenie rizík, podľa aktu o umelej inteligencii.
Pokiaľ ide o vysokorizikové systémy umelej inteligencie vymedzené v akte o umelej inteligencii, v článku 4 ods. 4 sa stanovuje výnimka z domnienky príčinnej súvislosti, ak žalovaný preukáže, že navrhovateľ má primeraný prístup k dostatočným dôkazom a odborným znalostiam na dokázanie príčinnej súvislosti. Táto možnosť môže motivovať žalovaných, aby dodržali svoje povinnosti v oblasti poskytnutia dôkazov, opatrenia stanovené v akte o umelej inteligencii na zabezpečenie vysokej úrovne transparentnosti umelej inteligencie alebo požiadavky na dokumentovanie a zaznamenávanie.
Pokiaľ ide o systémy umelej inteligencie bez vysokého rizika, v článku 4 ods. 5 sa stanovuje podmienka uplatniteľnosti domnienky príčinnej súvislosti, podľa ktorej musí súd určiť, že je pre navrhovateľa mimoriadne ťažké dokázať príčinnú súvislosť. Takéto ťažkosti sa majú posúdiť na základe vlastností určitých systémov umelej inteligencie, akými sú autonómia a neprehľadnosť, v dôsledku ktorých je vysvetlenie vnútorného fungovania systému umelej inteligencie v praxi veľmi zložité, čo má negatívny vplyv na schopnosť navrhovateľa dokázať príčinnú súvislosť medzi pochybením žalovaného a výstupom umelej inteligencie.
Pokiaľ ide o prípady, keď žalovaný používa systém umelej inteligencie počas osobnej nepracovnej činnosti, v článku 4 ods. 6 sa stanovuje, že domnienka príčinnej súvislosti by sa mala uplatňovať iba vtedy, ak žalovaný závažne zasiahol do podmienok prevádzky systému umelej inteligencie alebo ak bol žalovaný povinný stanoviť podmienky prevádzky systému umelej inteligencie a bol schopný to urobiť, ale neurobil to. Táto podmienka je opodstatnená potrebou nastoliť rovnováhu medzi záujmami poškodených osôb a neprofesionálnych používateľov prostredníctvom vyňatia prípadov, v ktorých neprofesionálni používatelia svojím správaním nezvyšujú riziko, z uplatňovania domnienky príčinnej súvislosti.
A napokon sa v článku 4 ods. 7 stanovuje, že žalovaný má právo na vyvrátenie domnienky príčinnej súvislosti na základe článku 4 ods. 1.
Takéto účinné pravidlá občianskoprávnej zodpovednosti majú aj ďalšiu výhodu, ktorá spočíva v tom, že všetky strany podieľajúce sa na činnostiach spojených so systémami umelej inteligencie ešte viac motivujú k dodržiavaniu povinností, pokiaľ ide o ich očakávané správanie.
5.Hodnotenie a cielené preskúmanie (článok 5)
V jednotlivých vnútroštátnych právnych systémoch sa stanovujú rozdielne systémy objektívnej zodpovednosti. Prvky pre takýto systém na úrovni Únie navrhol aj Európsky parlament vo svojom uznesení z vlastnej iniciatívy z 20. októbra 2020. Pozostávali z obmedzeného systému objektívnej zodpovednosti pre určité technológie založené na umelej inteligencii a zo zmiernenia dôkazného bremena v rámci pravidiel subjektívnej zodpovednosti. Z verejných konzultácií vyplynulo aj to, že respondenti uprednostňujú takýto systém (okrem podnikov, ktoré nie sú MSP) bez ohľadu na to, či je spojený s povinným poistením.
V návrhu sa však prihliada aj na rozdiely medzi vnútroštátnymi právnymi tradíciami a skutočnosťou, že druh produktov a služieb vybavených systémami umelej inteligencie, ktoré by mohli mať vplyv na všeobecnú verejnosť a ohroziť dôležité vymáhateľné práva, ako sú napríklad právo na život, zdravie a vlastnícke právo, a preto by sa na ne mal vzťahovať systém objektívnej zodpovednosti, zatiaľ ešte nie sú na trhu všeobecne dostupné.
Zavádza sa program monitorovania, ktorý má Komisii zabezpečiť informácie o incidentoch zapríčinených systémami umelej inteligencie. Pri cielenom preskúmaní sa posúdi, či sú potrebné ďalšie opatrenia, ako napríklad zavedenie systému objektívnej zodpovednosti a/alebo povinného poistenia.
6.Transpozícia (článok 7)
Pri informovaní Komisie o vnútroštátnych transpozičných opatreniach zameraných na dodržanie tejto smernice by mali členské štáty predložiť aj vysvetľujúce dokumenty, v ktorých sa poskytnú dostatočne zrozumiteľné a presné informácie a pre každé ustanovenie tejto smernice sa uvedie vnútroštátne ustanovenie, ktorým sa transponuje. Je to potrebné na to, aby mohla Komisia v prípade každého ustanovenia smernice, ktoré si vyžaduje transpozíciu, identifikovať príslušnú časť vnútroštátnych transpozičných opatrení, ktorými sa vytvára zodpovedajúca právna povinnosť vo vnútroštátnom právnom poriadku, a to bez ohľadu na formu, ktorú si členské štáty vybrali.
2022/0303 (COD)
Návrh
SMERNICA EURÓPSKEHO PARLAMENTU A RADY
o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii
(smernica o zodpovednosti za umelú inteligenciu)
(Text s významom pre EHP)
EURÓPSKY PARLAMENT A RADA EURÓPSKEJ ÚNIE,
so zreteľom na Zmluvu o fungovaní Európskej únie, a najmä na jej článok 114,
so zreteľom na návrh Európskej komisie,
po postúpení návrhu legislatívneho aktu národným parlamentom,
so zreteľom na stanovisko Európskeho hospodárskeho a sociálneho výboru,
so zreteľom na stanovisko Výboru regiónov,
konajúc v súlade s riadnym legislatívnym postupom,
keďže:
(1)Umelá inteligencia je súbor podporných technológií, ktoré môžu prispievať k dosahovaniu najrôznejších prínosov v celom spektre hospodárstva a spoločnosti. Má veľký potenciál v oblasti technologického pokroku a umožňuje vznik nových obchodných modelov v mnohých sektoroch digitálneho hospodárstva.
(2)Umelá inteligencia môže zároveň v závislosti od okolností týkajúcich sa jej konkrétneho uplatňovania a používania vytvárať riziká a poškodzovať záujmy a práva, ktoré sú chránené právom Únie alebo vnútroštátnym právom. Používanie umelej inteligencie môže mať napríklad nepriaznivý vplyv na množstvo základných práv vrátane práva na život a fyzickú integritu, ako aj na dodržiavanie nediskriminácie a rovnakého zaobchádzania. V nariadení Európskeho parlamentu a Rady (EÚ) …/… [akt o umelej inteligencii] sa stanovujú požiadavky zamerané na zníženie rizík pre bezpečnosť a základné práva, pričom v ďalších právnych nástrojoch Únie sa regulujú všeobecné a sektorové pravidlá týkajúce sa bezpečnosti výrobkov, ktoré sú uplatniteľné aj na strojnícke výrobky a rádiové zariadenia založené na umelej inteligencii. Hoci sa týmito požiadavkami zameranými na zníženie rizík pre bezpečnosť a základné práva zamýšľa predchádzať rizikám, ako aj monitorovať a riešiť ich, a tým zmierňovať obavy spoločnosti, neposkytujú individuálnu úľavu tým, ktorí utrpeli škodu spôsobenú umelou inteligenciou. Existujúce požiadavky sa týkajú najmä povolení, kontrol, monitorovania a správnych sankcií v súvislosti so systémami umelej inteligencie, ktorých cieľom je predchádzať škodám. Netýkajú sa náhrady poškodenej osobe za škodu spôsobenú výstupom alebo nevytvorením výstupu systémom umelej inteligencie.
(3)Keď poškodená osoba požaduje náhradu vzniknutej škody, podľa všeobecných pravidiel členských štátov v oblasti subjektívnej zodpovednosti sa vyžaduje, aby dokázala zanedbanie, zámerné poškodzujúce konanie alebo opomenutie („pochybenie“) osoby potenciálne zodpovednej za danú škodu, ako aj príčinnú súvislosť medzi daným pochybením a príslušnou škodou. Ak je však medzi konaním alebo opomenutím osoby a škodou medzičlánkom umelá inteligencia, osobitné vlastnosti systémov umelej inteligencie, akými sú neprehľadnosť, autonómne správanie a zložitosť, môžu nesmierne sťažovať, ak nie znemožňovať, poškodenej osobe splnenie požiadavky na dôkazné bremeno. Konkrétne môže byť mimoriadne náročné dokázať, že konkrétny vstup, za ktorý zodpovedá potenciálne zodpovedná osoba, spôsobil konkrétny výstup systému umelej inteligencie, ktorý viedol k vzniku predmetnej škody.
(4)V takýchto prípadoch môže byť úroveň nápravy umožnená vo vnútroštátnych pravidlách občianskoprávnej zodpovednosti nižšia ako v prípadoch, keď škodu zapríčinili iné technológie ako umelá inteligencia. Táto nedostatočná náhrada škody môže prispievať k nižšej miere spoločenskej akceptácie umelej inteligencie a nižšej dôvere v produkty a služby založené na umelej inteligencii.
(5)V záujme využitia hospodárskych a spoločenských prínosov umelej inteligencie a podpory prechodu na digitálne hospodárstvo je potrebné cielene prispôsobiť určité vnútroštátne pravidlá občianskoprávnej zodpovednosti uvedeným osobitným vlastnostiam určitých systémov umelej inteligencie. Týmito prispôsobeniami by sa malo prispieť k dôvere spoločnosti a spotrebiteľov, a tým aj k podpore zavádzania umelej inteligencie. Týmito prispôsobeniami by sa mala aj zachovávať dôvera v justičný systém, pretože sa nimi obetiam zabezpečuje rovnaká účinná náhrada škody spôsobenej umelou inteligenciou ako v prípade škody spôsobenej inými technológiami.
(6)Zainteresované strany (poškodené osoby, ktorým vznikla škoda, potenciálne zodpovedné osoby, poisťovne) musia znášať právnu neistotu, pretože nevedia, ako vnútroštátne súdy v jednotlivých prípadoch uplatnia existujúce pravidlá zodpovednosti vzhľadom na osobitné výzvy umelej inteligencie, aby dosiahli spravodlivý výsledok. Ak sa neprijmú opatrenia na úrovni Únie, prinajmenšom niektoré členské štáty pravdepodobne prispôsobia svoje pravidlá občianskoprávnej zodpovednosti, aby vyriešili nedostatočnú náhradu škody a právnu neistotu spojenú s osobitnými vlastnosťami určitých systémov umelej inteligencie. Tým by sa vytvorila právna fragmentácia a prekážky vnútorného trhu pre podniky, ktoré vyvíjajú alebo poskytujú inovačné produkty a služby založené na umelej inteligencii. Najviac by to postihlo malé a stredné podniky.
(7)Cieľom tejto smernice je prispieť k riadnemu fungovaniu vnútorného trhu tým, že sa ňou harmonizujú určité vnútroštátne pravidlá nezmluvnej subjektívnej zodpovednosti s cieľom zabezpečiť, aby osoby, ktoré si uplatňujú nárok na náhradu škody spôsobenej systémom umelej inteligencie, mohli využívať rovnakú úroveň ochrany ako osoby, ktoré si uplatňujú nárok na náhradu škody spôsobenej bez pričinenia systému umelej inteligencie. Tento cieľ nie je možné uspokojivo dosiahnuť na úrovni členských štátov, pretože príslušné prekážky vnútorného trhu sú spojené s rizikom jednostranných a fragmentovaných regulačných opatrení na vnútroštátnej úrovni. Vzhľadom na povahu produktov a služieb, ktoré patria do rozsahu pôsobnosti tejto smernice, je to osobitne významné v cezhraničných situáciách.
(8)Cieľ zabezpečenia právnej istoty a zabránenia nedostatočnej náhrade škody v prípadoch, ktoré súvisia so systémami umelej inteligencie, teda možno lepšie dosiahnuť na úrovni Únie. Únia preto môže prijať opatrenia v súlade so zásadou subsidiarity podľa článku 5 ZEÚ. V súlade so zásadou proporcionality podľa uvedeného článku táto smernica neprekračuje rámec nevyhnutný na dosiahnutie tohto cieľa.
(9)Preto je potrebné cielene harmonizovať osobitné aspekty pravidiel subjektívnej zodpovednosti na úrovni Únie. Takouto harmonizáciou by sa mala zvýšiť právna istota a vytvoriť rovnaké podmienky pre systémy umelej inteligencie, a tým aj zlepšiť fungovanie vnútorného trhu, pokiaľ ide o vytváranie a šírenie produktov a služieb založených na umelej inteligencii.
(10)V záujme zabezpečenia proporcionality je vhodné cielene harmonizovať iba tie pravidlá subjektívnej zodpovednosti, ktorými sa riadia požiadavky na dôkazné bremeno osôb, ktoré si uplatňujú nárok na náhradu škody spôsobenej systémami umelej inteligencie. Touto smernicou by sa nemali harmonizovať všeobecné aspekty občianskoprávnej zodpovednosti, ktoré sa regulujú odlišne vo vnútroštátnych pravidlách občianskoprávnej zodpovednosti, akými sú vymedzenie pochybenia alebo príčinnej súvislosti, rozličné druhy škody, za ktorú si možno uplatňovať náhradu, rozdelenie zodpovednosti medzi viacerých páchateľov, napomáhanie, výpočet škôd alebo premlčacie lehoty.
(11)Právne predpisy členských štátov týkajúce sa zodpovednosti výrobcov za škodu spôsobenú v dôsledku chyby ich produktov sa už harmonizujú na úrovni Únie v smernici Rady 85/374/EHS. Uvedené právne predpisy však nemajú vplyv na pravidlá členských štátov v oblasti zmluvnej alebo mimozmluvnej zodpovednosti, ako je napríklad záruka, pochybenie alebo objektívna zodpovednosť, pokiaľ ide o iné príčiny ako chybu výrobku. Keďže aj revízia smernice Rady 85/374/EHS má za cieľ objasnenie a zabezpečenie toho, aby si poškodená osoba mohla uplatniť nárok na náhradu škody spôsobenej chybnými produktmi založenými na umelej inteligencii, malo by sa objasniť, že ustanovenia tejto smernice nemajú vplyv na žiadne práva poškodenej osoby podľa vnútroštátnych pravidiel, ktorými sa vykonáva smernica 85/374/EHS. Okrem toho v oblasti dopravy by touto smernicou nemalo byť dotknuté právo Únie upravujúce zodpovednosť prevádzkovateľov dopravy.
(12)V [ akte o digitálnych službách] sa plne harmonizujú pravidlá uplatniteľné na poskytovateľov sprostredkovateľských služieb na vnútornom trhu, ktoré sa týkajú spoločenských rizík vyplývajúcich zo služieb ponúkaných uvedenými poskytovateľmi, a to aj pokiaľ ide o systémy umelej inteligencie, ktoré používajú. Táto smernica nemá vplyv na ustanovenia [aktu o digitálnych službách], ktorými sa zabezpečuje komplexný a plne harmonizovaný rámec povinností náležitej starostlivosti pri algoritmickom rozhodovaní poskytovateľov hostingových služieb, ako aj výnimka zo zodpovednosti za šírenie nelegálneho obsahu nahrávaného prijímateľmi ich služieb, ak sú splnené podmienky uvedeného nariadenia.
(13)Okrem domnienok v nej stanovených sa touto smernicou neharmonizujú vnútroštátne právne predpisy týkajúce sa toho, ktorá strana nesie dôkazné bremeno, alebo toho, aká miera istoty sa vyžaduje pri štandarde dokazovania.
(14)V tejto smernici by sa mal sledovať prístup minimálnej harmonizácie. Takýto prístup umožňuje navrhovateľom v prípadoch škody spôsobenej systémami umelej inteligencie využiť priaznivejšie pravidlá vnútroštátneho práva. Vo vnútroštátnych právnych predpisoch by tak bolo možné zachovať napríklad prenesenie dôkazného bremena v rámci vnútroštátnych systémov subjektívnej zodpovednosti alebo vnútroštátnych systémov objektívnej zodpovednosti, ktorých už je vo vnútroštátnych právnych predpisoch veľké množstvo, a možno ich uplatniť na škodu spôsobenú systémami umelej inteligencie.
(15)Zabezpečiť by sa mala aj jednotnosť s [aktom o umelej inteligencii]. Preto je vhodné, aby sa v tejto smernici používalo rovnaké vymedzenie pojmov týkajúcich sa systémov umelej inteligencie, ako aj ich poskytovateľov a používateľov. Okrem toho by sa táto smernica mala týkať iba náhrady škody, ktorá bola spôsobená výstupom alebo nevytvorením výstupu systémom umelej inteligencie v dôsledku pochybenia osoby, napríklad poskytovateľa alebo používateľa podľa [aktu o umelej inteligencii]. Nie je potrebné, aby sa týkala nárokov na náhradu škody spôsobenej ľudským posúdením, na základe ktorého dôjde ku konaniu alebo opomenutiu človeka, zatiaľ čo systém umelej inteligencie poskytol len informácie alebo rady, na ktoré prihliadol príslušný ľudský činiteľ. V druhom prípade možno spojiť škodu s ľudským konaním alebo opomenutím, keďže výstup systému umelej inteligencie nie je medzičlánkom medzi ľudským konaním alebo opomenutím a škodou, a preto nie je stanovenie príčinnej súvislosti zložitejšie ako v situáciách, v ktorých systém umelej inteligencie nezohráva žiadnu úlohu.
(16)Prístup k informáciám o konkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu, predstavuje významný faktor na posúdenie toho, či je možné nárokovať si náhradu škody a podložiť nároky na náhradu škody. Okrem toho sa pre vysokorizikové systémy umelej inteligencie v [akte o umelej inteligencii] stanovujú konkrétne požiadavky na dokumentáciu, informovanie a logovanie, nie však právo poškodenej osoby na prístup k takýmto informáciám. Preto je vhodné stanoviť pravidlá poskytovania relevantných dôkazov osobami, ktoré ich majú k dispozícii, na účely určenia zodpovednosti. Tým by sa mala takisto zabezpečiť ďalšia motivácia na dodržiavanie príslušných požiadaviek stanovených v [akte o umelej inteligencii] týkajúcich sa dokumentovania alebo zaznamenávania relevantných informácií.
(17)Veľké množstvo ľudí, ktorí sa zvyčajne podieľajú na koncipovaní, vývoji, zavádzaní a prevádzke vysokorizikových systémov umelej inteligencie, sťažuje poškodeným osobám identifikáciu osoby potenciálne zodpovednej za spôsobenú škodu a dokázanie podmienok na uplatnenie nároku na náhradu škody. V záujme toho, aby sa poškodeným osobám umožnilo zistiť, či je nárok na náhradu škody dostatočne podložený, je vhodné priznať potenciálnym navrhovateľom právo požiadať súd o poskytnutie relevantných dôkazov pred uplatnením nároku na náhradu škody. Takéto poskytnutie dôkazov by sa malo nariadiť len vtedy, ak potenciálny navrhovateľ predloží skutočnosti a informácie dostatočné na podporenie dôveryhodnosti nároku na náhradu škody a po tom, ako požiadal poskytovateľa, osobu, na ktorú sa vzťahujú povinnosti poskytovateľa, alebo používateľa o poskytnutie dôkazov, ktoré majú k dispozícii o konkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu, a jeho požiadavka bola zamietnutá. Nariadenie poskytnutia dôkazov by malo viesť k zníženiu počtu nepotrebných súdnych sporov a nákladov možných účastníkov na žaloby, ktoré sú neopodstatnené alebo budú pravdepodobne neúspešné. Odmietnutie poskytovateľa, osoby, na ktorú sa vzťahujú povinnosti poskytovateľa, alebo používateľa pred žiadosťou o poskytnutie dôkazov podanou na súd by sa nemalo automaticky považovať za domnienku nedodržania relevantných povinností náležitej starostlivosti zo strany osoby, ktorá odmietne dôkazy poskytnúť.
(18)Obmedzenie poskytovania dôkazov o vysokorizikových systémoch umelej inteligencie je v súlade s [aktom o umelej inteligencii], v ktorom sa prevádzkovateľom zapojeným do koncipovania, vývoja a zavádzania vysokorizikových systémov umelej inteligencie ukladajú určité konkrétne povinnosti v oblasti dokumentovania, vedenia záznamov a informovania. Týmto súladom sa zabezpečuje aj potrebná proporcionalita, pretože sa zabráni tomu, aby prevádzkovatelia systémov umelej inteligencie, ktorí predstavujú nižšie riziko alebo nepredstavujú žiadne riziko, museli dokumentovať informácie na podobnej úrovni, aká sa vyžaduje v prípade vysokorizikových systémov umelej inteligencie podľa [aktu o umelej inteligencii].
(19)Vnútroštátne súdy by mali mať možnosť v priebehu občianskych súdnych konaní nariadiť osobám, ktoré už majú podľa [aktu o umelej inteligencii] povinnosť dokumentovať alebo zaznamenávať informácie, či už ide o poskytovateľov, osoby s rovnakými povinnosťami ako poskytovatelia alebo používateľov systému umelej inteligencie, bez ohľadu na to, či ide o žalovaných alebo tretie strany nároku, poskytnutie alebo zachovanie relevantných dôkazov v súvislosti so škodou spôsobenou vysokorizikovými systémami umelej inteligencie. Mohli by nastať situácie, v ktorých majú dôkazy relevantné pre prípad k dispozícii subjekty, ktoré nie sú stranami konania o náhradu škody, ale majú povinnosť dokumentovať alebo zaznamenávať takéto dôkazy podľa [aktu o umelej inteligencii]. Preto je potrebné stanoviť podmienky, za ktorých môže byť takýmto tretím stranám nároku nariadené poskytnúť relevantné dôkazy.
(20)V záujme zachovania rovnováhy medzi záujmami strán zapojených do konania o náhradu škody a dotknutých tretích strán by mali súdy nariadiť poskytnutie dôkazov len vtedy, ak je to potrebné a primerané na podloženie nároku alebo potenciálneho nároku na náhradu škody. Vzhľadom na to by sa mali poskytnúť len tie dôkazy, ktoré sú nevyhnutné na prijatie rozhodnutia o príslušnom nároku na náhradu škody, napríklad iba časti relevantných záznamov alebo súborov údajov potrebné na dokázanie nedodržania požiadavky stanovenej v [akte o umelej inteligencii]. V záujme zabezpečenia primeranosti takýchto opatrení na poskytnutie alebo zachovanie dôkazov by mali mať vnútroštátne súdy účinné prostriedky na zaistenie oprávnených záujmov všetkých zainteresovaných strán, napríklad na ochranu obchodných tajomstiev v zmysle smernice Európskeho parlamentu a Rady (EÚ) 2016/943 a dôverných informácií, ako sú informácie súvisiace s verejnou alebo národnou bezpečnosťou. V prípade obchodných tajomstiev alebo údajných obchodných tajomstiev, ktoré súd posúdil ako dôverné v zmysle smernice (EÚ) 2016/943, by mali byť vnútroštátne súdy splnomocnené prijímať osobitné opatrenia na zabezpečenie dôvernosti obchodných tajomstiev počas konaní aj po nich, pričom by mali zároveň dosiahnuť spravodlivú a primeranú rovnováhu medzi záujmom vlastníka obchodného tajomstva o zachovanie tajomstva a záujmom poškodenej osoby. Malo by to zahŕňať opatrenia na obmedzenie prístupu k dokumentom obsahujúcim obchodné tajomstvá a prístupu k vypočutiam alebo dokumentom a ich prepisom na obmedzený počet ľudí. Vnútroštátne súdy by mali pri rozhodovaní o takýchto opatreniach zohľadniť potrebu zaistenia práva na účinný prostriedok nápravy a na spravodlivý proces, oprávnené záujmy strán a prípadne tretích strán, ako aj možnú ujmu spôsobenú ktorejkoľvek zo strán, prípadne ktorejkoľvek z tretích strán, v dôsledku schválenia alebo zamietnutia takýchto opatrení. Okrem toho s cieľom zabezpečiť primerané uplatňovanie opatrenia o poskytnutí dôkazov na tretie strany v konaní o náhradu škody by mali vnútroštátne súdy nariadiť tretím stranám poskytnutie dôkazov len vtedy, ak dôkazy nemožno získať od žalovaného.
(21)Hoci vnútroštátne súdy majú prostriedky na presadenie svojich príkazov na poskytnutie dôkazov prostredníctvom rôznych opatrení, každé takéto opatrenie presadzovania práva môže oneskoriť nároky na náhradu škody, a tým účastníkom predražovať konanie. Postihnutým osobám môžu takéto oneskorenia a dodatočné výdavky sťažovať využitie účinného súdneho prostriedku nápravy. Preto, ak žalovaný v konaní o náhradu škody odmietne na príkaz súdu poskytnúť dôkazy, ktoré má k dispozícii, je vhodné stanoviť domnienku nedodržania povinností náležitej starostlivosti, ktoré sa malo danými dôkazmi preukázať. Vďaka tejto vyvrátiteľnej domnienke sa skráti trvanie súdneho procesu a zabezpečí efektívnejšie súdne konanie. Žalovaný by mal mať možnosť vyvrátiť túto domnienku predložením dôkazov o opaku.
(22)V záujme riešenia ťažkostí pri dokazovaní, že konkrétny vstup, za ktorý zodpovedá potenciálne zodpovedná osoba, spôsobil konkrétny výstup systému umelej inteligencie, ktorý viedol k vzniku predmetnej škody, je vhodné za určitých podmienok stanoviť domnienku príčinnej súvislosti. Hoci v konaní o náhradu škody na základe subjektívnej zodpovednosti navrhovateľ zvyčajne musí dokázať škodu, ľudské konanie alebo opomenutie predstavujúce pochybenie žalovaného a príčinnú súvislosť medzi nimi, touto smernicou sa neharmonizujú podmienky, za ktorých vnútroštátny súd stanovuje pochybenie. Tie sa naďalej riadia rozhodným vnútroštátnym právom, prípadne harmonizovaným rozhodným právom Únie. Podobne sa touto smernicou neharmonizujú podmienky súvisiace so škodou, napríklad, aké škody sa nahrádzajú, keďže tieto sa takisto regulujú rozhodným vnútroštátnym právom a rozhodným právom Únie. Na uplatnenie domnienky príčinnej súvislosti podľa tejto smernice je potrebné stanoviť pochybenie žalovaného v podobe ľudského konania alebo opomenutia, ktorým sa nesplnila povinnosť náležitej starostlivosti podľa práva Únie alebo vnútroštátneho práva priamo zameraná na ochranu pred škodou, ktorá vznikla. Táto domnienka sa preto môže uplatňovať napríklad v konaní o náhradu škody za fyzické zranenie, keď súd skonštatuje pochybenie žalovaného za nedodržanie návodu na používanie, ktorého cieľom je zabrániť tomu, aby fyzickým osobám vznikla ujma. Nedodržanie povinností náležitej starostlivosti, ktoré neboli priamo určené na ochranu pred vzniknutou škodou, nevedie k uplatneniu tejto domnienky, napríklad ak poskytovateľ nepredloží požadovanú dokumentáciu príslušným orgánom, neviedlo by to k uplatneniu domnienky v konaniach o náhradu škody spôsobenej fyzickým zranením. Takisto by malo byť potrebné stanoviť, že na základe okolností prípadu možno považovať za dostatočne pravdepodobné, že pochybenie ovplyvnilo výstup systému umelej inteligencie alebo viedlo k nevytvoreniu výstupu systému umelej inteligencie. A napokon by sa malo od navrhovateľa stále požadovať, aby dokázal, že škoda vznikla v dôsledku výstupu alebo nevytvorenia výstupu.
(23)Takéto pochybenie možno stanoviť na základe nedodržania pravidiel Únie, ktorými sa osobitne regulujú vysokorizikové systémy umelej inteligencie, ako sú požiadavky zavedené pre určité vysokorizikové systémy umelej inteligencie v [akte o umelej inteligencii], požiadavky, ktoré môžu byť zavedené v budúcich sektorových právnych predpisoch týkajúcich sa iných vysokorizikových systémov umelej inteligencie podľa [článku 2 ods. 2 aktu o umelej inteligencii], alebo povinnosti náležitej starostlivosti, ktoré súvisia s určitými činnosťami a ktoré sú uplatniteľné bez ohľadu na to, či sa pri takejto činnosti využíva umelá inteligencia. Zároveň sa touto smernicou nevytvárajú ani neharmonizujú požiadavky ani zodpovednosť v prípade subjektov, ktorých činnosť je regulovaná v uvedených právnych aktoch, čiže sa nevytvárajú nové nároky na náhradu škody. Stanovenie porušenia požiadavky, ktoré vedie k pochybeniu, sa vykoná podľa ustanovení uvedených uplatniteľných pravidiel práva Únie, keďže v tejto smernici sa nezavádzajú nové požiadavky ani nemá vplyv na existujúce požiadavky. Táto smernica napríklad nemá vplyv na výnimku týkajúcu sa zodpovednosti poskytovateľov sprostredkovateľských služieb a povinností náležitej starostlivosti, ktoré sa na nich vzťahujú podľa [aktu o digitálnych službách]. Podobne sa aj dodržanie požiadaviek uložených online platformám v oblasti bránenia nepovolenému verejnému prenosu diel chránených autorským právom stanovuje na základe smernice (EÚ) 2019/790 o autorskom práve a právach súvisiacich s autorským právom na digitálnom jednotnom trhu a iných relevantných právnych predpisov Únie o autorskom práve.
(24)V oblastiach, ktoré nie sú harmonizované právom Únie, sa naďalej uplatňuje vnútroštátne právo a pochybenie sa stanovuje podľa rozhodného vnútroštátneho práva. Všetky vnútroštátne systémy zodpovednosti zahŕňajú povinnosti náležitej starostlivosti s úrovňou správania rozumného človeka, ktorými sa zaisťuje aj bezpečná prevádzka systémov umelej inteligencie v záujme predchádzania škodám uznaných zákonných záujmov. V rámci takýchto povinností náležitej starostlivosti by sa od používateľov systémov umelej inteligencie mohlo napríklad vyžadovať, aby si pre určité úlohy vybrali konkrétny systém umelej inteligencie s konkrétnymi vlastnosťami alebo vylúčili určité segmenty obyvateľstva z možnosti interakcie s konkrétnym systémom umelej inteligencie. Vo vnútroštátnom práve môžu byť takisto zavedené konkrétne povinnosti zamerané na predchádzanie rizikám v prípade určitých činností, ktoré sú uplatniteľné bez ohľadu na to, či sa na túto činnosť používa umelá inteligencia, ako napríklad dopravné predpisy alebo povinnosti konkrétne navrhnuté pre systémy umelej inteligencie alebo dodatočné vnútroštátne požiadavky na používateľov vysokorizikových systémov umelej inteligencie podľa článku 29 ods. 2 [aktu o umelej inteligencii]. V tejto smernici sa nezavádzajú nové požiadavky ani nemá vplyv na podmienky stanovenia pochybenia v prípade porušenia takýchto požiadaviek.
(25)Aj keď sa stanoví pochybenie spočívajúce v nedodržaní povinnosti náležitej starostlivosti, ktorá je priamo určená na ochranu pred vzniknutou škodou, každé pochybenie by nemalo viesť k uplatneniu vyvrátiteľnej domnienky spojenej s výstupom umelej inteligencie. Takáto domnienka by sa mala uplatniť len vtedy, ak na základe okolností, za ktorých škoda vznikla, možno považovať za dostatočne pravdepodobné, že takéto pochybenie ovplyvnilo výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie, čo malo za následok vznik škody. Za primerane pravdepodobné možno napríklad považovať, ak pochybenie ovplyvnilo výstup alebo nevytvorenie výstupu, pričom toto pochybenie pozostáva z porušenia povinnosti náležitej starostlivosti týkajúcej sa obmedzenia perimetra prevádzky systému umelej inteligencie, pričom škoda vznikla mimo perimetra prevádzky. Na druhej strane porušenie požiadavky na predloženie určitých dokumentov alebo zaregistrovanie v danom orgáne, hoci sa môže predpokladať v rámci konkrétnej činnosti alebo aj výslovne uplatňovať na prevádzku systému umelej inteligencie, nemožno považovať za také, ktoré s dostatočnou pravdepodobnosťou ovplyvnilo výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie.
(26)Táto smernica sa týka pochybenia, ktoré spočíva v nedodržaní určitých uvedených požiadaviek stanovených v kapitolách 2 a 3 [aktu o umelej inteligencii] poskytovateľom a používateľom vysokorizikových systémov umelej inteligencie, ktoré môže za určitých okolností viesť k domnienke príčinnej súvislosti. V akte o umelej inteligencii sa stanovuje úplná harmonizácia požiadaviek na systémy umelej inteligencie, ak sa v ňom výslovne nestanovuje inak. Harmonizujú sa ním osobitné požiadavky na vysokorizikové systémy umelej inteligencie. Na účely nárokov na náhradu škody, v prípade ktorých sa podľa tejto smernice uplatňuje domnienka príčinnej súvislosti, sa preto potenciálne pochybenie poskytovateľov alebo osôb, na ktoré sa vzťahujú povinnosti poskytovateľa podľa [aktu o umelej inteligencii], stanovuje iba na základe nedodržania takýchto požiadaviek. Vzhľadom na to môže byť v praxi pre navrhovateľa zložité preukázať takéto nedodržanie, ak je žalovaný poskytovateľom systému umelej inteligencie, a plne v súlade s logikou [aktu o umelej inteligencii] by sa mali v tejto smernici stanovovať aj kroky vykonávané poskytovateľom v rámci systému riadenia rizika a výsledky systému riadenia rizika, t. j. rozhodnutie prijať alebo neprijať určité opatrenia na riadenie rizika by sa malo zohľadniť pri určovaní toho, či poskytovateľ splnil príslušné požiadavky podľa aktu o umelej inteligencii uvedené v tejto smernici. Systém riadenia rizika zavedený poskytovateľom podľa [aktu o umelej inteligencii] predstavuje nepretržitý opakovaný proces počas celého životného cyklu vysokorizikového systému umelej inteligencie, pri ktorom poskytovateľ zabezpečuje súlad s povinnými požiadavkami na zmiernenie rizík, a preto môže tvoriť užitočný prvok na účely posúdenia tohto súladu. Táto smernica sa týka aj prípadov pochybenia používateľov, ak takéto pochybenie spočíva v nedodržaní určitých konkrétnych požiadaviek stanovených v [akte o umelej inteligencii]. Okrem toho možno pochybenie používateľov vysokorizikových systémov umelej inteligencie stanoviť podľa článku 29 ods. 2 [aktu o umelej inteligencii] na základe nedodržania iných povinností náležitej starostlivosti stanovených v práve Únie alebo vo vnútroštátnom práve.
(27)Hoci by osobitné vlastnosti určitých systémov umelej inteligencie, akými sú autonómia a neprehľadnosť, mohli navrhovateľovi mimoriadne sťažovať splnenie požiadavky na dôkazné bremeno, mohli by nastať situácie, v ktorých takéto ťažkosti neexistujú, pretože navrhovateľ by mohol mať k dispozícii dostatočné dôkazy a odborné znalosti na dokázanie príčinnej súvislosti. V súvislosti s vysokorizikovými systémami umelej inteligencie by tento prípad mohol nastať, keď by navrhovateľ mohol získať primeraný prístup k dostatočným dôkazom a odborným znalostiam na základe požiadaviek na dokumentáciu a logovanie podľa [aktu o umelej inteligencii]. V takých situáciách by súd nemal domnienku uplatniť.
(28)Domnienka príčinnej súvislosti by sa mohla uplatniť aj na systémy umelej inteligencie, ktoré nie sú vysokorizikovými systémami umelej inteligencie, pretože navrhovateľ by mohol mať mimoriadne ťažkosti pri dokazovaní. Takéto ťažkosti by sa mohli posúdiť napríklad na základe vlastností určitých systémov umelej inteligencie, akými sú autonómia a neprehľadnosť, v dôsledku ktorých je vysvetlenie vnútorného fungovania systému umelej inteligencie v praxi veľmi zložité, čo má negatívny vplyv na schopnosť navrhovateľa dokázať príčinnú súvislosť medzi pochybením žalovaného a výstupom umelej inteligencie. Vnútroštátny súd by mal domnienku uplatniť, ak je pre navrhovateľa mimoriadne ťažké dokázať príčinnú súvislosť, keďže sa vyžaduje vysvetlenie toho, ako bol systém umelej inteligencie riadený ľudským konaním alebo opomenutím, ktoré viedlo k pochybeniu pri výstupe alebo k nevytvoreniu výstupu, v dôsledku čoho vznikla škoda. Od navrhovateľa by sa však nemalo vyžadovať vysvetlenie vlastností dotknutého systému umelej inteligencie ani toho, ako tieto vlastnosti sťažujú stanovenie príčinnej súvislosti.
(29)Uplatnením domnienky príčinnej súvislosti sa má poškodenej osobe zabezpečiť podobná úroveň ochrany ako v situáciách, v ktorých systém umelej inteligencie nezohráva žiadnu úlohu, takže príčinnú súvislosť je ľahšie dokázať. Zmiernenie bremena dokazovania príčinnej súvislosti však nie je vždy podľa tejto smernice vhodné, ak žalovaný nie je profesionálnym používateľom, ale osobou používajúcou systém umelej inteligencie na súkromné činnosti. Za takých okolností je potrebné s cieľom vyvážiť záujmy poškodenej osoby a neprofesionálneho používateľa zohľadniť, či takíto neprofesionálni používatelia môžu svojím správaním zvyšovať riziko, že systém umelej inteligencie spôsobí škodu. Ak si poskytovateľ systému umelej inteligencie splnil všetky povinnosti, a preto sa systém považoval za dostatočne bezpečný na uvedenie na trh na dané používanie neprofesionálnymi používateľmi a následne sa na danú úlohu aj používa, domnienka príčinnej súvislosti by sa nemala uplatniť na jednoduché začatie prevádzky takéhoto systému zo strany neprofesionálnych používateľov. Na neprofesionálneho používateľa, ktorý zakúpi systém umelej inteligencie a jednoducho ho začne prevádzkovať na daný účel bez toho, aby závažne zasiahol do podmienok prevádzky, by sa nemala vzťahovať domnienka príčinnej súvislosti stanovená v tejto smernici. Ak však vnútroštátny súd rozhodne, že neprofesionálny používateľ zásadne zasiahol do podmienok prevádzky systému umelej inteligencie alebo sa od neho vyžadovalo určenie podmienok prevádzky systému umelej inteligencie, pričom bol schopný to urobiť, ale neurobil to, domnienka príčinnej súvislosti by sa mala uplatniť, ak sú splnené všetky ostatné podmienky. Mohlo by to platiť napríklad v prípade, keď neprofesionálny používateľ nedodrží návod na používanie alebo iné platné povinnosti náležitej starostlivosti pri výbere oblasti prevádzky alebo nastavovaní podmienok výkonu systému umelej inteligencie. Tým nie je dotknutá skutočnosť, že poskytovateľ by mal stanoviť zamýšľaný účel systému umelej inteligencie vrátane jeho osobitných súvislostí a podmienok používania a odstrániť alebo minimalizovať riziká daného systému v miere, ktorá je možná v čase jeho koncipovania a vývoja, pričom by mal zohľadniť vedomosti a odborné znalosti zamýšľaného používateľa.
(30)Keďže v tejto smernici sa zavádza vyvrátiteľná domnienka, žalovaný by mal byť schopný ju vyvrátiť, a to konkrétne preukázaním toho, že jeho pochybenie nemohlo spôsobiť škodu.
(31)Je potrebné uskutočniť preskúmanie tejto smernice [päť rokov] od skončenia obdobia transpozície. Preskúmanie by sa malo zameriavať najmä na to, či je potrebné vytvoriť pravidlá objektívnej zodpovednosti pre nároky voči prevádzkovateľovi, ktorých sa ešte netýkajú iné pravidlá Únie v oblasti zodpovednosti, najmä smernica 85/374/EHS, v kombinácii s povinným poistením prevádzky určitých systémov umelej inteligencie, ako to navrhuje Európsky parlament. V súlade so zásadou proporcionality je vhodné posúdiť takúto potrebu vzhľadom na relevantný technologický a regulačný vývoj v nachádzajúcich rokoch, pričom treba prihliadnuť na účinok a vplyv na zavádzanie a využívanie systémov umelej inteligencie, a to najmä v prípade MSP. Takéto preskúmanie by sa malo okrem iného týkať rizík poškodenia dôležitých právnych hodnôt ako život, zdravie a majetok nič netušiacich tretích strán v dôsledku prevádzky produktov alebo služieb založených na umelej inteligencii. Pri preskúmaní by sa mala analyzovať aj účinnosť opatrení na riešenie takýchto rizík, ktoré sú stanovené v tejto smernici, ako aj vývoj vhodných riešení na trhu s poistením. V záujme zabezpečenia dostupnosti informácií potrebných na vykonanie takéhoto preskúmania je potrebné získať údaje a ďalšie potrebné dôkazy týkajúce sa príslušných vecí.
(32)Vzhľadom na potrebu prispôsobenia vnútroštátnych pravidiel občianskoprávnej zodpovednosti a procesnoprávnych pravidiel s cieľom posilniť zavádzanie produktov a služieb založených na umelej inteligencii za priaznivých podmienok na vnútornom trhu, ako aj spoločenskú akceptáciu a dôveru spotrebiteľov v technológiu umelej inteligencie a justičný systém je vhodné stanoviť členským štátom lehotu na prijatie potrebných transpozičných opatrení najneskôr [dva roky po nadobudnutí účinnosti] tejto smernice.
(33)V súlade so spoločným politickým vyhlásením členských štátov a Komisie z 28. septembra 2011 o vysvetľujúcich dokumentoch sa členské štáty zaviazali, že v odôvodnených prípadoch k svojim oznámeniam o transpozičných opatreniach pripoja jeden alebo viacero dokumentov vysvetľujúcich vzťah medzi prvkami smernice a zodpovedajúcimi časťami vnútroštátnych transpozičných nástrojov. V súvislosti s touto smernicou sa zákonodarca domnieva, že zasielanie takýchto dokumentov je odôvodnené,
PRIJALI TÚTO SMERNICU:
Článok 1
Predmet úpravy a rozsah pôsobnosti
1.Touto smernicou sa stanovujú spoločné pravidlá týkajúce sa:
a)poskytnutia dôkazov o vysokorizikových systémoch umelej inteligencie, aby mohol navrhovateľ podložiť svoj nezmluvný občianskoprávny nárok na náhradu škody vyplývajúcu zo subjektívnej zodpovednosti;
b)dôkazného bremena v prípade nezmluvných občianskoprávnych nárokov na náhradu škody vyplývajúcu zo subjektívnej zodpovednosti za škody spôsobené systémom umelej inteligencie podaných na vnútroštátne súdy.
2.Táto smernica sa uplatňuje na nezmluvné občianskoprávne nároky na náhradu škody vyplývajúce zo subjektívnej zodpovednosti, ak je takáto škoda spôsobená systémom umelej inteligencie po [skončení obdobia transpozície].
Táto smernica sa neuplatňuje na trestnú zodpovednosť.
3.Táto smernica nemá vplyv na:
a)pravidlá práva Únie, ktorými sa regulujú podmienky zodpovednosti v oblasti dopravy;
b)žiadne práva, ktoré môže mať poškodená osoba podľa vnútroštátnych pravidiel, ktorými sa vykonáva smernica 85/374/EHS;
c)výnimky z povinností v oblasti zodpovednosti a náležitej starostlivosti stanovené v [akte o digitálnych službách] a
d)vnútroštátne pravidlá, v ktorých sa stanovuje strana nesúca dôkazné bremeno, požadovaná miera istoty, pokiaľ ide o štandard dokazovania, alebo spôsob vymedzenia pochybenia, iné ako pravidlá stanovené v článkoch 3 a 4.
4.Členské štáty môžu prijať alebo zachovať vnútroštátne pravidlá, ktoré sú priaznivejšie pre navrhovateľov, pokiaľ ide o podloženie nezmluvného občianskoprávneho nároku na náhradu škody spôsobenej systémom umelej inteligencie, ak sú takéto pravidlá zlučiteľné s právom Únie.
Článok 2
Vymedzenie pojmov
Na účely tejto smernice sa uplatňuje toto vymedzenie pojmov:
1.„systém umelej inteligencie“ je systém umelej inteligencie v zmysle vymedzenia v [článku 3 bode 1 aktu o umelej inteligencii];
2.„vysokorizikový systém umelej inteligencie“ je systém umelej inteligencie podľa [článku 6 aktu o umelej inteligencii];
3.„poskytovateľ“ je poskytovateľ v zmysle vymedzenia v [článku 3 bode 2 aktu o umelej inteligencii];
4.„používateľ“ je používateľ v zmysle vymedzenia v [článku 3 bode 4 aktu o umelej inteligencii];
5.„nárok na náhradu škody“ je nezmluvný občianskoprávny nárok na náhradu škody vyplývajúcej zo subjektívnej zodpovednosti, ktorá bola spôsobená výstupom systému umelej inteligencie alebo nevytvorením výstupu takéhoto systému, ak mal byť daný výstup vytvorený;
6.„navrhovateľ“ je osoba, ktorá si uplatňuje nárok na náhradu škody a:
a)ktorá bola poškodená výstupom systému umelej inteligencie alebo nevytvorením výstupu takéhoto systému, ak mal byť daný výstup vytvorený;
b) ktorej bolo postúpené alebo na ktorú bolo subrogované právo poškodenej osoby zo zákona alebo na základe zmluvy alebo
c)ktorá koná v mene jednej alebo viacerých poškodených osôb v súlade s právom Únie alebo vnútroštátnym právom;
7.
„potenciálny navrhovateľ“ je fyzická alebo právnická osoba, ktorá zvažuje uplatnenie nároku na náhradu škody, ale ešte si ho neuplatnila;
8.
„žalovaný“ je osoba, voči ktorej sa uplatňuje nárok na náhradu škody;
9.
„povinnosť náležitej starostlivosti“ je taká požadovaná úroveň správania stanovená vo vnútroštátnom práve alebo v práve Únie, ktorou sa zabraňuje poškodeniu zákonných záujmov uznaných na úrovni vnútroštátneho práva alebo práva Únie, akými sú život, fyzická integrita, majetok a ochrana základných práv.
Článok 3
Poskytovanie dôkazov a vyvrátiteľná domnienka nedodržania povinností
1.Členské štáty zabezpečia, aby boli vnútroštátne súdy splnomocnené, buď na žiadosť potenciálneho navrhovateľa, ktorý už požiadal poskytovateľa, osobu, na ktorú sa vzťahujú povinnosti poskytovateľa podľa [článku 24 alebo článku 28 ods. 1 aktu o umelej inteligencii], alebo používateľa o poskytnutie dôkazov, ktoré majú k dispozícii o konkrétnom vysokorizikovom systéme umelej inteligencie, ktorý údajne zavinil škodu, pričom jeho požiadavka bola zamietnutá, alebo navrhovateľa o poskytnutie takýchto dôkazov od uvedených osôb.
Na podloženie takejto žiadosti musí potenciálny navrhovateľ predložiť skutočnosti a dôkazy dostatočné na podporu dôveryhodnosti nároku na náhradu škody.
2.V súvislosti s nárokom na náhradu škody nariadi vnútroštátny súd poskytnutie dôkazov niektorej z osôb uvedených v odseku 1 len vtedy, ak navrhovateľ vykonal všetky primerané kroky na získanie príslušných dôkazov od žalovaného.
3.Členské štáty zabezpečia, aby boli vnútroštátne súdy splnomocnené na žiadosť navrhovateľa prikázať osobitné opatrenia na zachovanie dôkazov uvedených v odseku 1.
4.Vnútroštátne súdy obmedzia poskytovanie dôkazov v rozsahu, ktorý je nevyhnutný a primeraný na podloženie potenciálneho nároku alebo nároku na náhradu škody, a zachovanie dôkazov v rozsahu, ktorý je nevyhnutný a primeraný na podloženie takéhoto nároku na náhradu škody.
Pri určovaní toho, či je príkaz na poskytnutie alebo zachovanie dôkazov primeraný, prihliadnu vnútroštátne súdy na oprávnené záujmy všetkých strán, ako aj dotknutých tretích strán, a to najmä v súvislosti s ochranou obchodných tajomstiev v zmysle článku 2 ods. 1 smernice (EÚ) 2016/943 a dôverných informácií, ako sú informácie súvisiace s verejnou alebo národnou bezpečnosťou.
Členské štáty zabezpečia, aby boli vnútroštátne súdy v prípade nariadenia poskytnutia obchodného tajomstva alebo údajného obchodného tajomstva, ktoré súd identifikuje ako dôverné v zmysle článku 9 ods. 1 smernice (EÚ) 2016/943, splnomocnené na základe riadne odôvodnenej žiadosti strany alebo z vlastnej iniciatívy prijať osobitné opatrenia potrebné na zachovanie dôvernosti, ak sa dôkazy použijú alebo uvedú v súdnom konaní.
Členské štáty takisto zabezpečia, aby osoba, ktorej bolo nariadené poskytnutie alebo zachovanie dôkazov uvedených v odsekoch 1 a 2, mala pri takýchto príkazoch k dispozícii vhodné procesnoprávne prostriedky nápravy.
5.Ak žalovaný nesplní príkaz vnútroštátneho súdu v rámci nároku na náhradu škody a podľa odsekov 1 alebo 2 neposkytne alebo nezachová dôkazy, ktoré má k dispozícii, vnútroštátny súd predpokladá, že žalovaný si nesplnil príslušnú povinnosť náležitej starostlivosti, a to najmä za okolností uvedených v článku 4 ods. 2 alebo 3, keď sú požadované dôkazy určené na podloženie príslušného nároku na náhradu škody.
Žalovaný má právo vyvrátiť uvedenú domnienku.
Článok 4
Vyvrátiteľná domnienka príčinnej súvislosti v prípade pochybenia
1.Na základe požiadaviek stanovených v tomto článku vnútroštátne súdy na účely uplatnenia pravidiel zodpovednosti pri nároku na náhradu škody predpokladajú, že existuje príčinná súvislosť medzi pochybením žalovaného a výstupom systému umelej inteligencie alebo nevytvorením výstupu systému umelej inteligencie, ak sú splnené všetky tieto podmienky:
a) navrhovateľ preukázal alebo súd podľa článku 3 ods. 5 predpokladá pochybenie žalovaného alebo osoby, za správanie ktorej žalovaný zodpovedá, spočívajúce v nedodržaní povinnosti náležitej starostlivosti stanovenej v práve Únie alebo vo vnútroštátnom práve, ktoré je priamo zamerané na ochranu pred škodou, ktorá vznikla;
b)na základe okolností prípadu možno považovať za dostatočne pravdepodobné, že pochybenie ovplyvnilo výstup systému umelej inteligencie alebo viedlo k nevytvoreniu výstupu systémom umelej inteligencie;
c)navrhovateľ preukázal, že výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie viedlo k vzniku škody.
2.V prípade nároku na náhradu škody uplatneného voči poskytovateľovi vysokorizikového systému umelej inteligencie, na ktorého sa vzťahujú požiadavky stanovené v hlave III kapitolách 2 a 3 [aktu o umelej inteligencii], alebo osobe, na ktorú sa vzťahujú povinnosti poskytovateľa podľa [článku 24 alebo článku 28 ods. 1 aktu o umelej inteligencii], je podmienka z odseku 1 písm. a) splnená len vtedy, ak navrhovateľ preukázal, že poskytovateľ, prípadne osoba, na ktorú sa vzťahujú povinnosti poskytovateľa, nedodržal žiadnu z týchto požiadaviek stanovených v uvedených kapitolách, pričom sa prihliadne na podniknuté kroky a výsledky systému riadenia rizík podľa [článku 9 a článku 16 písm. a) aktu o umelej inteligencii]:
a) systém umelej inteligencie je systém, ktorý využíva techniky zahŕňajúce trénovanie modelov s údajmi a ktorý nebol vyvinutý na základe súborov trénovacích, validačných a testovacích údajov, ktoré spĺňajú kritériá kvality uvedené v [článku 10 ods. 2 až 4 aktu o umelej inteligencii];
b) systém umelej inteligencie nebol koncipovaný a vyvinutý tak, aby spĺňal požiadavky na transparentnosť stanovené v [článku 13 aktu o umelej inteligencii];
c)systém umelej inteligencie nebol koncipovaný a vyvinutý tak, aby umožňoval účinný dohľad fyzických osôb počas obdobia, v ktorom sa systém umelej inteligencie používa, podľa [článku 14 aktu o umelej inteligencii];
d)systém umelej inteligencie nebol koncipovaný a vyvinutý tak, aby vzhľadom na svoj zamýšľaný účel dosahoval primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti podľa [článku 15 a článku 16 písm. a) aktu o umelej inteligencii]; alebo
e)neboli okamžite prijaté potrebné nápravné opatrenia na zosúladenie systému umelej inteligencie s povinnosťami stanovenými v [hlave III kapitole 2 aktu o umelej inteligencii] alebo na jeho stiahnutie z trhu, prípadne od používateľa, podľa [článku 16 písm. g) a článku 21 aktu o umelej inteligencii].
3.V prípade nároku na náhradu škody voči používateľovi vysokorizikového systému umelej inteligencie, na ktorého sa vzťahujú požiadavky stanovené v hlave III kapitolách 2 a 3 [aktu o umelej inteligencii] je podmienka odseku 1 písm. a) splnená vtedy, ak navrhovateľ preukáže, že používateľ:
a)si nesplnil povinnosti v oblasti používania alebo monitorovania systému umelej inteligencie v súlade so sprievodným návodom na používanie, prípadne pozastavil alebo prerušil jeho používanie podľa [článku 29 aktu o umelej inteligencii]; alebo
b)vystavil systém umelej inteligencie vstupným údajom, nad ktorými má kontrolu a ktoré nie sú relevantné z hľadiska zamýšľaného účelu systému podľa [článku 29 ods. 3 aktu].
4.V prípade nároku na náhradu škody týkajúceho sa vysokorizikového systému umelej inteligencie vnútroštátny súd neuplatní domnienku stanovenú v odseku 1, ak žalovaný preukáže, že dostatočné dôkazy a odborné znalosti sú primerane dostupné navrhovateľovi na preukázanie príčinnej súvislosti uvedenej v odseku 1.
5.V prípade nároku na náhradu škody týkajúceho sa systému umelej inteligencie, ktorý nie je vysokorizikovým systémom umelej inteligencie, sa domnienka stanovená v odseku 1 uplatní len vtedy, ak sa vnútroštátny súd domnieva, že pre navrhovateľa je mimoriadne ťažké dokázať príčinnú súvislosť uvedenú v odseku 1.
6.V prípade nároku na náhradu škody voči žalovanému, ktorý používal systém umelej inteligencie počas osobnej nepracovnej činnosti, sa domnienka stanovená v odseku 1 uplatní iba vtedy, ak žalovaný závažne zasiahol do podmienok prevádzky systému umelej inteligencie alebo ak bol žalovaný povinný stanoviť podmienky prevádzky systému umelej inteligencie a bol schopný to urobiť, ale neurobil to.
7.Žalovaný má právo vyvrátiť domnienku stanovenú v odseku 1.
Článok 5
Hodnotenie a cielené preskúmanie
1.Do [DÁTUM päť rokov od skončenia obdobia transpozície] Komisia preskúma uplatňovanie tejto smernice a predloží Európskemu parlamentu, Rade a Európskemu hospodárskemu a sociálnemu výboru správu, ku ktorej bude v prípade potreby priložený legislatívny návrh.
2.V správe sa preskúmajú účinky článkov 3 a 4 na dosahovanie cieľov presadzovaných touto smernicou. Konkrétne by sa v nej mala hodnotiť vhodnosť pravidiel objektívnej zodpovednosti pre nároky voči prevádzkovateľom určitých systémov umelej inteligencie, ktorých sa zatiaľ netýkajú žiadne iné pravidlá Únie v oblasti zodpovednosti, a potreba poistenia, pričom sa prihliadne aj na účinok a vplyv na zavádzanie a využívanie systémov umelej inteligencie, a to najmä zo strany MSP.
3.Komisia zavedie program monitorovania na prípravu správy podľa odsekov 1 a 2, v ktorom sa stanoví, ako a v akých intervaloch sa budú získavať údaje a ďalšie potrebné dôkazy. V programe sa určia opatrenia, ktoré má prijať Komisia a členské štáty v súvislosti so získavaním a analýzou údajov a iných dôkazov. Na účely uvedeného programu členské štáty oznámia Komisii relevantné údaje a dôkazy do [31. decembra druhého celého roka nasledujúceho po uplynutí obdobia transpozície] a do konca každého nasledujúceho roka.
Článok 6
Zmena smernice (EÚ) 2020/1828
V prílohe I k smernici (EÚ) 2020/1828 sa dopĺňa tento bod 67:
„67. Smernica Európskeho parlamentu a Rady (EÚ) …/… z … o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii (smernica o zodpovednosti za umelú inteligenciu) (Ú. v. EÚ L …, …, s. …).“
Článok 7
Transpozícia
1.Členské štáty uvedú do účinnosti zákony, iné právne predpisy a správne opatrenia potrebné na dosiahnutie súladu s touto smernicou najneskôr do [dvoch rokov po nadobudnutí účinnosti]. Ich znenie bezodkladne oznámia Komisii.
Členské štáty uvedú priamo v prijatých ustanoveniach alebo pri ich úradnom uverejnení odkaz na túto smernicu. Podrobnosti o odkaze upravia členské štáty.
2.Členské štáty oznámia Komisii znenie hlavných ustanovení vnútroštátnych právnych predpisov, ktoré prijmú v oblasti pôsobnosti tejto smernice.
Článok 8
Nadobudnutie účinnosti
Táto smernica nadobúda účinnosť dvadsiatym dňom po jej uverejnení v Úradnom vestníku Európskej únie.
Článok 9
Adresáti
Táto smernica je určená členským štátom.
V Bruseli
Za Európsky parlament
Za Radu
predsedníčka
predseda