V Bruseli28. 9. 2022

COM(2022) 496 final

2022/0303(COD)

Návrh

SMERNICA EURÓPSKEHO PARLAMENTU A RADY

o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii
(smernica o zodpovednosti za umelú inteligenciu)

(Text s významom pre EHP)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


DÔVODOVÁ SPRÁVA

1.KONTEXT NÁVRHU

·Dôvodyciele návrhu

Táto dôvodová správa je sprievodným dokumentomnávrhu smerniceprispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii.reprezentatívnom prieskumeroku 2020 1 uviedli európske spoločnosti, že zodpovednosť predstavuje jednutroch najväčších prekážok využívania umelej inteligencie. Ako najvýznamnejšiu vonkajšiu prekážku (43 %) ju uvádzali spoločnosti, ktoré plánujú umelú inteligenciu zaviesť, ale ešte tak neurobili.

Predsedníčka Komisie Ursula von der Leyenová stanovila vo svojich politických usmerneniach koordinovaný európsky prístupumelej inteligencii 2 .bielej kniheumelej inteligencii19. februára 2020 3 sa Komisia podujala propagovať využívanie umelej inteligencieriešiť riziká súvisiaceniektorými jej použitiami prostredníctvom posilnenia excelentnostidôvery.správezodpovednosti za umelú inteligenciu 4 , ktorá je sprievodným dokumentombielej knihe, Komisia identifikovala konkrétne výzvy, ktoré umelá inteligencia predstavuje pre existujúce pravidlá zodpovednosti.záveroch9. júna 2020formovaní digitálnej budúcnosti Európy Rada privítala konzultáciunávrhoch politíkbielej kniheumelej inteligenciivyzvala Komisiu na predloženie konkrétnych návrhov. Európsky parlament prijal 20. októbra 2020 legislatívne uznesenievlastnej iniciatívy podľa článku 225 ZFEÚ,ktorom žiada Komisiuprijatie návrhu týkajúceho sa systému občianskoprávnej zodpovednosti za umelú inteligenciu na základe článku 114 Zmluvyfungovaní EÚ (ZFEÚ) 5 .

Súčasné vnútroštátne pravidlá zodpovednosti,najmä tie, ktoré sa odvíjajú od existencie pochybenia, nie sú vhodné na riešenie nárokov na náhradu škody spôsobenej produktmislužbami založenými na umelej inteligencii. Podľa nich musia obete dokázať zavinenie alebo opomenutie osoby, ktorá spôsobila škodu. Osobitné vlastnosti umelej inteligencie, akými sú zložitosť, autonómianeprehľadnosť (tzv. efekt čiernej skrinky), môžu obetiam sťažovať alebo neúmerne predražovať určenie zodpovednej osobydodržanie požiadaviek na úspešné uplatnenie nároku na náhradu škody. Konkrétne by im mohli pri uplatňovaní náhrady škody vzniknúť veľmi vysoké počiatočné náklady, pričom súdne konania sútýchto prípadoch oveľa dlhšie akoprípade vecí, ktoré sa netýkajú umelej inteligencie. Môže ich to preto úplne odradiť od uplatnenia nároku na náhradu škody. Tieto obavy vyjadril aj Európsky parlament vo svojom uznesení3. mája 2022umelej inteligenciidigitálnom veku.  6

Ak si obeť uplatní nárok, vnútroštátne súdy môžu vzhľadom na osobitné vlastnosti umelej inteligencie prispôsobiť uplatnenie existujúcich pravidiel na báze ad hoc tak, aby pre ňu dosiahli spravodlivý výsledok. To spôsobí právnu neistotu. Podniky budú mať ťažkosti predvídať uplatňovanie existujúcich pravidiel zodpovednosti, čiže aj posúdiť a poistiť vyvodenie zodpovednosti. Tento účinok bude ešte výraznejší v prípade podnikov obchodujúcich cezhranične, keďže daná neistota sa bude týkať rôznych jurisdikcií. Najväčší vplyv to bude mať na malé a stredné podniky (MSP), ktoré sa nemôžu spoliehať na svoje odborné kapacity v oblasti práva ani kapitálové rezervy.

Z národných stratégií pre umelú inteligenciu vyplýva, že viacero členských štátov zvažuje alebo dokonca konkrétne plánuje legislatívne opatrenie v oblasti občianskoprávnej zodpovednosti za umelú inteligenciu. Preto možno očakávať, že ak EÚ nebude konať, členské štáty prispôsobia svoje vnútroštátne pravidlá zodpovednosti výzvam spojeným s umelou inteligenciou. Dôsledkom bude ďalšia fragmentácia a vyššie náklady pre podniky pôsobiace v celej EÚ.

Uvedené problémy sa potvrdili aj v rámci otvorenej verejnej konzultácie, na základe ktorej sa vypracovalo posúdenie vplyvu tohto návrhu. Podľa názoru verejnosti môže „efekt čiernej skrinky“ sťažovať obeti dokázanie pochybenia a príčinnej súvislosti a zároveň môže existovať neistota vo výklade a uplatnení existujúcich vnútroštátnych pravidiel zodpovednosti súdmi v prípadoch týkajúcich sa umelej inteligencie. Ďalej z nej vyplynula obava verejnosti z toho, akým spôsobom legislatívne opatrenie týkajúce sa prispôsobenia pravidiel zodpovednosti v jednotlivých členských štátoch a z neho vyplývajúca fragmentácia ovplyvnia náklady spoločností, najmä MSP, čo môže brániť vo využívaní umelej inteligencie v celej Únii.

Cieľom tohto návrhu je preto podporiť zavádzanie dôveryhodnej umelej inteligencie, aby sa na vnútornom trhu jej prínosy využívali v plnej miere. Dosahuje sa to tým, že obetiam, ktorým spôsobila škodu umelá inteligencia, sa zabezpečí rovnaká ochrana ako obetiam, ktorým spôsobili škodu výrobky vo všeobecnosti. Takisto sa ním zníži právna neistota podnikov, ktoré vyvíjajú alebo používajú umelú inteligenciu, pokiaľ ide o možné vyvodenie ich zodpovednosti, a zabráni sa vzniku fragmentovaných prispôsobení vnútroštátnych pravidiel občianskoprávnej zodpovednosti za umelú inteligenciu.

·Súladexistujúcimi ustanoveniamitejto oblasti politiky

Tento návrh je súčasťou balíka opatrení na podporu zavádzania umelej inteligencie v Európe prostredníctvom posilnenia excelentnosti a dôvery. Tento balík pozostáva z troch doplnkových oblastí činnosti:

legislatívneho návrhu,ktorom sa stanovujú horizontálne pravidlá pre systémy umelej inteligencie (aktumelej inteligencii) 7 ,

revízie sektorovýchhorizontálnych predpisovoblasti bezpečnosti výrobkov,

pravidiel EÚ na riešenie problematiky zodpovednostisúvislosti so systémami umelej inteligencie.

V návrhu aktuumelej inteligencii Komisia navrhla pravidlá, ktorými sa znižujú rizikáoblasti bezpečnostichránia základné práva. Bezpečnosťzodpovednosť sú dve strany jednej mince: uplatňujú saodlišných chvíľachnavzájom sa posilňujú. Hoci sa pravidlami na zaistenie bezpečnostiochrany základných práv riziká znížia, úplne sa neodstránia 8 . Ak sa takéto riziko prejaví, aj tak môže dôjsťvzniku škody.takých prípadoch sa uplatnia pravidlá zodpovednostitohto návrhu.

Účinné pravidlá zodpovednosti zabezpečujú aj hospodársky stimul na dodržiavanie bezpečnostných pravidiel, čím prispievajúpredchádzaniu vzniku škôd 9 . Okrem toho sa týmto návrhom prispievaposilneniu požiadaviek na vysokorizikové systémy umelej inteligencie uloženýchakteumelej inteligencii, pretože nedodržanie týchto požiadaviek tvorí významný prvok, ktorým sa zmierňuje dôkazné bremeno. Tento návrh je takistosúlade so všeobecnými 10 sektorovými predpismioblasti bezpečnosti výrobkov, ktoré sa vzťahujú na strojnícke výrobky 11 rádiové zariadenia 12 založené na umelej inteligencii.

Komisia zaujíma vo svojej politike v oblasti umelej inteligencie holistický prístup k zodpovednosti tým, že navrhuje úpravy zodpovednosti výrobcu za chybné výrobky podľa smernice o zodpovednosti za výrobky, ako aj cielenú harmonizáciu podľa tohto návrhu. Tieto dve politické iniciatívy sú úzko previazané a tvoria balík, keďže nároky patriace do ich rozsahu pôsobnosti sa týkajú odlišných druhov zodpovednosti. Smernica o zodpovednosti za výrobky sa týka objektívnej zodpovednosti za chybné výrobky, ktorá vedie k náhrade niektorých druhov škôd, najmä tých, ktoré utrpeli jednotlivci. Tento návrh sa týka vnútroštátnych nárokov na náhradu škody, ktoré vychádzajú najmä z pochybenia osoby, pričom ich cieľom je nahradiť každú škodu a odškodniť všetky obete. Navzájom sa dopĺňajú a spolu tvoria celkový účinný systém občianskoprávnej zodpovednosti.

Spoločne sa bude týmito pravidlami podporovať dôvera v umelú inteligenciu (a ďalšie digitálne technológie), pretože sa nimi zabezpečí účinné odškodnenie obetí v prípade, ak škoda vznikla aj napriek preventívnym požiadavkám aktu o umelej inteligencii a ďalších bezpečnostných predpisov.

·Súladostatnými politikami Únie

Návrh jesúladecelkovou digitálnou stratégiou Únie, keďže prispievapodpore technológieslužbách človeka, čo je jedentroch hlavných pilierov zameraniacieľov politiky uvedenýchoznámení Formovanie digitálnej budúcnosti Európy 13 .

V tejto súvislosti je cieľom tohto návrhu vybudovať dôveruumelú inteligenciuzvýšiť jej využívanie. Tým sa dosiahnu synergiebude sa dopĺňať[aktomkybernetickej odolnosti] 14 , ktorého cieľom takisto je zvýšiť dôveruproduktydigitálnymi prvkami znížením kybernetických zraniteľnostílepšie chrániť komerčnýchpoužívateľov spomedzi spotrebiteľských.

Tento návrh nemá vplyv na pravidlá stanovené v [akte o digitálnych službách], v ktorom sa uvádza komplexný a plne harmonizovaný rámec povinností náležitej starostlivosti o algoritmické rozhodovanie online platforiem, ani na vyňatie poskytovateľov sprostredkovateľských služieb zo zodpovednosti, ktoré je v ňom stanovené.

Okrem toho tento návrh svojou podporou zavádzania umelej inteligencie súvisíiniciatívamirámci Európskej dátovej stratégie 15 . Ďalej sa ním posilňuje úloha Únieoblasti pomoci pri formovaní globálnych noriemštandardovpodpore dôveryhodnej umelej inteligencie, ktorá jesúladehodnotamizáujmami Únie.

Návrh takisto nepriamo súvisíEurópskou zelenou dohodou 16 . Konkrétne predstavujú digitálne technológie vrátane umelej inteligencie kritický faktor plnenia cieľov Európskej zelenej dohodyoblasti udržateľnostimnohých sektoroch (vrátane zdravotnej starostlivosti, dopravy, životného prostrediapoľnohospodárstva).

·Hlavné hospodárske, sociálneenvironmentálne vplyvy

Smernicou sa prispejezavádzaniu umelej inteligencie. Podmienky zavádzaniavývoja technológií umelej inteligencie na vnútornom trhu možno výrazne zlepšiť tým, že sa zabráni fragmentáciidôsledku možných prispôsobení pravidiel zodpovednosti na vnútroštátnej úrovnizvýši sa právna istota prostredníctvom harmonizovaných opatrení na úrovni EÚ.hospodárskej štúdii 17 , ktorá je podkladom pre vypracovanie posúdenia vplyvu tohto návrhu, sa dospelozáveru, že podľa konzervatívneho odhadu by cielené opatrenia harmonizácieoblasti občianskoprávnej zodpovednosti za umelú inteligenciu maliporovnaní so základným scenárom pozitívny vplyv na 5 až 7 % výrobnej hodnoty príslušného cezhraničného obchodu. Táto pridaná hodnota by sa vytvorila najmä prostredníctvom zníženej fragmentáciezvýšenej právnej istotyoblasti vyvodenia zodpovednosti zainteresovaných strán. Znížili by sa tým náklady zainteresovaných strán na právne informácie/zastúpenie, interné riadenie rizíkna dodržiavanie predpisov, uľahčilo by sa finančné plánovanie, ako aj odhad rizika na poistné účely,spoločnostiam,najmä MSP, by sa umožnilo skúmať nové trhy za hranicami. Na základe celkovej hodnoty trhu EÚumelou inteligenciou, ktorý ovplyvňujú problémy so zodpovednosťou riešenétejto smernici, sa odhaduje, že sa vytvorí dodatočná trhová hodnotarozpätí od 500 mil. EUR približne do 1,1 mld. EUR.

Pokiaľ ide o sociálne vplyvy, smernicou sa zvýši dôvera spoločnosti v technológie umelej inteligencie a zlepší prístup k účinnému justičnému systému. Prispeje sa ňou k dosiahnutiu účinného systému občianskoprávnej zodpovednosti prispôsobeného osobitostiam umelej inteligencie, v ktorom sú opodstatnené nároky na náhradu škody úspešné. Zvýšenie dôvery spoločnosti okrem toho prospeje všetkým spoločnostiam v hodnotovom reťazci umelej inteligencie, pretože posilnením dôvery občanov sa dosiahne rýchlejšie využívanie umelej inteligencie. Vzhľadom na stimulujúci účinok pravidiel zodpovednosti by predchádzanie nedostatkom v oblasti zodpovednosti nepriamo prospelo aj všetkým občanom, pretože sa zvýši úroveň ochrany ich zdravia a bezpečnosti (článok 114 ods. 3 ZFEÚ) a odstránia zdroje zdravotných rizík (článok 168 ods. 1 ZFEÚ).

Pokiaľ ide o vplyvy na životné prostredie, smernica by mala okrem toho prispieť aj k dosahovaniu súvisiacich cieľov a zámerov v oblasti udržateľného rozvoja. Využívanie aplikácií umelej inteligencie prospieva životnému prostrediu. Systémy umelej inteligencie využívané pri optimalizácii procesov napríklad zabezpečujú lepšiu hospodárnosť procesov (napr. znižovaním množstva potrebných hnojív a pesticídov, ako aj spotreby vody, pri dosahovaní rovnakých výsledkov atď.). Smernica by pozitívne ovplyvnila aj ciele udržateľného rozvoja, pretože účinné právne predpisy o transparentnosti, zodpovednosti a základných právach budú zacielené na využívanie potenciálu umelej inteligencie v prospech jednotlivcov a spoločnosti pri dosahovaní cieľov udržateľného rozvoja.

2.PRÁVNY ZÁKLAD, SUBSIDIARITA A PROPORCIONALITA

·    Právny základ

Právnym základom tohto návrhu je článok 114 ZFEÚ, v ktorom sa stanovuje prijímanie opatrení na zabezpečenie vytvorenia a fungovania vnútorného trhu.

Problémy, ktoré sa majú týmto návrhom riešiť, najmä v súvislosti s právnou neistotou a právnou fragmentáciou, brzdia rozvoj vnútorného trhu, čím sa významne podieľajú na tvorbe prekážok pre cezhraničný obchod s produktmi a službami založenými na umelej inteligencii.

V návrhu sa riešia prekážky vyplývajúce zo skutočnosti, že podniky, ktoré chcú cezhranične vytvárať, šíriť a prevádzkovať produkty a služby založené na umelej inteligencii, nemajú istotu, či a do akej miery sa uplatňujú existujúce systémy zodpovednosti na škodu spôsobenú umelou inteligenciou. Táto neistota sa týka najmä členských štátov, do ktorých podniky vyvážajú alebo v ktorých prevádzkujú svoje produkty a služby. V cezhraničných situáciách je štandardne rozhodným právom pre mimozmluvnú zodpovednosť vyplývajúcu z protiprávneho konania právo krajiny, v ktorej vznikla škoda. Pre podniky je veľmi dôležité poznať príslušné riziká súvisiace so zodpovednosťou a poistiť sa proti nim.

Okrem toho existujú konkrétne náznaky, že viacero členských štátov zvažuje jednostranné legislatívne opatrenia na riešenie konkrétnych výziev, ktoré umelá inteligencia predstavuje pre zodpovednosť. Napríkladstratégiách pre umelú inteligenciu prijatýchČesku 18 , Taliansku 19 , na Malte 20 ,Poľsku 21 Portugalsku 22 sa uvádzajú iniciatívy na objasnenie zodpovednosti. Vzhľadom na veľké rozdielyexistujúcich pravidlách občianskoprávnej zodpovednosti medzi jednotlivými členskými štátmi je pravdepodobné, že všetky vnútroštátne opatrenia týkajúce sa umelej inteligencie by vychádzaliexistujúcich rozdielnych vnútroštátnych prístupov, čím by sa zvýšila fragmentácia.

Prispôsobením pravidiel zodpovednosti vykonaným výlučne na vnútroštátnom základe by sa preto ešte zhoršili prekážky brániace zavádzaniu produktov a služieb založených na umelej inteligencii na vnútornom trhu a prispelo by sa k ďalšej fragmentácii.

·Subsidiarita

Ciele tohto návrhu nie je možné primerane dosiahnuť na vnútroštátnej úrovni, pretože vznikajúce rozdielne vnútroštátne pravidlá by zvýšili právnu neistotu a fragmentáciu a vytvorili prekážky brániace zavádzaniu produktov a služieb založených na umelej inteligencii na vnútornom trhu. Právna neistota by najviac ovplyvnila spoločnosti pôsobiace cezhranične, pretože by to pre ne znamenalo potrebu ďalších nákladov na právne informácie/zastúpenie a interné riadenie rizík, ako aj ušlé príjmy. Zároveň by rozdielne vnútroštátne pravidlá týkajúce sa nárokov na náhradu škody spôsobenej umelou inteligenciou zvýšili transakčné náklady podnikov, a to najmä pri cezhraničnom obchode, čo predstavuje významné prekážky vnútorného trhu. Ďalej by mala právna neistota a fragmentácia neprimeraný vplyv na startupy a MSP, ktoré tvoria väčšinu spoločností a najväčšiu časť investícií na relevantných trhoch.

V prípade neexistencie harmonizovaných pravidiel EÚ týkajúcich sa náhrady škody spôsobenej systémami umelej inteligencie by poskytovatelia, prevádzkovatelia a používatelia systémov umelej inteligencie na jednej strane a poškodené osoby na strane druhej čelili 27 rôznym systémom zodpovednosti s rôznou úrovňou ochrany a narušeniu hospodárskej súťaže medzi podnikmi z rôznych členských štátov.

Harmonizovanými opatreniami na úrovni EÚ by sa významne zlepšili podmienky zavádzania a vývoja technológií umelej inteligencie na vnútornom trhu, pretože by sa zabránilo fragmentácii a zvýšila by sa právna istota. Táto pridaná hodnota by sa vytvorila najmä prostredníctvom zníženej fragmentácie a zvýšenej právnej istoty v oblasti vyvodenia zodpovednosti zainteresovaných strán. Okrem toho len opatrením na úrovni EÚ je možné neustále dosahovať želaný účinok podpory dôvery spotrebiteľov v produkty a služby založené na umelej inteligencii, pretože sa zabráni nedostatkom v oblasti zodpovednosti v súvislosti s osobitnými vlastnosťami umelej inteligencie na vnútornom trhu. Zabezpečila by sa tým jednotná (minimálna) úroveň ochrany všetkých obetí (jednotlivcov aj spoločností) a jednotné stimuly na predchádzanie škodám a zabezpečenie zodpovednosti.

·Proporcionalita

Tento návrh vychádza z fázového prístupu. V prvej fáze sa ciele dosahujú pomocou minimálne rušivého prístupu; v druhej fáze sa opätovne posúdi potreba prísnejších alebo rozsiahlejších opatrení.

Prvá fáza sa obmedzuje na opatrenia týkajúce sa dôkazného bremena na riešenie identifikovaných problémovumelou inteligenciou. Vychádzahmotnoprávnych podmienok zodpovednosti, ktorésúčasnosti existujú vo vnútroštátnych pravidlách, akými sú príčinná súvislosť alebo pochybenie, ale zameriava sa na cielené opatrenia týkajúce sa dôkazného bremena, čím sa zabezpečuje rovnaká úroveň ochrany obetí akoprípadoch, ktoré nesúvisia so systémami umelej inteligencie. Okrem toho spomedzi rôznych nástrojov dostupných vo vnútroštátnom práve na zmiernenie dôkazného bremena 23 satomto návrhu využívajú vyvrátiteľné domnienky ako najmenej intervenčný nástroj. Takéto domnienky sa bežne nachádzajú vo vnútroštátnych systémoch zodpovednostivyvažujú záujmy navrhovateľovžalovaných. Zároveň sú koncipované tak, aby stimulovali súladexistujúcimi povinnosťami náležitej starostlivosti na úrovni Únie alebo na vnútroštátnej úrovni. Návrh nevediepreneseniu dôkazného bremenacieľom zabrániť tomu, aby boli poskytovatelia, prevádzkovateliapoužívatelia systémov umelej inteligencie vystavení vyšším rizikám zodpovednosti za škodu, čo by mohlo brzdiť inováciuznižovať využívanie produktovslužieb založených na umelej inteligencii.

Druhou fázou uvedenou v návrhu sa zabezpečuje, aby sa pri posudzovaní účinku prvej fázy na ochranu obetí a využívanie umelej inteligencie zohľadnil budúci technologický, regulačný vývoj a vývoj judikatúry, ak sa bude znovu posudzovať potreba harmonizácie ďalších prvkov nárokov na náhradu škody alebo iných nástrojov súvisiacich s nárokmi na náhradu škody, a to aj v situáciách, v ktorých by bola vhodnejšia objektívna zodpovednosť, ako to vyžaduje Európsky parlament. Pri takomto posudzovaní by sa pravdepodobne zvažovalo aj to, či bude na účely zabezpečenia účinnosti potrebné túto harmonizáciu spojiť s povinným poistením.

·Výber nástroja

Smernica je pre tento návrh najvhodnejším nástrojom, pretože sa ňou zabezpečuje želaný harmonizačný účinok a právna istota a zároveň sa poskytuje flexibilita, ktorá členským štátom umožňuje bezproblémové začleňovanie harmonizovaných opatrení do svojich vnútroštátnych systémov zodpovednosti.

Povinným nástrojom by sa zabránilo nedostatkom v ochrane vyplývajúcim z čiastočného vykonávania alebo nevykonávania nástroja. Hoci nezáväzný nástroj by bol menej rušivý, je nepravdepodobné, že by sa ním dokázali účinne riešiť identifikované problémy. Mieru vykonávania nezáväzných nástrojov je zložité predpokladať a neexistujú dostatočné záruky, že odporúčanie by malo presvedčivý účinok a zabezpečilo by sa ním jednotné prispôsobenie vnútroštátnych zákonov.

Ešte nepravdepodobnejšie je to v prípade opatrení týkajúcich sa súkromného práva, ktorého súčasťou je aj mimozmluvná zodpovednosť. V tejto oblasti prevládajú dlhodobé právne tradície, pre ktoré členské štáty len neochotne presadzujú koordinovanú reformu, ak ich k tomu nemotivuje jasná perspektíva prínosov pre vnútorný trh v rámci záväzného nástroja EÚ alebo potreba prispôsobiť sa novým technológiám v digitálnom hospodárstve.

Ďalším dôvodom, pre ktorý by sa odporúčanie pravdepodobne nevykonávalo jednotne, sú aj významné existujúce rozdiely v rámcoch zodpovednosti jednotlivých členských štátov.

1.VÝSLEDKY HODNOTENÍ EX POST, KONZULTÁCIÍ SO ZAINTERESOVANÝMI STRANAMI A POSÚDENÍ VPLYVU

·Konzultácie so zainteresovanými stranami

Realizovala sa rozsiahla konzultačná stratégia s cieľom zabezpečiť širokú účasť zainteresovaných strán počas celého cyklu tvorby politiky tohto návrhu. Konzultačná stratégia vychádzala z verejných a viacerých cielených konzultácií (webinárov, dvojstranných diskusií so spoločnosťami a rôznymi organizáciami).

Po počiatočných otázkach týkajúcich sa zodpovednosti, ktoré boli súčasťou verejnej konzultáciebielej kniheumelej inteligenciisprávy Komisiebezpečnostizodpovednosti, sa od 18. októbra 2021 do 10. januára 2022 uskutočnila osobitná verejná konzultácia onlinecieľom získať názory širokého spektra zainteresovaných strán vrátane spotrebiteľov, organizácií občianskej spoločnosti, priemyselných združení, podnikov vrátane MSPsubjektov verejného sektora. Komisia po analýze všetkých prijatých odpovedí zverejnila na svojom webovom sídle 24 zhrnutie výsledkovjednotlivé odpovede.

Celkovo bolo doručených 233 odpovedí od respondentov z 21 členských štátov, ako aj z tretích krajín. Väčšina zainteresovaných strán vo všeobecnosti potvrdila problémy s dôkazným bremenom, právnou neistotou a fragmentáciou a podporila opatrenie na úrovni EÚ.

Občania EÚ, spotrebiteľské organizácie a akademické inštitúcie prevažnou väčšinou potvrdili potrebu opatrenia na úrovni EÚ na zmiernenie problémov obetí, pokiaľ ide o dôkazné bremeno. Podniky uznali negatívny vplyv neistoty na uplatňovanie pravidiel zodpovednosti, boli však opatrnejšie a žiadali cielené opatrenia, ktorými by sa zabránilo obmedzeniu inovácie.

Podobne to platilo aj pri možnostiach politiky. Občania EÚ, spotrebiteľské organizácie a akademické inštitúcie do veľkej miery podporili opatrenia týkajúce sa dôkazného bremena a harmonizácie objektívnej zodpovednosti spojenej s povinným poistením. Podniky boli pri možnostiach politiky nejednotnejšie, pričom to čiastočne záviselo od ich veľkosti. Objektívnu zodpovednosť považovala za neprimeranú väčšina respondentov z radov podnikov. Harmonizácia zmiernenia dôkazného bremena si získala väčšiu podporu, a to najmä medzi MSP. Podniky však varovali pred úplným prenesením dôkazného bremena.

Uprednostňovaná možnosť politiky sa preto počas procesu posudzovania vplyvu rozvinula a prepracovala na základe spätnej väzby od zainteresovaných strán, aby sa nastolila správna rovnováha medzi potrebami a obavami vyjadrenými všetkými príslušnými skupinami zainteresovaných strán.

·Získavanievyužívanie expertízy

Návrh vychádza zo štvorročnej analýzyúzkeho zapojenia zainteresovaných strán vrátane akademických pracovníkov, podnikov, spotrebiteľských organizácií, členských štátovobčanov. Prípravné práce sa začaliroku 2018 zriadením expertnej skupiny pre zodpovednosťnové technológie (formácie pre nové technológie). Expertná skupina vypracovalanovembri 2019 správu 25 obsahujúcu posúdenie výziev, ktoré niektoré vlastnosti umelej inteligencie predstavujú pre vnútroštátne pravidlá občianskoprávnej zodpovednosti.

Vstupné informácie zo správy expertnej skupiny doplnili tri ďalšie externé štúdie:

štúdiaporovnávacom práve vychádzajúcaporovnávacej právnej analýzy európskeho práva mimozmluvnej zodpovednosti zameranej na kľúčové problémyumelou inteligenciou 26 ,

behaviorálna hospodárska štúdiavplyvoch cielených prispôsobení systému zodpovednosti na rozhodovanie spotrebiteľov,najmä na ich dôveruochotu využívať produktyslužby založené na umelej inteligencii 27 ,

hospodárska štúdia 28 týkajúca sa množstva otázok: výziev, ktorým čelia obete aplikácií umelej inteligencieporovnaníobeťami zariadení,ktorých sa nevyužíva umelá inteligencia, pri získaní náhrady škody za svoje straty; čido akej miery pociťujú podniky neistotu pri uplatňovaní súčasných pravidiel zodpovednosti pri svojich činnostiach súvisiacichumelou inteligenciouči môže vplyv právnej neistoty brzdiť investície do umelej inteligencie; či by sa ďalšou fragmentáciou vnútroštátnych zákonovzodpovednosti znížila účinnosť vnútorného trhuaplikáciamislužbami umelej inteligenciečido akej miery by sa harmonizáciou určitých aspektov vnútroštátnej občianskoprávnej zodpovednosti prostredníctvom právnych predpisov EÚ zmiernili tieto problémyzlepšilo celkové využívanie technológie umelej inteligencie spoločnosťamiEÚ.

·Posúdenie vplyvu

V súlade so svojou politikou „lepšej právnej regulácie“ Komisia vykonala posúdenie vplyvu tohto návrhu, ktoré preskúmal výbor Komisie pre kontrolu regulácie. Na zasadnutí zo 6. apríla 2022 vydal výbor pre kontrolu regulácie kladné stanovisko s pripomienkami.

Posúdili sa tri možnosti politiky:

Možnosť politiky 1: tri opatrenia na zmiernenie dôkazného bremena obetí, ktoré sa pokúšajú preukázať svoj nárok na náhradu škody.

Možnosť politiky 2: opatrenia v rámci možnosti 1 + harmonizácia pravidiel objektívnej zodpovednosti pre prípady používania umelej inteligencie s osobitným rizikovým profilom v spojení s povinným poistením.

Možnosť politiky 3: fázový prístup pozostávajúci z:

prvej fázy: opatreniarámci možnosti 1,

druhej fázy: mechanizmus preskúmania na účely opätovného posúdenia,to najmä potreby harmonizácie objektívnej zodpovednosti pre prípady používania umelej inteligencieosobitným rizikovým profilom (v možnom spojenípovinným poistením).

Možnosti politiky sa porovnali podľa analýzy založenej na viacerých kritériách, pričom sa zohľadnila ich účinnosť, efektívnosť, koherentnosť a primeranosť. Z výsledkov analýzy založenej na viacerých kritériách a analýzy citlivosti vyplýva, že možnosť politiky 3, ktorou sa zmierňuje dôkazné bremeno v prípade nárokov súvisiacich s umelou inteligenciou a vykonáva cielené preskúmanie objektívnej zodpovednosti v možnom spojení s povinným poistením, dostala najväčšiu podporu, a preto je uprednostňovanou možnosťou politiky pre tento návrh.

Uprednostňovanou možnosťou politiky by sa zabezpečilo, aby obete produktov a služieb založených na umelej inteligencii (fyzické osoby, podniky a akékoľvek iné verejné alebo súkromné subjekty) neboli menej chránené ako obete tradičných technológií. Zvýšila by sa tým dôvera v umelú inteligenciu a podporilo jej využívanie.

Ďalej by sa tým zmiernila právna neistota a zabránilo fragmentácii, čím by sa pomohlo spoločnostiam, a predovšetkým všetkým MSP, ktoré chcú využívať potenciál jednotného trhu EÚ v plnej miere cezhraničným zavádzaním produktov a služieb založených na umelej inteligencii. Uprednostňovanou možnosťou politiky sa takisto vytvárajú lepšie podmienky pre poisťovateľov, ktorí tak môžu ponúkať krytie činností súvisiacich s umelou inteligenciou, čo je mimoriadne dôležité pre podniky, a najmä MSP, na riadenie ich rizík. Konkrétne sa odhaduje, že uprednostňovaná možnosť politiky by priniesla v roku 2025 zvýšenie hodnoty trhu s umelou inteligenciou v krajinách EÚ27 v rozpätí od 500 mil. EUR približne do 1,1 mld. EUR.

·Základné práva

Jednou z najdôležitejších funkcií pravidiel občianskoprávnej zodpovednosti je zabezpečenie toho, aby si mohli obete uplatniť nárok na náhradu škody. Zaisťovaním účinnej náhrady škody tieto pravidlá prispievajú k ochrane práva na účinný prostriedok nápravy a na spravodlivý proces (článok 47 Charty základných práv EÚ, ďalej len „charta“), pričom zároveň motivujú potenciálne zodpovedné osoby, aby predchádzali škodám s cieľom vyhnúť sa zodpovednosti.

Týmto návrhom chce Komisia zabezpečiť, aby mali obete škody spôsobenej umelou inteligenciou rovnakú úroveň ochrany na základe pravidiel občianskoprávnej zodpovednosti ako obete škody spôsobenej bez pričinenia umelej inteligencie. Návrhom sa umožní účinné súkromné presadzovanie základných práv a zachovanie práva na účinný prostriedok nápravy v prípade výskytu rizík súvisiacich s umelou inteligenciou. Konkrétne sa návrhom prispeje k ochrane základných práv, ako sú právo na život (článok 2 charty), právo na fyzickú a duševnú integritu (článok 3) a vlastnícke právo (článok 17). Okrem toho si budú môcť obete v závislosti od systému a tradícií občianskeho práva uplatňovať náhradu škody, ktorá vznikla na iných zákonných záujmoch, ako napríklad v prípade porušenia ľudskej dôstojnosti (články 1 a 4 charty), rešpektovania súkromného a rodinného života (článok 7), práva na rovnosť (článok 20) a nediskrimináciu (článok 21).

Okrem toho tento návrh dopĺňa ďalšie časti politiky Komisie v oblasti umelej inteligencie, ktoré sa týkajú preventívnych požiadaviek na reguláciu a dohľad zameraných priamo na zabránenie porušovaniu základných práv (napríklad diskriminácii). Sú nimi akt o umelej inteligencii, všeobecné nariadenie o ochrane údajov, akt o digitálnych službách a právo EÚ o nediskriminácii a rovnakom zaobchádzaní. Zároveň sa týmto návrhom nevytvárajú ani neharmonizujú povinnosti náležitej starostlivosti alebo zodpovednosti rôznych subjektov, ktorých činnosť je regulovaná uvedenými právnymi aktmi, a preto sa ním ani nevytvárajú nové nároky na náhradu škody, pričom návrh nemá vplyv na výnimky zo zodpovednosti podľa týchto ďalších právnych aktov. V návrhu sa zavádza iba zmiernenie dôkazného bremena pre obete škody spôsobenej systémami umelej inteligencie pri nárokoch, ktoré možno podložiť vnútroštátnym právom alebo uvedenými ďalšími právnymi predpismi EÚ. Tým, že tieto ostatné časti dopĺňa, chráni tento návrh právo obete na náhradu škody podľa súkromného práva, a to aj škody, ktorá vznikla v dôsledku porušenia základných práv.

4.VPLYV NA ROZPOČET

Tento návrh nemá žiadny vplyv na rozpočet Európskej únie.

5.ĎALŠIE PRVKY

·Plány vykonávaniamonitorovanie, hodnotenie, program monitorovaniacielené preskúmanie

V tomto návrhu sa presadzuje fázový prístup. V záujme zabezpečenia dostupnosti dostatočných dôkazov na cielené preskúmanie v druhej fáze Komisia vypracuje plán monitorovania, v ktorom sa podrobne uvedie, ako a ako často sa budú získavať údaje a ďalšie potrebné dôkazy.

Mechanizmus monitorovania by sa mal vzťahovať na tieto druhy údajov a dôkazov:

podávanie správvýmenu informácií medzi členskými štátmiuplatňovaní opatrenia na zmiernenie dôkazného bremena pri vnútroštátnych alebo mimosúdnych konaniachurovnaní,

informácie získané Komisiou alebo orgánmi dohľadu nad trhom podľa aktuumelej inteligencii (najmä jeho článku 62) alebo iné relevantné nástroje,

informácieanalýzy na podporu hodnotenia aktuumelej inteligenciisprávy, ktoré má vypracovať Komisiavykonávaní uvedeného aktu,

informácieanalýzy na podporu posúdenia príslušných budúcich opatrení politík podľa právnych predpisovbezpečnosti, ktoré obsahujú „starý prístup“, aby sa zabezpečil súlad produktov umiestňovaných na trh Únie so zdravotnými,bezpečnostnýmienvironmentálnymi požiadavkami,

informácieanalýzy na podporu správy Komisieuplatňovaní smernicepoistení motorových vozidiel na technologický vývoj (najmä na autonómnepoloautonómne vozidlá) podľa jej článku 28c ods. 2 písm. a).

·Podrobné vysvetlenie konkrétnych ustanovení návrhu

1. Predmet úpravyrozsah pôsobnosti (článok 1)

Cieľom tejto smernice je zlepšiť fungovanie vnútorného trhu stanovením jednotných požiadaviek na určité aspekty mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú pričinením systémov umelej inteligencie. Vychádza z uznesenia Európskeho parlamentu 2020/2014(INL) a súkromné právo sa v nej prispôsobuje potrebám prechodu na digitálne hospodárstvo.

Vzhľadom na povahu problematiky dôkazného bremena a osobitné vlastnosti umelej inteligencie, ktoré predstavujú problém pre existujúce pravidlá zodpovednosti, je výber vhodných právnych nástrojov obmedzený. V smernici sa preto veľmi cieleným a primeraným spôsobom zmierňuje dôkazné bremeno prostredníctvom využitia poskytovania dôkazov a vyvrátiteľných domnienok. Osobám, ktoré požadujú náhradu škody, umožňuje získať informácie o vysokorizikových systémoch umelej inteligencie, ktoré sa majú zaznamenávať/dokumentovať podľa aktu o umelej inteligencii. Okrem toho poskytnú vyvrátiteľné domnienky osobám, ktoré požadujú náhradu škody spôsobenej systémami umelej inteligencie, zmiernenie dôkazného bremena a šancu uspieť s opodstatnenými nárokmi na náhradu škody.

Tieto nástroje nie sú nové; možno ich nájsť vo vnútroštátnych legislatívnych systémoch. Preto tieto vnútroštátne nástroje predstavujú užitočné referenčné body na riešenie problémov s umelou inteligenciou v oblasti existujúcich pravidiel zodpovednosti takým spôsobom, ktorý čo najmenej zasahuje do jednotlivých vnútroštátnych právnych systémov.

K rozsiahlejším zmenám, akými sú prenesenie dôkazného bremena alebo nevyvrátiteľná domnienka, sa vyjadrili podniky pri konzultáciách negatívne. Cielené opatrenia na zmiernenie dôkazného bremena vo forme vyvrátiteľných domnienok boli vybraté ako pragmatické a vhodné nástroje na pomoc obetiam pri znášaní dôkazného bremena najcielenejším a najprimeranejším možným spôsobom.

V článku 1 sa uvádza predmet úpravy a rozsah pôsobnosti tejto smernice: mimozmluvné občianskoprávne nároky na náhradu škody spôsobenej systémom umelej inteligencie, ak sa takéto nároky uplatňujú v rámci systémov subjektívnej zodpovednosti. Znamená to konkrétne systémy, v rámci ktorých sa rieši zákonná povinnosť nahradiť škodu spôsobenú zámerne, z nedbanlivosti alebo opomenutia. Opatrenia uvedené v tejto smernici možno bez problémov začleniť do existujúcich systémov občianskoprávnej zodpovednosti, keďže zohľadňujú prístup, ktorým sa nemení vymedzenie základných pojmov ako „pochybenie“ alebo „škoda“ vzhľadom na to, že význam týchto pojmov sa v jednotlivých členských štátoch do veľkej miery líši. Preto táto smernica okrem predpokladov, na ktorých je založená, nemá vplyv na pravidlá Únie ani vnútroštátne pravidlá určujúce napríklad to, ktorá strana nesie dôkazné bremeno, aká miera istoty sa vyžaduje pri štandarde dokazovania alebo ako sa vymedzuje pochybenie.

Okrem toho táto smernica nemá vplyv na existujúce pravidlá, ktorými sa regulujú podmienky zodpovednosti v sektore dopravy a podmienky stanovené v akte o digitálnych službách.

Hoci sa táto smernica neuplatňuje na trestnú zodpovednosť, môže sa uplatňovať v oblasti zodpovednosti štátu. Na štátne orgány sa vzťahujú aj ustanovenia aktu o umelej inteligencii, v ktorých je štát predmetom povinností.

Smernica sa neuplatňuje retroaktívne, ale len na nároky na náhradu škody, ktorá vznikla od dátumu jej transpozície.

Návrh tejto smernice bol prijatý spoločne s návrhom revízie smernice 85/374/EHS o zodpovednosti za výrobky, a to v balíku, ktorého cieľom je prispôsobiť pravidlá zodpovednosti digitálnemu veku a umelej inteligencii, čím sa zabezpečí potrebné zosúladenie medzi týmito dvomi doplnkovými právnymi nástrojmi.

2.Vymedzenie pojmov (článok 2)

Vymedzenie pojmov v článku 2 vychádza z vymedzenia pojmov v akte o umelej inteligencii, čím sa zabezpečuje jednotnosť.

V článku 2 ods. 6 písm. b) sa stanovuje, že nárok na náhradu škody si môže uplatniť nielen poškodená osoba, ale aj akékoľvek osoby, ktorým boli postúpené alebo na ktoré boli subrogované práva poškodenej osoby. Subrogácia je predpoklad tretej strany (napríklad poisťovne) týkajúci sa vymáhateľného práva inej strany na výber dlžnej sumy alebo náhradu škody. Jedna osoba má preto nárok na vymáhanie práv inej osoby vo svoj prospech. Subrogácia by sa vzťahovala aj na dedičov zosnulej obete.

Okrem toho sa v článku 2 ods. 6 písm. c) stanovuje, že žalobu o náhradu škody môže v súlade s právom Únie alebo vnútroštátnym právom podať aj osoba konajúca v mene jednej alebo viacerých poškodených strán. Cieľom tohto ustanovenia je poskytnúť osobám poškodeným systémom umelej inteligencie viac možností na to, aby ich nároky posúdil súd, a to aj v prípadoch, keď sa môže podanie jednotlivých žalôb javiť príliš nákladné alebo príliš ťažkopádne alebo keď môžu spoločné žaloby viesť k zníženiu nákladov. V záujme poskytnutia obetiam škody spôsobenej systémami umelej inteligencie možnosť uplatniť si svoje práva podľa tejto smernice prostredníctvom žalôb v zastúpení sa článkom 6 mení príloha I k smernici (EÚ) 2020/1828.

3.Poskytovanie dôkazov (článok 3)

Cieľom tejto smernice je poskytnúť osobám, ktoré požadujú náhradu škody spôsobenej vysokorizikovými systémami umelej inteligencie, účinné prostriedky na identifikovanie potenciálne zodpovedných osôb a relevantných dôkazov na podloženie nároku. Zároveň slúžia takéto prostriedky na to, aby sa vylúčili nesprávne identifikované potenciálne žalované osoby, čím sa šetrí čas aj náklady zainteresovaných strán a znižuje zaťaženosť súdov.

Vzhľadom na to sa v článku 3 ods. 1 smernice stanovuje, že súd môže nariadiť poskytnutie relevantných dôkazov o konkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu. Žiadosti o predloženie dôkazov sú adresované poskytovateľovi systému umelej inteligencie, osobe, na ktorú sa vzťahujú povinnosti poskytovateľa, stanovenej v článku 24 alebo článku 28 ods. 1 aktu o umelej inteligencii, alebo používateľovi podľa aktu o umelej inteligencii. Žiadosti by mali byť podložené skutočnosťami a dôkazmi dostatočnými na stanovenie dôveryhodnosti zvažovaného nároku na náhradu škody, pričom adresáti by mali mať k dispozícii požadované dôkazy. Žiadosti nemôžu byť adresované stranám, ktoré nemajú žiadne povinnosti podľa aktu o umelej inteligencii, a preto nemajú prístup k dôkazom.

Podľa článku 3 ods. 2 môže navrhovateľ požiadať o poskytnutie dôkazov poskytovateľov alebo používateľov, ktorí nie sú žalovanými, iba vtedy, ak boli všetky primerané pokusy o získanie dôkazov od žalovaného neúspešné.

S cieľom zabezpečiť účinnosť súdnych prostriedkov sa v článku 3 ods. 3 smernice stanovuje, že súd môže nariadiť aj zachovanie takýchto dôkazov.

Ako sa stanovuje v článku 3 ods. 4 prvom pododseku, súd môže nariadiť takéto poskytnutie iba v rozsahu potrebnom na odôvodnenie nároku, keďže dané informácie môžu predstavovať kritické dôkazy pre nárok poškodenej osoby v prípade škody spôsobenej pričinením systémov umelej inteligencie.

Obmedzením tejto povinnosti poskytnutia alebo zachovania iba na nevyhnutné a primerané dôkazy sa v článku 3 ods. 4 prvom pododseku zamýšľa zabezpečiť primeranosť pri poskytovaní dôkazov, t. j. obmedziť poskytovanie na nevyhnutné minimum a zabrániť plošným žiadostiam.

Ďalej je cieľom článku 3 ods. 4 druhého a tretieho pododseku nastoliť rovnováhu medzi právami navrhovateľa a potrebou zabezpečiť, aby sa na poskytované dôkazy vzťahovali záruky ochrany oprávnených záujmov všetkých dotknutých strán, ako napríklad obchodných tajomstiev alebo dôverných informácií.

V tejto súvislosti je cieľom článku 3 ods. 4 štvrtého pododseku zaistiť, aby mala osoba, na ktorú sa vzťahujú, k dispozícii procesnoprávne prostriedky nápravy voči príkazu na poskytnutie alebo zachovanie dôkazov.

V článku 3 ods. 5 sa zavádza domnienka nedodržania povinností náležitej starostlivosti. Ide o procesný nástroj, ktorý je relevantný iba v prípadoch, ak dôsledky nedodržania žiadosti o poskytnutie alebo zachovanie dôkazov znáša skutočný žalovaný v spore o náhradu škody. Žalovaný bude mať právo vyvrátiť túto domnienku. Cieľom opatrenia stanoveného v tomto odseku je podporiť poskytnutie dôkazov, ale aj skrátiť súdne konanie.

4.Domnienka príčinnej súvislostiprípade pochybenia (článok 4)

V oblasti škody spôsobenej systémami umelej inteligencie sa táto smernica zameriava aj na zabezpečenie účinnej základne na uplatňovanie nárokov na náhradu škody v súvislosti s pochybením spočívajúcim v nedostatočnom dodržaní povinnosti náležitej starostlivosti podľa práva Únie alebo vnútroštátneho práva.

Pre navrhovateľov môže byť náročné stanoviť príčinnú súvislosť medzi takýmto nedodržaním a výstupom systému umelej inteligencie alebo nevytvorením výstupu systému umelej inteligencie, ktorý viedol k vzniku príslušnej škody. Preto sa v článku 4 ods. 1 stanovuje cielená vyvrátiteľná domnienka príčinnej súvislosti týkajúca sa tejto príčinnej súvislosti. Takáto domnienka predstavuje najmenej zaťažujúce opatrenie na riešenie potreby spravodlivého odškodnenia obete.

Pochybenie žalovaného musí navrhovateľ dokázať podľa uplatniteľných pravidiel Únie alebo vnútroštátnych pravidiel. Takéto pochybenie možno stanoviť napríklad na základe nedodržania povinnosti náležitej starostlivosti podľa aktu o umelej inteligencii alebo podľa iných pravidiel stanovených na úrovni Únie, akými sú pravidlá, ktorými sa reguluje používanie automatického monitorovania a rozhodovania v rámci práce pre platformy alebo prevádzka bezpilotných lietadiel. Súd môže takéto pochybenie predpokladať aj na základe nedodržania súdneho príkazu na poskytnutie alebo zachovanie dôkazov podľa článku 3 ods. 5. Napriek tomu je vhodné zaviesť domnienku príčinnej súvislosti len pre prípady, keď sa považuje za pravdepodobné, že dané pochybenie ovplyvnilo výstup príslušného systému umelej inteligencie alebo jeho nevytvorenie, čo možno posúdiť na základe celkových okolností prípadu. Zároveň musí navrhovateľ dokázať, že systém umelej inteligencie (t. j. jeho výstup alebo nevytvorenie výstupu) je zodpovedný za vznik škody.

V odsekoch 2 a 3 sa rozlišuje na jednej strane medzi nárokmi uplatnenými voči poskytovateľovi vysokorizikového systému umelej inteligencie alebo voči osobe, na ktorú sa vzťahujú povinnosti poskytovateľa podľa aktu o umelej inteligencii, a medzi nárokmi uplatnenými voči používateľom takýchto systémov na strane druhej. Vzhľadom na to vychádzajú z príslušných ustanovení a relevantných podmienok aktu o umelej inteligencii. V prípade nárokov uplatnených na základe článku 4 ods. 2 sa musí dodržanie povinností uvedených v danom odseku žalovanými posudzovať aj z hľadiska systému riadenia rizík a jeho výsledkov, t. j. opatrení na riadenie rizík, podľa aktu o umelej inteligencii.

Pokiaľ ide o vysokorizikové systémy umelej inteligencie vymedzené v akte o umelej inteligencii, v článku 4 ods. 4 sa stanovuje výnimka z domnienky príčinnej súvislosti, ak žalovaný preukáže, že navrhovateľ má primeraný prístup k dostatočným dôkazom a odborným znalostiam na dokázanie príčinnej súvislosti. Táto možnosť môže motivovať žalovaných, aby dodržali svoje povinnosti v oblasti poskytnutia dôkazov, opatrenia stanovené v akte o umelej inteligencii na zabezpečenie vysokej úrovne transparentnosti umelej inteligencie alebo požiadavky na dokumentovanie a zaznamenávanie.

Pokiaľ ide o systémy umelej inteligencie bez vysokého rizika, v článku 4 ods. 5 sa stanovuje podmienka uplatniteľnosti domnienky príčinnej súvislosti, podľa ktorej musí súd určiť, že je pre navrhovateľa mimoriadne ťažké dokázať príčinnú súvislosť. Takéto ťažkosti sa majú posúdiť na základe vlastností určitých systémov umelej inteligencie, akými sú autonómia a neprehľadnosť, v dôsledku ktorých je vysvetlenie vnútorného fungovania systému umelej inteligencie v praxi veľmi zložité, čo má negatívny vplyv na schopnosť navrhovateľa dokázať príčinnú súvislosť medzi pochybením žalovaného a výstupom umelej inteligencie.

Pokiaľ ide o prípady, keď žalovaný používa systém umelej inteligencie počas osobnej nepracovnej činnosti, v článku 4 ods. 6 sa stanovuje, že domnienka príčinnej súvislosti by sa mala uplatňovať iba vtedy, ak žalovaný závažne zasiahol do podmienok prevádzky systému umelej inteligencie alebo ak bol žalovaný povinný stanoviť podmienky prevádzky systému umelej inteligencie a bol schopný to urobiť, ale neurobil to. Táto podmienka je opodstatnená potrebou nastoliť rovnováhu medzi záujmami poškodených osôb a neprofesionálnych používateľov prostredníctvom vyňatia prípadov, v ktorých neprofesionálni používatelia svojím správaním nezvyšujú riziko, z uplatňovania domnienky príčinnej súvislosti.

A napokon sa v článku 4 ods. 7 stanovuje, že žalovaný má právo na vyvrátenie domnienky príčinnej súvislosti na základe článku 4 ods. 1.

Takéto účinné pravidlá občianskoprávnej zodpovednosti majú aj ďalšiu výhodu, ktorá spočíva v tom, že všetky strany podieľajúce sa na činnostiach spojených so systémami umelej inteligencie ešte viac motivujú k dodržiavaniu povinností, pokiaľ ide o ich očakávané správanie.

5.Hodnoteniecielené preskúmanie (článok 5)

V jednotlivých vnútroštátnych právnych systémoch sa stanovujú rozdielne systémy objektívnej zodpovednosti. Prvky pre takýto systém na úrovni Únie navrhol aj Európsky parlament vo svojom uznesení z vlastnej iniciatívy z 20. októbra 2020. Pozostávali z obmedzeného systému objektívnej zodpovednosti pre určité technológie založené na umelej inteligencii a zo zmiernenia dôkazného bremena v rámci pravidiel subjektívnej zodpovednosti. Z verejných konzultácií vyplynulo aj to, že respondenti uprednostňujú takýto systém (okrem podnikov, ktoré nie sú MSP) bez ohľadu na to, či je spojený s povinným poistením.

V návrhu sa však prihliada aj na rozdiely medzi vnútroštátnymi právnymi tradíciami a skutočnosťou, že druh produktov a služieb vybavených systémami umelej inteligencie, ktoré by mohli mať vplyv na všeobecnú verejnosť a ohroziť dôležité vymáhateľné práva, ako sú napríklad právo na život, zdravie a vlastnícke právo, a preto by sa na ne mal vzťahovať systém objektívnej zodpovednosti, zatiaľ ešte nie sú na trhu všeobecne dostupné.

Zavádza sa program monitorovania, ktorý má Komisii zabezpečiť informácie o incidentoch zapríčinených systémami umelej inteligencie. Pri cielenom preskúmaní sa posúdi, či sú potrebné ďalšie opatrenia, ako napríklad zavedenie systému objektívnej zodpovednosti a/alebo povinného poistenia.

6.Transpozícia (článok 7)

Pri informovaní Komisie o vnútroštátnych transpozičných opatreniach zameraných na dodržanie tejto smernice by mali členské štáty predložiť aj vysvetľujúce dokumenty, v ktorých sa poskytnú dostatočne zrozumiteľné a presné informácie a pre každé ustanovenie tejto smernice sa uvedie vnútroštátne ustanovenie, ktorým sa transponuje. Je to potrebné na to, aby mohla Komisia v prípade každého ustanovenia smernice, ktoré si vyžaduje transpozíciu, identifikovať príslušnú časť vnútroštátnych transpozičných opatrení, ktorými sa vytvára zodpovedajúca právna povinnosť vo vnútroštátnom právnom poriadku, a to bez ohľadu na formu, ktorú si členské štáty vybrali.



2022/0303 (COD)

Návrh

SMERNICA EURÓPSKEHO PARLAMENTU A RADY

o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii
(smernica o zodpovednosti za umelú inteligenciu)

(Text s významom pre EHP)

EURÓPSKY PARLAMENT A RADA EURÓPSKEJ ÚNIE,

so zreteľom na Zmluvu o fungovaní Európskej únie, a najmä na jej článok 114,

so zreteľom na návrh Európskej komisie,

po postúpení návrhu legislatívneho aktu národným parlamentom,

so zreteľom na stanovisko Európskeho hospodárskehosociálneho výboru 29 ,

so zreteľom na stanovisko Výboru regiónov 30 ,

konajúc v súlade s riadnym legislatívnym postupom,

keďže:

(1)Umelá inteligencia je súbor podporných technológií, ktoré môžu prispievaťdosahovaniu najrôznejších prínosovcelom spektre hospodárstvaspoločnosti. Má veľký potenciáloblasti technologického pokrokuumožňuje vznik nových obchodných modelovmnohých sektoroch digitálneho hospodárstva.

(2)Umelá inteligencia môže zároveňzávislosti od okolností týkajúcich sa jej konkrétneho uplatňovaniapoužívania vytvárať rizikápoškodzovať záujmypráva, ktoré sú chránené právom Únie alebo vnútroštátnym právom. Používanie umelej inteligencie môže mať napríklad nepriaznivý vplyv na množstvo základných práv vrátane práva na životfyzickú integritu, ako aj na dodržiavanie nediskriminácierovnakého zaobchádzania.nariadení Európskeho parlamentuRady (EÚ) …/… [aktumelej inteligencii] 31 sa stanovujú požiadavky zamerané na zníženie rizík pre bezpečnosťzákladné práva, pričomďalších právnych nástrojoch Únie sa regulujú všeobecné 32 sektorové pravidlá týkajúce sa bezpečnosti výrobkov, ktoré sú uplatniteľné aj na strojnícke výrobky 33 rádiové zariadenia 34 založené na umelej inteligencii. Hoci sa týmito požiadavkami zameranými na zníženie rizík pre bezpečnosťzákladné práva zamýšľa predchádzať rizikám, ako aj monitorovaťriešiť ich,tým zmierňovať obavy spoločnosti, neposkytujú individuálnu úľavu tým, ktorí utrpeli škodu spôsobenú umelou inteligenciou. Existujúce požiadavky sa týkajú najmä povolení, kontrol, monitorovaniasprávnych sankciísúvislosti so systémami umelej inteligencie, ktorých cieľom je predchádzať škodám. Netýkajú sa náhrady poškodenej osobe za škodu spôsobenú výstupom alebo nevytvorením výstupu systémom umelej inteligencie.

(3)Keď poškodená osoba požaduje náhradu vzniknutej škody, podľa všeobecných pravidiel členských štátovoblasti subjektívnej zodpovednosti sa vyžaduje, aby dokázala zanedbanie, zámerné poškodzujúce konanie alebo opomenutie („pochybenie“) osoby potenciálne zodpovednej za danú škodu, ako aj príčinnú súvislosť medzi daným pochybenímpríslušnou škodou. Ak je však medzi konaním alebo opomenutím osobyškodou medzičlánkom umelá inteligencia, osobitné vlastnosti systémov umelej inteligencie, akými sú neprehľadnosť, autonómne správaniezložitosť, môžu nesmierne sťažovať, ak nie znemožňovať, poškodenej osobe splnenie požiadavky na dôkazné bremeno. Konkrétne môže byť mimoriadne náročné dokázať, že konkrétny vstup, za ktorý zodpovedá potenciálne zodpovedná osoba, spôsobil konkrétny výstup systému umelej inteligencie, ktorý viedolvzniku predmetnej škody.

(4)V takýchto prípadoch môže byť úroveň nápravy umožnená vo vnútroštátnych pravidlách občianskoprávnej zodpovednosti nižšia akoprípadoch, keď škodu zapríčinili iné technológie ako umelá inteligencia. Táto nedostatočná náhrada škody môže prispievaťnižšej miere spoločenskej akceptácie umelej inteligencienižšej dôvereproduktyslužby založené na umelej inteligencii.

(5)V záujme využitia hospodárskychspoločenských prínosov umelej inteligenciepodpory prechodu na digitálne hospodárstvo je potrebné cielene prispôsobiť určité vnútroštátne pravidlá občianskoprávnej zodpovednosti uvedeným osobitným vlastnostiam určitých systémov umelej inteligencie. Týmito prispôsobeniami by sa malo prispieťdôvere spoločnostispotrebiteľov,tým ajpodpore zavádzania umelej inteligencie. Týmito prispôsobeniami by sa mala aj zachovávať dôverajustičný systém, pretože sa nimi obetiam zabezpečuje rovnaká účinná náhrada škody spôsobenej umelou inteligenciou akoprípade škody spôsobenej inými technológiami.

(6)Zainteresované strany (poškodené osoby, ktorým vznikla škoda, potenciálne zodpovedné osoby, poisťovne) musia znášať právnu neistotu, pretože nevedia, ako vnútroštátne súdyjednotlivých prípadoch uplatnia existujúce pravidlá zodpovednosti vzhľadom na osobitné výzvy umelej inteligencie, aby dosiahli spravodlivý výsledok. Ak sa neprijmú opatrenia na úrovni Únie, prinajmenšom niektoré členské štáty pravdepodobne prispôsobia svoje pravidlá občianskoprávnej zodpovednosti, aby vyriešili nedostatočnú náhradu škodyprávnu neistotu spojenúosobitnými vlastnosťami určitých systémov umelej inteligencie. Tým by sa vytvorila právna fragmentáciaprekážky vnútorného trhu pre podniky, ktoré vyvíjajú alebo poskytujú inovačné produktyslužby založené na umelej inteligencii. Najviac by to postihlo maléstredné podniky.

(7)Cieľom tejto smernice je prispieťriadnemu fungovaniu vnútorného trhu tým, že sa ňou harmonizujú určité vnútroštátne pravidlá nezmluvnej subjektívnej zodpovednosticieľom zabezpečiť, aby osoby, ktoré si uplatňujú nárok na náhradu škody spôsobenej systémom umelej inteligencie, mohli využívať rovnakú úroveň ochrany ako osoby, ktoré si uplatňujú nárok na náhradu škody spôsobenej bez pričinenia systému umelej inteligencie. Tento cieľ nie je možné uspokojivo dosiahnuť na úrovni členských štátov, pretože príslušné prekážky vnútorného trhu sú spojenérizikom jednostrannýchfragmentovaných regulačných opatrení na vnútroštátnej úrovni. Vzhľadom na povahu produktovslužieb, ktoré patria do rozsahu pôsobnosti tejto smernice, je to osobitne významnécezhraničných situáciách.

(8)Cieľ zabezpečenia právnej istotyzabránenia nedostatočnej náhrade škodyprípadoch, ktoré súvisia so systémami umelej inteligencie, teda možno lepšie dosiahnuť na úrovni Únie. Únia preto môže prijať opatreniasúlade so zásadou subsidiarity podľa článku 5 ZEÚ.súlade so zásadou proporcionality podľa uvedeného článku táto smernica neprekračuje rámec nevyhnutný na dosiahnutie tohto cieľa.

(9)Preto je potrebné cielene harmonizovať osobitné aspekty pravidiel subjektívnej zodpovednosti na úrovni Únie. Takouto harmonizáciou by sa mala zvýšiť právna istotavytvoriť rovnaké podmienky pre systémy umelej inteligencie,tým aj zlepšiť fungovanie vnútorného trhu, pokiaľ idevytváraniešírenie produktovslužieb založených na umelej inteligencii.

(10)V záujme zabezpečenia proporcionality je vhodné cielene harmonizovať iba tie pravidlá subjektívnej zodpovednosti, ktorými sa riadia požiadavky na dôkazné bremeno osôb, ktoré si uplatňujú nárok na náhradu škody spôsobenej systémami umelej inteligencie. Touto smernicou by sa nemali harmonizovať všeobecné aspekty občianskoprávnej zodpovednosti, ktoré sa regulujú odlišne vo vnútroštátnych pravidlách občianskoprávnej zodpovednosti, akými sú vymedzenie pochybenia alebo príčinnej súvislosti, rozličné druhy škody, za ktorú si možno uplatňovať náhradu, rozdelenie zodpovednosti medzi viacerých páchateľov, napomáhanie, výpočet škôd alebo premlčacie lehoty.

(11)Právne predpisy členských štátov týkajúce sa zodpovednosti výrobcov za škodu spôsobenúdôsledku chyby ich produktov sa už harmonizujú na úrovni Úniesmernici Rady 85/374/EHS 35 . Uvedené právne predpisy však nemajú vplyv na pravidlá členských štátovoblasti zmluvnej alebo mimozmluvnej zodpovednosti, ako je napríklad záruka, pochybenie alebo objektívna zodpovednosť, pokiaľ ideiné príčiny ako chybu výrobku. Keďže aj revízia smernice Rady 85/374/EHS má za cieľ objasneniezabezpečenie toho, aby si poškodená osoba mohla uplatniť nárok na náhradu škody spôsobenej chybnými produktmi založenými na umelej inteligencii, malo by sa objasniť, že ustanovenia tejto smernice nemajú vplyv na žiadne práva poškodenej osoby podľa vnútroštátnych pravidiel, ktorými sa vykonáva smernica 85/374/EHS. Okrem tohooblasti dopravy by touto smernicou nemalo byť dotknuté právo Únie upravujúce zodpovednosť prevádzkovateľov dopravy.

(12)V [ aktedigitálnych službách 36 ] sa plne harmonizujú pravidlá uplatniteľné na poskytovateľov sprostredkovateľských služieb na vnútornom trhu, ktoré sa týkajú spoločenských rizík vyplývajúcich zo služieb ponúkaných uvedenými poskytovateľmi,to aj pokiaľ idesystémy umelej inteligencie, ktoré používajú. Táto smernica nemá vplyv na ustanovenia [aktudigitálnych službách], ktorými sa zabezpečuje komplexnýplne harmonizovaný rámec povinností náležitej starostlivosti pri algoritmickom rozhodovaní poskytovateľov hostingových služieb, ako aj výnimka zo zodpovednosti za šírenie nelegálneho obsahu nahrávaného prijímateľmi ich služieb, ak sú splnené podmienky uvedeného nariadenia.

(13)Okrem domnienoknej stanovených sa touto smernicou neharmonizujú vnútroštátne právne predpisy týkajúce sa toho, ktorá strana nesie dôkazné bremeno, alebo toho, aká miera istoty sa vyžaduje pri štandarde dokazovania.

(14)V tejto smernici by sa mal sledovať prístup minimálnej harmonizácie. Takýto prístup umožňuje navrhovateľomprípadoch škody spôsobenej systémami umelej inteligencie využiť priaznivejšie pravidlá vnútroštátneho práva. Vo vnútroštátnych právnych predpisoch by tak bolo možné zachovať napríklad prenesenie dôkazného bremenarámci vnútroštátnych systémov subjektívnej zodpovednosti alebo vnútroštátnych systémov objektívnej zodpovednosti, ktorých už je vo vnútroštátnych právnych predpisoch veľké množstvo,možno ich uplatniť na škodu spôsobenú systémami umelej inteligencie.

(15)Zabezpečiť by sa mala aj jednotnosť[aktomumelej inteligencii]. Preto je vhodné, aby satejto smernici používalo rovnaké vymedzenie pojmov týkajúcich sa systémov umelej inteligencie, ako aj ich poskytovateľovpoužívateľov. Okrem toho by sa táto smernica mala týkať iba náhrady škody, ktorá bola spôsobená výstupom alebo nevytvorením výstupu systémom umelej inteligenciedôsledku pochybenia osoby, napríklad poskytovateľa alebo používateľa podľa [aktuumelej inteligencii]. Nie je potrebné, aby sa týkala nárokov na náhradu škody spôsobenej ľudským posúdením, na základe ktorého dôjde ku konaniu alebo opomenutiu človeka, zatiaľ čo systém umelej inteligencie poskytol len informácie alebo rady, na ktoré prihliadol príslušný ľudský činiteľ.druhom prípade možno spojiť škoduľudským konaním alebo opomenutím, keďže výstup systému umelej inteligencie nie je medzičlánkom medzi ľudským konaním alebo opomenutímškodou,preto nie je stanovenie príčinnej súvislosti zložitejšie akosituáciách,ktorých systém umelej inteligencie nezohráva žiadnu úlohu.

(16)Prístupinformáciámkonkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu, predstavuje významný faktor na posúdenie toho, či je možné nárokovať si náhradu škodypodložiť nároky na náhradu škody. Okrem toho sa pre vysokorizikové systémy umelej inteligencie[akteumelej inteligencii] stanovujú konkrétne požiadavky na dokumentáciu, informovanielogovanie, nie však právo poškodenej osoby na prístuptakýmto informáciám. Preto je vhodné stanoviť pravidlá poskytovania relevantných dôkazov osobami, ktoré ich majúdispozícii, na účely určenia zodpovednosti. Tým by sa mala takisto zabezpečiť ďalšia motivácia na dodržiavanie príslušných požiadaviek stanovených[akteumelej inteligencii] týkajúcich sa dokumentovania alebo zaznamenávania relevantných informácií.

(17)Veľké množstvo ľudí, ktorí sa zvyčajne podieľajú na koncipovaní, vývoji, zavádzaníprevádzke vysokorizikových systémov umelej inteligencie, sťažuje poškodeným osobám identifikáciu osoby potenciálne zodpovednej za spôsobenú škodudokázanie podmienok na uplatnenie nároku na náhradu škody.záujme toho, aby sa poškodeným osobám umožnilo zistiť, či je nárok na náhradu škody dostatočne podložený, je vhodné priznať potenciálnym navrhovateľom právo požiadať súdposkytnutie relevantných dôkazov pred uplatnením nároku na náhradu škody. Takéto poskytnutie dôkazov by sa malo nariadiť len vtedy, ak potenciálny navrhovateľ predloží skutočnostiinformácie dostatočné na podporenie dôveryhodnosti nároku na náhradu škodypo tom, ako požiadal poskytovateľa, osobu, na ktorú sa vzťahujú povinnosti poskytovateľa, alebo používateľaposkytnutie dôkazov, ktoré majúdispozíciikonkrétnych vysokorizikových systémoch umelej inteligencie, ktoré údajne zavinili škodu,jeho požiadavka bola zamietnutá. Nariadenie poskytnutia dôkazov by malo viesťzníženiu počtu nepotrebných súdnych sporovnákladov možných účastníkov na žaloby, ktoré sú neopodstatnené alebo budú pravdepodobne neúspešné. Odmietnutie poskytovateľa, osoby, na ktorú sa vzťahujú povinnosti poskytovateľa, alebo používateľa pred žiadosťouposkytnutie dôkazov podanou na súd by sa nemalo automaticky považovať za domnienku nedodržania relevantných povinností náležitej starostlivosti zo strany osoby, ktorá odmietne dôkazy poskytnúť.

(18)Obmedzenie poskytovania dôkazovvysokorizikových systémoch umelej inteligencie jesúlade[aktomumelej inteligencii],ktorom sa prevádzkovateľom zapojeným do koncipovania, vývojazavádzania vysokorizikových systémov umelej inteligencie ukladajú určité konkrétne povinnostioblasti dokumentovania, vedenia záznamovinformovania. Týmto súladom sa zabezpečuje aj potrebná proporcionalita, pretože sa zabráni tomu, aby prevádzkovatelia systémov umelej inteligencie, ktorí predstavujú nižšie riziko alebo nepredstavujú žiadne riziko, museli dokumentovať informácie na podobnej úrovni, aká sa vyžadujeprípade vysokorizikových systémov umelej inteligencie podľa [aktuumelej inteligencii].

(19)Vnútroštátne súdy by mali mať možnosťpriebehu občianskych súdnych konaní nariadiť osobám, ktoré už majú podľa [aktuumelej inteligencii] povinnosť dokumentovať alebo zaznamenávať informácie, či už ideposkytovateľov, osobyrovnakými povinnosťami ako poskytovatelia alebo používateľov systému umelej inteligencie, bez ohľadu na to, či idežalovaných alebo tretie strany nároku, poskytnutie alebo zachovanie relevantných dôkazovsúvislosti so škodou spôsobenou vysokorizikovými systémami umelej inteligencie. Mohli by nastať situácie,ktorých majú dôkazy relevantné pre prípaddispozícii subjekty, ktoré nie sú stranami konanianáhradu škody, ale majú povinnosť dokumentovať alebo zaznamenávať takéto dôkazy podľa [aktuumelej inteligencii]. Preto je potrebné stanoviť podmienky, za ktorých môže byť takýmto tretím stranám nároku nariadené poskytnúť relevantné dôkazy.

(20)V záujme zachovania rovnováhy medzi záujmami strán zapojených do konanianáhradu škodydotknutých tretích strán by mali súdy nariadiť poskytnutie dôkazov len vtedy, ak je to potrebnéprimerané na podloženie nároku alebo potenciálneho nároku na náhradu škody. Vzhľadom na to by sa mali poskytnúť len tie dôkazy, ktoré sú nevyhnutné na prijatie rozhodnutiapríslušnom nároku na náhradu škody, napríklad iba časti relevantných záznamov alebo súborov údajov potrebné na dokázanie nedodržania požiadavky stanovenej[akteumelej inteligencii].záujme zabezpečenia primeranosti takýchto opatrení na poskytnutie alebo zachovanie dôkazov by mali mať vnútroštátne súdy účinné prostriedky na zaistenie oprávnených záujmov všetkých zainteresovaných strán, napríklad na ochranu obchodných tajomstievzmysle smernice Európskeho parlamentuRady (EÚ) 2016/943 37 dôverných informácií, ako sú informácie súvisiaceverejnou alebo národnou bezpečnosťou.prípade obchodných tajomstiev alebo údajných obchodných tajomstiev, ktoré súd posúdil ako dôvernézmysle smernice (EÚ) 2016/943, by mali byť vnútroštátne súdy splnomocnené prijímať osobitné opatrenia na zabezpečenie dôvernosti obchodných tajomstiev počas konaní aj po nich, pričom by mali zároveň dosiahnuť spravodlivúprimeranú rovnováhu medzi záujmom vlastníka obchodného tajomstvazachovanie tajomstvazáujmom poškodenej osoby. Malo by to zahŕňať opatrenia na obmedzenie prístupudokumentom obsahujúcim obchodné tajomstváprístupuvypočutiam alebo dokumentomich prepisom na obmedzený počet ľudí. Vnútroštátne súdy by mali pri rozhodovanítakýchto opatreniach zohľadniť potrebu zaistenia práva na účinný prostriedok nápravyna spravodlivý proces, oprávnené záujmy stránprípadne tretích strán, ako aj možnú ujmu spôsobenú ktorejkoľvek zo strán, prípadne ktorejkoľvektretích strán,dôsledku schválenia alebo zamietnutia takýchto opatrení. Okrem tohocieľom zabezpečiť primerané uplatňovanie opatreniaposkytnutí dôkazov na tretie stranykonanínáhradu škody by mali vnútroštátne súdy nariadiť tretím stranám poskytnutie dôkazov len vtedy, ak dôkazy nemožno získať od žalovaného.

(21)Hoci vnútroštátne súdy majú prostriedky na presadenie svojich príkazov na poskytnutie dôkazov prostredníctvom rôznych opatrení, každé takéto opatrenie presadzovania práva môže oneskoriť nároky na náhradu škody,tým účastníkom predražovať konanie. Postihnutým osobám môžu takéto oneskoreniadodatočné výdavky sťažovať využitie účinného súdneho prostriedku nápravy. Preto, ak žalovanýkonanínáhradu škody odmietne na príkaz súdu poskytnúť dôkazy, ktoré mádispozícii, je vhodné stanoviť domnienku nedodržania povinností náležitej starostlivosti, ktoré sa malo danými dôkazmi preukázať. Vďaka tejto vyvrátiteľnej domnienke sa skráti trvanie súdneho procesuzabezpečí efektívnejšie súdne konanie. Žalovaný by mal mať možnosť vyvrátiť túto domnienku predložením dôkazovopaku.

(22)V záujme riešenia ťažkostí pri dokazovaní, že konkrétny vstup, za ktorý zodpovedá potenciálne zodpovedná osoba, spôsobil konkrétny výstup systému umelej inteligencie, ktorý viedolvzniku predmetnej škody, je vhodné za určitých podmienok stanoviť domnienku príčinnej súvislosti. Hocikonanínáhradu škody na základe subjektívnej zodpovednosti navrhovateľ zvyčajne musí dokázať škodu, ľudské konanie alebo opomenutie predstavujúce pochybenie žalovanéhopríčinnú súvislosť medzi nimi, touto smernicou sa neharmonizujú podmienky, za ktorých vnútroštátny súd stanovuje pochybenie. Tie sa naďalej riadia rozhodným vnútroštátnym právom, prípadne harmonizovaným rozhodným právom Únie. Podobne sa touto smernicou neharmonizujú podmienky súvisiace so škodou, napríklad, aké škody sa nahrádzajú, keďže tieto sa takisto regulujú rozhodným vnútroštátnym právomrozhodným právom Únie. Na uplatnenie domnienky príčinnej súvislosti podľa tejto smernice je potrebné stanoviť pochybenie žalovanéhopodobe ľudského konania alebo opomenutia, ktorým sa nesplnila povinnosť náležitej starostlivosti podľa práva Únie alebo vnútroštátneho práva priamo zameraná na ochranu pred škodou, ktorá vznikla. Táto domnienka sa preto môže uplatňovať napríkladkonanínáhradu škody za fyzické zranenie, keď súd skonštatuje pochybenie žalovaného za nedodržanie návodu na používanie, ktorého cieľom je zabrániť tomu, aby fyzickým osobám vznikla ujma. Nedodržanie povinností náležitej starostlivosti, ktoré neboli priamo určené na ochranu pred vzniknutou škodou, nevedieuplatneniu tejto domnienky, napríklad ak poskytovateľ nepredloží požadovanú dokumentáciu príslušným orgánom, neviedlo by touplatneniu domnienkykonaniachnáhradu škody spôsobenej fyzickým zranením. Takisto by malo byť potrebné stanoviť, že na základe okolností prípadu možno považovať za dostatočne pravdepodobné, že pochybenie ovplyvnilo výstup systému umelej inteligencie alebo viedlonevytvoreniu výstupu systému umelej inteligencie. A napokon by sa malo od navrhovateľa stále požadovať, aby dokázal, že škoda vznikladôsledku výstupu alebo nevytvorenia výstupu.

(23)Takéto pochybenie možno stanoviť na základe nedodržania pravidiel Únie, ktorými sa osobitne regulujú vysokorizikové systémy umelej inteligencie, ako sú požiadavky zavedené pre určité vysokorizikové systémy umelej inteligencie[akteumelej inteligencii], požiadavky, ktoré môžu byť zavedenébudúcich sektorových právnych predpisoch týkajúcich sa iných vysokorizikových systémov umelej inteligencie podľa [článku 2 ods. 2 aktuumelej inteligencii], alebo povinnosti náležitej starostlivosti, ktoré súvisiaurčitými činnosťamiktoré sú uplatniteľné bez ohľadu na to, či sa pri takejto činnosti využíva umelá inteligencia. Zároveň sa touto smernicou nevytvárajú ani neharmonizujú požiadavky ani zodpovednosťprípade subjektov, ktorých činnosť je regulovanáuvedených právnych aktoch, čiže sa nevytvárajú nové nároky na náhradu škody. Stanovenie porušenia požiadavky, ktoré vediepochybeniu, sa vykoná podľa ustanovení uvedených uplatniteľných pravidiel práva Únie, keďžetejto smernici sa nezavádzajú nové požiadavky ani nemá vplyv na existujúce požiadavky. Táto smernica napríklad nemá vplyv na výnimku týkajúcu sa zodpovednosti poskytovateľov sprostredkovateľských služiebpovinností náležitej starostlivosti, ktoré sa na nich vzťahujú podľa [aktudigitálnych službách]. Podobne sa aj dodržanie požiadaviek uložených online platformámoblasti bránenia nepovolenému verejnému prenosu diel chránených autorským právom stanovuje na základe smernice (EÚ) 2019/790autorskom práveprávach súvisiacichautorským právom na digitálnom jednotnom trhuiných relevantných právnych predpisov Únieautorskom práve.

(24)V oblastiach, ktoré nie sú harmonizované právom Únie, sa naďalej uplatňuje vnútroštátne právopochybenie sa stanovuje podľa rozhodného vnútroštátneho práva. Všetky vnútroštátne systémy zodpovednosti zahŕňajú povinnosti náležitej starostlivostiúrovňou správania rozumného človeka, ktorými sa zaisťuje aj bezpečná prevádzka systémov umelej inteligenciezáujme predchádzania škodám uznaných zákonných záujmov.rámci takýchto povinností náležitej starostlivosti by sa od používateľov systémov umelej inteligencie mohlo napríklad vyžadovať, aby si pre určité úlohy vybrali konkrétny systém umelej inteligenciekonkrétnymi vlastnosťami alebo vylúčili určité segmenty obyvateľstvamožnosti interakciekonkrétnym systémom umelej inteligencie. Vo vnútroštátnom práve môžu byť takisto zavedené konkrétne povinnosti zamerané na predchádzanie rizikámprípade určitých činností, ktoré sú uplatniteľné bez ohľadu na to, či sa na túto činnosť používa umelá inteligencia, ako napríklad dopravné predpisy alebo povinnosti konkrétne navrhnuté pre systémy umelej inteligencie alebo dodatočné vnútroštátne požiadavky na používateľov vysokorizikových systémov umelej inteligencie podľa článku 29 ods. 2 [aktuumelej inteligencii].tejto smernici sa nezavádzajú nové požiadavky ani nemá vplyv na podmienky stanovenia pochybeniaprípade porušenia takýchto požiadaviek.

(25)Aj keď sa stanoví pochybenie spočívajúcenedodržaní povinnosti náležitej starostlivosti, ktorá je priamo určená na ochranu pred vzniknutou škodou, každé pochybenie by nemalo viesťuplatneniu vyvrátiteľnej domnienky spojenejvýstupom umelej inteligencie. Takáto domnienka by sa mala uplatniť len vtedy, ak na základe okolností, za ktorých škoda vznikla, možno považovať za dostatočne pravdepodobné, že takéto pochybenie ovplyvnilo výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie, čo malo za následok vznik škody. Za primerane pravdepodobné možno napríklad považovať, ak pochybenie ovplyvnilo výstup alebo nevytvorenie výstupu, pričom toto pochybenie pozostávaporušenia povinnosti náležitej starostlivosti týkajúcej sa obmedzenia perimetra prevádzky systému umelej inteligencie, pričom škoda vznikla mimo perimetra prevádzky. Na druhej strane porušenie požiadavky na predloženie určitých dokumentov alebo zaregistrovaniedanom orgáne, hoci sa môže predpokladaťrámci konkrétnej činnosti alebo aj výslovne uplatňovať na prevádzku systému umelej inteligencie, nemožno považovať za také, ktorédostatočnou pravdepodobnosťou ovplyvnilo výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie.

(26)Táto smernica sa týka pochybenia, ktoré spočívanedodržaní určitých uvedených požiadaviek stanovenýchkapitolách 23 [aktuumelej inteligencii] poskytovateľompoužívateľom vysokorizikových systémov umelej inteligencie, ktoré môže za určitých okolností viesťdomnienke príčinnej súvislosti.akteumelej inteligencii sa stanovuje úplná harmonizácia požiadaviek na systémy umelej inteligencie, ak saňom výslovne nestanovuje inak. Harmonizujú sa ním osobitné požiadavky na vysokorizikové systémy umelej inteligencie. Na účely nárokov na náhradu škody,prípade ktorých sa podľa tejto smernice uplatňuje domnienka príčinnej súvislosti, sa preto potenciálne pochybenie poskytovateľov alebo osôb, na ktoré sa vzťahujú povinnosti poskytovateľa podľa [aktuumelej inteligencii], stanovuje iba na základe nedodržania takýchto požiadaviek. Vzhľadom na to môže byťpraxi pre navrhovateľa zložité preukázať takéto nedodržanie, ak je žalovaný poskytovateľom systému umelej inteligencie,plnesúladelogikou [aktuumelej inteligencii] by sa malitejto smernici stanovovať aj kroky vykonávané poskytovateľomrámci systému riadenia rizikavýsledky systému riadenia rizika, t. j. rozhodnutie prijať alebo neprijať určité opatrenia na riadenie rizika by sa malo zohľadniť pri určovaní toho, či poskytovateľ splnil príslušné požiadavky podľa aktuumelej inteligencii uvedenétejto smernici. Systém riadenia rizika zavedený poskytovateľom podľa [aktuumelej inteligencii] predstavuje nepretržitý opakovaný proces počas celého životného cyklu vysokorizikového systému umelej inteligencie, pri ktorom poskytovateľ zabezpečuje súladpovinnými požiadavkami na zmiernenie rizík,preto môže tvoriť užitočný prvok na účely posúdenia tohto súladu. Táto smernica sa týka aj prípadov pochybenia používateľov, ak takéto pochybenie spočívanedodržaní určitých konkrétnych požiadaviek stanovených[akteumelej inteligencii]. Okrem toho možno pochybenie používateľov vysokorizikových systémov umelej inteligencie stanoviť podľa článku 29 ods. 2 [aktuumelej inteligencii] na základe nedodržania iných povinností náležitej starostlivosti stanovenýchpráve Únie alebo vo vnútroštátnom práve.

(27)Hoci by osobitné vlastnosti určitých systémov umelej inteligencie, akými sú autonómianeprehľadnosť, mohli navrhovateľovi mimoriadne sťažovať splnenie požiadavky na dôkazné bremeno, mohli by nastať situácie,ktorých takéto ťažkosti neexistujú, pretože navrhovateľ by mohol maťdispozícii dostatočné dôkazyodborné znalosti na dokázanie príčinnej súvislosti.súvislostivysokorizikovými systémami umelej inteligencie by tento prípad mohol nastať, keď by navrhovateľ mohol získať primeraný prístupdostatočným dôkazomodborným znalostiam na základe požiadaviek na dokumentáciulogovanie podľa [aktuumelej inteligencii].takých situáciách by súd nemal domnienku uplatniť.

(28)Domnienka príčinnej súvislosti by sa mohla uplatniť aj na systémy umelej inteligencie, ktoré nie sú vysokorizikovými systémami umelej inteligencie, pretože navrhovateľ by mohol mať mimoriadne ťažkosti pri dokazovaní. Takéto ťažkosti by sa mohli posúdiť napríklad na základe vlastností určitých systémov umelej inteligencie, akými sú autonómianeprehľadnosť,dôsledku ktorých je vysvetlenie vnútorného fungovania systému umelej inteligenciepraxi veľmi zložité, čo má negatívny vplyv na schopnosť navrhovateľa dokázať príčinnú súvislosť medzi pochybením žalovanéhovýstupom umelej inteligencie. Vnútroštátny súd by mal domnienku uplatniť, ak je pre navrhovateľa mimoriadne ťažké dokázať príčinnú súvislosť, keďže sa vyžaduje vysvetlenie toho, ako bol systém umelej inteligencie riadený ľudským konaním alebo opomenutím, ktoré viedlopochybeniu pri výstupe alebonevytvoreniu výstupu,dôsledku čoho vznikla škoda. Od navrhovateľa by sa však nemalo vyžadovať vysvetlenie vlastností dotknutého systému umelej inteligencie ani toho, ako tieto vlastnosti sťažujú stanovenie príčinnej súvislosti.

(29)Uplatnením domnienky príčinnej súvislosti sa má poškodenej osobe zabezpečiť podobná úroveň ochrany akosituáciách,ktorých systém umelej inteligencie nezohráva žiadnu úlohu, takže príčinnú súvislosť je ľahšie dokázať. Zmiernenie bremena dokazovania príčinnej súvislosti však nie je vždy podľa tejto smernice vhodné, ak žalovaný nie je profesionálnym používateľom, ale osobou používajúcou systém umelej inteligencie na súkromné činnosti. Za takých okolností je potrebnécieľom vyvážiť záujmy poškodenej osobyneprofesionálneho používateľa zohľadniť, či takíto neprofesionálni používatelia môžu svojím správaním zvyšovať riziko, že systém umelej inteligencie spôsobí škodu. Ak si poskytovateľ systému umelej inteligencie splnil všetky povinnosti,preto sa systém považoval za dostatočne bezpečný na uvedenie na trh na dané používanie neprofesionálnymi používateľminásledne sa na danú úlohu aj používa, domnienka príčinnej súvislosti by sa nemala uplatniť na jednoduché začatie prevádzky takéhoto systému zo strany neprofesionálnych používateľov. Na neprofesionálneho používateľa, ktorý zakúpi systém umelej inteligenciejednoducho ho začne prevádzkovať na daný účel bez toho, aby závažne zasiahol do podmienok prevádzky, by sa nemala vzťahovať domnienka príčinnej súvislosti stanovenátejto smernici. Ak však vnútroštátny súd rozhodne, že neprofesionálny používateľ zásadne zasiahol do podmienok prevádzky systému umelej inteligencie alebo sa od neho vyžadovalo určenie podmienok prevádzky systému umelej inteligencie, pričom bol schopný to urobiť, ale neurobil to, domnienka príčinnej súvislosti by sa mala uplatniť, ak sú splnené všetky ostatné podmienky. Mohlo by to platiť napríkladprípade, keď neprofesionálny používateľ nedodrží návod na používanie alebo iné platné povinnosti náležitej starostlivosti pri výbere oblasti prevádzky alebo nastavovaní podmienok výkonu systému umelej inteligencie. Tým nie je dotknutá skutočnosť, že poskytovateľ by mal stanoviť zamýšľaný účel systému umelej inteligencie vrátane jeho osobitných súvislostípodmienok používaniaodstrániť alebo minimalizovať riziká daného systémumiere, ktorá je možnáčase jeho koncipovaniavývoja, pričom by mal zohľadniť vedomostiodborné znalosti zamýšľaného používateľa.

(30)Keďžetejto smernici sa zavádza vyvrátiteľná domnienka, žalovaný by mal byť schopný ju vyvrátiť,to konkrétne preukázaním toho, že jeho pochybenie nemohlo spôsobiť škodu.

(31)Je potrebné uskutočniť preskúmanie tejto smernice [päť rokov] od skončenia obdobia transpozície. Preskúmanie by sa malo zameriavať najmä na to, či je potrebné vytvoriť pravidlá objektívnej zodpovednosti pre nároky voči prevádzkovateľovi, ktorých sa ešte netýkajú iné pravidlá Únieoblasti zodpovednosti, najmä smernica 85/374/EHS,kombináciipovinným poistením prevádzky určitých systémov umelej inteligencie, ako to navrhuje Európsky parlament 38 .súlade so zásadou proporcionality je vhodné posúdiť takúto potrebu vzhľadom na relevantný technologickýregulačný vývojnachádzajúcich rokoch, pričom treba prihliadnuť na účinokvplyv na zavádzanievyužívanie systémov umelej inteligencie,to najmäprípade MSP. Takéto preskúmanie by sa malo okrem iného týkať rizík poškodenia dôležitých právnych hodnôt ako život, zdraviemajetok nič netušiacich tretích strándôsledku prevádzky produktov alebo služieb založených na umelej inteligencii. Pri preskúmaní by sa mala analyzovať aj účinnosť opatrení na riešenie takýchto rizík, ktoré sú stanovenétejto smernici, ako aj vývoj vhodných riešení na trhupoistením.záujme zabezpečenia dostupnosti informácií potrebných na vykonanie takéhoto preskúmania je potrebné získať údajeďalšie potrebné dôkazy týkajúce sa príslušných vecí.

(32)Vzhľadom na potrebu prispôsobenia vnútroštátnych pravidiel občianskoprávnej zodpovednostiprocesnoprávnych pravidielcieľom posilniť zavádzanie produktovslužieb založených na umelej inteligencii za priaznivých podmienok na vnútornom trhu, ako aj spoločenskú akceptáciudôveru spotrebiteľovtechnológiu umelej inteligenciejustičný systém je vhodné stanoviť členským štátom lehotu na prijatie potrebných transpozičných opatrení najneskôr [dva roky po nadobudnutí účinnosti] tejto smernice.

(33)V súlade so spoločným politickým vyhlásením členských štátovKomisie28. septembra 2011vysvetľujúcich dokumentoch 39 sa členské štáty zaviazali, žeodôvodnených prípadochsvojim oznámeniamtranspozičných opatreniach pripoja jeden alebo viacero dokumentov vysvetľujúcich vzťah medzi prvkami smernicezodpovedajúcimi časťami vnútroštátnych transpozičných nástrojov.súvislostitouto smernicou sa zákonodarca domnieva, že zasielanie takýchto dokumentov je odôvodnené,

PRIJALI TÚTO SMERNICU:

Článok 1

Predmet úpravy a rozsah pôsobnosti

1.Touto smernicou sa stanovujú spoločné pravidlá týkajúce sa:

a)poskytnutia dôkazovvysokorizikových systémoch umelej inteligencie, aby mohol navrhovateľ podložiť svoj nezmluvný občianskoprávny nárok na náhradu škody vyplývajúcu zo subjektívnej zodpovednosti;

b)dôkazného bremenaprípade nezmluvných občianskoprávnych nárokov na náhradu škody vyplývajúcu zo subjektívnej zodpovednosti za škody spôsobené systémom umelej inteligencie podaných na vnútroštátne súdy.

2.Táto smernica sa uplatňuje na nezmluvné občianskoprávne nároky na náhradu škody vyplývajúce zo subjektívnej zodpovednosti, ak je takáto škoda spôsobená systémom umelej inteligencie po [skončení obdobia transpozície].

Táto smernica sa neuplatňuje na trestnú zodpovednosť.

3.Táto smernica nemá vplyv na:

a)pravidlá práva Únie, ktorými sa regulujú podmienky zodpovednostioblasti dopravy;

b)žiadne práva, ktoré môže mať poškodená osoba podľa vnútroštátnych pravidiel, ktorými sa vykonáva smernica 85/374/EHS;

c)výnimkypovinnostíoblasti zodpovednostináležitej starostlivosti stanovené[aktedigitálnych službách] a

d)vnútroštátne pravidlá,ktorých sa stanovuje strana nesúca dôkazné bremeno, požadovaná miera istoty, pokiaľ ideštandard dokazovania, alebo spôsob vymedzenia pochybenia, iné ako pravidlá stanovenéčlánkoch 34.

4.Členské štáty môžu prijať alebo zachovať vnútroštátne pravidlá, ktoré sú priaznivejšie pre navrhovateľov, pokiaľ idepodloženie nezmluvného občianskoprávneho nároku na náhradu škody spôsobenej systémom umelej inteligencie, ak sú takéto pravidlá zlučiteľnéprávom Únie.

Článok 2

Vymedzenie pojmov

Na účely tejto smernice sa uplatňuje toto vymedzenie pojmov:

1.„systém umelej inteligencie“ je systém umelej inteligenciezmysle vymedzenia[článku 3 bode 1 aktuumelej inteligencii];

2.„vysokorizikový systém umelej inteligencie“ je systém umelej inteligencie podľa [článku 6 aktuumelej inteligencii];

3.„poskytovateľ“ je poskytovateľzmysle vymedzenia[článku 3 bode 2 aktuumelej inteligencii];

4.„používateľ“ je používateľzmysle vymedzenia[článku 3 bode 4 aktuumelej inteligencii];

5.„nárok na náhradu škody“ je nezmluvný občianskoprávny nárok na náhradu škody vyplývajúcej zo subjektívnej zodpovednosti, ktorá bola spôsobená výstupom systému umelej inteligencie alebo nevytvorením výstupu takéhoto systému, ak mal byť daný výstup vytvorený;

6.„navrhovateľ“ je osoba, ktorá si uplatňuje nárok na náhradu škody a:

a)ktorá bola poškodená výstupom systému umelej inteligencie alebo nevytvorením výstupu takéhoto systému, ak mal byť daný výstup vytvorený;

b) ktorej bolo postúpené alebo na ktorú bolo subrogované právo poškodenej osoby zo zákona alebo na základe zmluvy alebo

c)ktorá konámene jednej alebo viacerých poškodených osôbsúladeprávom Únie alebo vnútroštátnym právom;

7.    „potenciálny navrhovateľ“ je fyzická alebo právnická osoba, ktorá zvažuje uplatnenie nároku na náhradu škody, ale ešte si ho neuplatnila;

8.    „žalovaný“ je osoba, voči ktorej sa uplatňuje nárok na náhradu škody;

9.    „povinnosť náležitej starostlivosti“ je taká požadovaná úroveň správania stanovená vo vnútroštátnom práve alebopráve Únie, ktorou sa zabraňuje poškodeniu zákonných záujmov uznaných na úrovni vnútroštátneho práva alebo práva Únie, akými sú život, fyzická integrita, majetokochrana základných práv.

Článok 3

Poskytovanie dôkazov a vyvrátiteľná domnienka nedodržania povinností

1.Členské štáty zabezpečia, aby boli vnútroštátne súdy splnomocnené, buď na žiadosť potenciálneho navrhovateľa, ktorý už požiadal poskytovateľa, osobu, na ktorú sa vzťahujú povinnosti poskytovateľa podľa [článku 24 alebo článku 28 ods. 1 aktuumelej inteligencii], alebo používateľaposkytnutie dôkazov, ktoré majúdispozíciikonkrétnom vysokorizikovom systéme umelej inteligencie, ktorý údajne zavinil škodu, pričom jeho požiadavka bola zamietnutá, alebo navrhovateľaposkytnutie takýchto dôkazov od uvedených osôb.

Na podloženie takejto žiadosti musí potenciálny navrhovateľ predložiť skutočnosti a dôkazy dostatočné na podporu dôveryhodnosti nároku na náhradu škody.

2.V súvislostinárokom na náhradu škody nariadi vnútroštátny súd poskytnutie dôkazov niektorejosôb uvedenýchodseku 1 len vtedy, ak navrhovateľ vykonal všetky primerané kroky na získanie príslušných dôkazov od žalovaného.

3.Členské štáty zabezpečia, aby boli vnútroštátne súdy splnomocnené na žiadosť navrhovateľa prikázať osobitné opatrenia na zachovanie dôkazov uvedenýchodseku 1.

4.Vnútroštátne súdy obmedzia poskytovanie dôkazovrozsahu, ktorý je nevyhnutnýprimeraný na podloženie potenciálneho nároku alebo nároku na náhradu škody,zachovanie dôkazovrozsahu, ktorý je nevyhnutnýprimeraný na podloženie takéhoto nároku na náhradu škody.

Pri určovaní toho, či je príkaz na poskytnutie alebo zachovanie dôkazov primeraný, prihliadnu vnútroštátne súdy na oprávnené záujmy všetkých strán, ako aj dotknutých tretích strán, a to najmä v súvislosti s ochranou obchodných tajomstiev v zmysle článku 2 ods. 1 smernice (EÚ) 2016/943 a dôverných informácií, ako sú informácie súvisiace s verejnou alebo národnou bezpečnosťou.

Členské štáty zabezpečia, aby boli vnútroštátne súdy v prípade nariadenia poskytnutia obchodného tajomstva alebo údajného obchodného tajomstva, ktoré súd identifikuje ako dôverné v zmysle článku 9 ods. 1 smernice (EÚ) 2016/943, splnomocnené na základe riadne odôvodnenej žiadosti strany alebo z vlastnej iniciatívy prijať osobitné opatrenia potrebné na zachovanie dôvernosti, ak sa dôkazy použijú alebo uvedú v súdnom konaní.

Členské štáty takisto zabezpečia, aby osoba, ktorej bolo nariadené poskytnutie alebo zachovanie dôkazov uvedených v odsekoch 1 a 2, mala pri takýchto príkazoch k dispozícii vhodné procesnoprávne prostriedky nápravy.

5.Ak žalovaný nesplní príkaz vnútroštátneho súdurámci nároku na náhradu škodypodľa odsekov 1 alebo 2 neposkytne alebo nezachová dôkazy, ktoré mádispozícii, vnútroštátny súd predpokladá, že žalovaný si nesplnil príslušnú povinnosť náležitej starostlivosti,to najmä za okolností uvedenýchčlánku 4 ods. 2 alebo 3, keď sú požadované dôkazy určené na podloženie príslušného nároku na náhradu škody.

Žalovaný má právo vyvrátiť uvedenú domnienku.

Článok 4

Vyvrátiteľná domnienka príčinnej súvislosti v prípade pochybenia

1.Na základe požiadaviek stanovenýchtomto článku vnútroštátne súdy na účely uplatnenia pravidiel zodpovednosti pri nároku na náhradu škody predpokladajú, že existuje príčinná súvislosť medzi pochybením žalovanéhovýstupom systému umelej inteligencie alebo nevytvorením výstupu systému umelej inteligencie, ak sú splnené všetky tieto podmienky:

a) navrhovateľ preukázal alebo súd podľa článku 3 ods. 5 predpokladá pochybenie žalovaného alebo osoby, za správanie ktorej žalovaný zodpovedá, spočívajúcenedodržaní povinnosti náležitej starostlivosti stanovenejpráve Únie alebo vo vnútroštátnom práve, ktoré je priamo zamerané na ochranu pred škodou, ktorá vznikla;

b)na základe okolností prípadu možno považovať za dostatočne pravdepodobné, že pochybenie ovplyvnilo výstup systému umelej inteligencie alebo viedlonevytvoreniu výstupu systémom umelej inteligencie;

c)navrhovateľ preukázal, že výstup systému umelej inteligencie alebo nevytvorenie výstupu systému umelej inteligencie viedlovzniku škody.

2.V prípade nároku na náhradu škody uplatneného voči poskytovateľovi vysokorizikového systému umelej inteligencie, na ktorého sa vzťahujú požiadavky stanovenéhlave III kapitolách 23 [aktuumelej inteligencii], alebo osobe, na ktorú sa vzťahujú povinnosti poskytovateľa podľa [článku 24 alebo článku 28 ods. 1 aktuumelej inteligencii], je podmienkaodseku 1 písm. a) splnená len vtedy, ak navrhovateľ preukázal, že poskytovateľ, prípadne osoba, na ktorú sa vzťahujú povinnosti poskytovateľa, nedodržal žiadnutýchto požiadaviek stanovenýchuvedených kapitolách, pričom sa prihliadne na podniknuté krokyvýsledky systému riadenia rizík podľa [článku 9článku 16 písm. a) aktuumelej inteligencii]:

a) systém umelej inteligencie je systém, ktorý využíva techniky zahŕňajúce trénovanie modelovúdajmiktorý nebol vyvinutý na základe súborov trénovacích, validačnýchtestovacích údajov, ktoré spĺňajú kritériá kvality uvedené[článku 10 ods. 2 až 4 aktuumelej inteligencii];

b) systém umelej inteligencie nebol koncipovanývyvinutý tak, aby spĺňal požiadavky na transparentnosť stanovené[článku 13 aktuumelej inteligencii];

c)systém umelej inteligencie nebol koncipovanývyvinutý tak, aby umožňoval účinný dohľad fyzických osôb počas obdobia,ktorom sa systém umelej inteligencie používa, podľa [článku 14 aktuumelej inteligencii];

d)systém umelej inteligencie nebol koncipovanývyvinutý tak, aby vzhľadom na svoj zamýšľaný účel dosahoval primeranú úroveň presnosti, spoľahlivostikybernetickej bezpečnosti podľa [článku 15článku 16 písm. a) aktuumelej inteligencii]; alebo

e)neboli okamžite prijaté potrebné nápravné opatrenia na zosúladenie systému umelej inteligenciepovinnosťami stanovenými[hlave III kapitole 2 aktuumelej inteligencii] alebo na jeho stiahnutietrhu, prípadne od používateľa, podľa [článku 16 písm. g)článku 21 aktuumelej inteligencii].

3.V prípade nároku na náhradu škody voči používateľovi vysokorizikového systému umelej inteligencie, na ktorého sa vzťahujú požiadavky stanovenéhlave III kapitolách 23 [aktuumelej inteligencii] je podmienka odseku 1 písm. a) splnená vtedy, ak navrhovateľ preukáže, že používateľ:

a)si nesplnil povinnostioblasti používania alebo monitorovania systému umelej inteligenciesúlade so sprievodným návodom na používanie, prípadne pozastavil alebo prerušil jeho používanie podľa [článku 29 aktuumelej inteligencii]; alebo

b)vystavil systém umelej inteligencie vstupným údajom, nad ktorými má kontroluktoré nie sú relevantnéhľadiska zamýšľaného účelu systému podľa [článku 29 ods. 3 aktu].

4.V prípade nároku na náhradu škody týkajúceho sa vysokorizikového systému umelej inteligencie vnútroštátny súd neuplatní domnienku stanovenúodseku 1, ak žalovaný preukáže, že dostatočné dôkazyodborné znalosti sú primerane dostupné navrhovateľovi na preukázanie príčinnej súvislosti uvedenejodseku 1.

5.V prípade nároku na náhradu škody týkajúceho sa systému umelej inteligencie, ktorý nie je vysokorizikovým systémom umelej inteligencie, sa domnienka stanovenáodseku 1 uplatní len vtedy, ak sa vnútroštátny súd domnieva, že pre navrhovateľa je mimoriadne ťažké dokázať príčinnú súvislosť uvedenúodseku 1.

6.V prípade nároku na náhradu škody voči žalovanému, ktorý používal systém umelej inteligencie počas osobnej nepracovnej činnosti, sa domnienka stanovenáodseku 1 uplatní iba vtedy, ak žalovaný závažne zasiahol do podmienok prevádzky systému umelej inteligencie alebo ak bol žalovaný povinný stanoviť podmienky prevádzky systému umelej inteligenciebol schopný to urobiť, ale neurobil to.

7.Žalovaný má právo vyvrátiť domnienku stanovenúodseku 1.

Článok 5

Hodnotenie a cielené preskúmanie

1.Do [DÁTUM päť rokov od skončenia obdobia transpozície] Komisia preskúma uplatňovanie tejto smernicepredloží Európskemu parlamentu, RadeEurópskemu hospodárskemusociálnemu výboru správu, ku ktorej budeprípade potreby priložený legislatívny návrh.

2.V správe sa preskúmajú účinky článkov 34 na dosahovanie cieľov presadzovaných touto smernicou. Konkrétne by sanej mala hodnotiť vhodnosť pravidiel objektívnej zodpovednosti pre nároky voči prevádzkovateľom určitých systémov umelej inteligencie, ktorých sa zatiaľ netýkajú žiadne iné pravidlá Únieoblasti zodpovednosti,potreba poistenia, pričom sa prihliadne aj na účinokvplyv na zavádzanievyužívanie systémov umelej inteligencie,to najmä zo strany MSP.

3.Komisia zavedie program monitorovania na prípravu správy podľa odsekov 12,ktorom sa stanoví, ako a v akých intervaloch sa budú získavať údajeďalšie potrebné dôkazy.programe sa určia opatrenia, ktoré má prijať Komisiačlenské štátysúvislosti so získavanímanalýzou údajoviných dôkazov. Na účely uvedeného programu členské štáty oznámia Komisii relevantné údajedôkazy do [31. decembra druhého celého roka nasledujúceho po uplynutí obdobia transpozície]do konca každého nasledujúceho roka.

Článok 6

Zmena smernice (EÚ) 2020/1828

V prílohe Ismernici (EÚ) 2020/1828 40 sa dopĺňa tento bod 67:

„67. Smernica Európskeho parlamentu a Rady (EÚ) …/… z … o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii (smernica o zodpovednosti za umelú inteligenciu) (Ú. v. EÚ L …, …, s. …).“

Článok 7

Transpozícia

1.Členské štáty uvedú do účinnosti zákony, iné právne predpisysprávne opatrenia potrebné na dosiahnutie súladutouto smernicou najneskôr do [dvoch rokov po nadobudnutí účinnosti]. Ich znenie bezodkladne oznámia Komisii.

Členské štáty uvedú priamo v prijatých ustanoveniach alebo pri ich úradnom uverejnení odkaz na túto smernicu. Podrobnosti o odkaze upravia členské štáty.

2.Členské štáty oznámia Komisii znenie hlavných ustanovení vnútroštátnych právnych predpisov, ktoré prijmúoblasti pôsobnosti tejto smernice.

Článok 8

Nadobudnutie účinnosti

Táto smernica nadobúda účinnosť dvadsiatym dňom po jej uverejnení v Úradnom vestníku Európskej únie.

Článok 9

Adresáti

Táto smernica je určená členským štátom.

V Bruseli

Za Európsky parlament    Za Radu

predsedníčka     predseda

(1)    Európsky prieskum podnikovvyužívaní technológií na základe umelej inteligencie, Ipsos 2020, záverečná správa, s. 58
(
https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_sk.pdf .
(3)    Biela knihaumelej inteligencii – európsky prístupexcelentnostidôvere, 19. 2. 2020 [COM(2020) 65 final].
(4)    Správa Komisie Európskemu parlamentu, RadeEurópskemu hospodárskemusociálnemu výboruvplyve umelej inteligencie, internetu vecírobotiky na bezpečnosťzodpovednosť, 19. 2. 2020 [COM(2020) 64 final].
(5)    Uznesenie Európskeho parlamentu20. októbra 2020odporúčaniami pre Komisiusystému občianskoprávnej zodpovednosti za umelú inteligenciu [2020/2014(INL)].
(6)    Uznesenie Európskeho parlamentu z 3. mája 2022 o umelej inteligencii v digitálnom veku [2020/2266(INI)]. 
(7)    Návrh nariadenia Európskeho parlamentuRady, ktorým sa stanovujú harmonizované pravidláoblasti umelej inteligencie (aktumelej inteligencii) [COM(2021) 206 final].
(8)    V akteumelej inteligencii sa výslovne zakazuje len malý počet prípadov používania umelej inteligencie.
(9)    Pracovný dokument útvarov Komisie [SWD(2021) 84 final] Posúdenie vplyvu priloženéaktuumelej inteligencii, s. 88.
(10)    Návrh nariadenia Európskeho parlamentuRadyvšeobecnej bezpečnosti výrobkov [COM(2021) 346 final].
(11)    Návrh nariadenia Európskeho parlamentuRadystrojníckych výrobkoch [COM(2021) 202 final].
(12)    Delegované nariadenie Komisie (EÚ) 2022/30, ktorým sa dopĺňa smernica Európskeho parlamentuRady 2014/53/EÚ, pokiaľ ideuplatňovanie základných požiadaviek uvedenýchčlánku 3 ods. 3 písm. d), e)f) uvedenej smernice (Ú. v. EÚ L 7, 12.1.2022, s. 6).
(13)    Oznámenie Komisie, Formovanie digitálnej budúcnosti Európy [COM(2020) 67 final].
(14)    Návrh nariadenia Európskeho parlamentuRadyhorizontálnych požiadavkách kybernetickej bezpečnosti pre produktydigitálnymi prvkami [COM(2022) 454 final].
(15)    Oznámenie Komisie, Európska dátová stratégia [COM(2020) 66 final].
(16)    Oznámenie Komisie Európskemu parlamentu, Európskej rade, Rade, Európskemu hospodárskemusociálnemu výboruVýboru regiónovnázvom Európska zelená dohoda [COM(2019) 640 final].
(17)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Štúdia na podporu posúdenia vplyvu Komisieoblasti zodpovednosti za umelú inteligenciu) 2021 („hospodárska štúdia“).
(18)    Národná stratégia umelej inteligencieČeskej republike, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, National strategies on Artificial Intelligence – A European perspective (Národné stratégie pre umelú inteligenciu – európska perspektíva), vydanieroku 2021 – správa JRCOECD: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , s. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese:  https://assets.innovazione.gov.it/1610546390-midbook2025.pdf .
(20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Štúdia na podporu posúdenia vplyvu Komisiouoblasti zodpovednosti za umelú inteligenciu) 2021,96.
(21)    Pozri dokument Polityka rozwoju sztucznej inteligencji w Polsce na lata 2019 – 2027 (Politika rozvoja umelej inteligenciePoľsku na roky 2019 – 2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), s. 102 – 103.
(22)    AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., s. 113.
(23)    Predovšetkým objektívna zodpovednosť, prenesenie dôkazného bremena alebo zmiernenie dôkazného bremena vo forme nevyvrátiteľných alebo vyvrátiteľných domnienok.
(24)    Na adrese: < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_sk >.
(25)    Liability for artificial intelligence and other emerging digital technologies (Zodpovednosť za umelú inteligenciuďalšie vznikajúce digitálne technológie), november 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en .
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Štúdiaporovnávacom práveoblasti občianskoprávnej zodpovednosti za umelú inteligenciu), 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services (Behaviorálna štúdia súvislosti medzi výzvami, ktoré predstavuje umelá inteligencia pre pravidlá členských štátovoblasti občianskoprávnej zodpovednosti,postojom spotrebiteľovproduktomslužbám založeným na umelej inteligencii), záverečná správaroku 2021.
(28)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Štúdia na podporu posúdenia vplyvu Komisiouoblasti zodpovednosti za umelú inteligenciu), 2021.
(29)    Ú. v. EÚ C , , s. .
(30)    Ú. v. EÚ C , , s. .
(31)    [Návrh nariadenia, ktorým sa stanovujú harmonizované pravidláoblasti umelej inteligencie (akt umelej inteligencii), COM(2021) 206 final].
(32)    [Návrh nariadenia Európskeho parlamentuRadyvšeobecnej bezpečnosti výrobkov, COM(2021) 346 final].
(33)    [Návrh nariadenia Európskeho parlamentuRadystrojníckych výrobkoch, COM(2021) 202 final].
(34)    Delegované nariadenie Komisie (EÚ) 2022/30, ktorým sa dopĺňa smernica Európskeho parlamentuRady 2014/53/EÚ, pokiaľ ideuplatňovanie základných požiadaviek uvedenýchčlánku 3 ods. 3 písm. d), e)f) uvedenej smernice (Ú. v. EÚ L 7, 12.1.2022, s. 6).
(35)    Smernica Rady 85/374/EHS25. júla 1985aproximácii zákonov, iných právnych predpisovsprávnych opatrení členských štátovzodpovednosti za chybné výrobky (Ú. v. ES L 210, 7.8.1985, s. 29).
(36)    [Návrh nariadenia Európskeho parlamentuRadyjednotnom trhudigitálnymi službami (akt digitálnych službách), COM(2020) 825 final].
(37)    Smernica Európskeho parlamentuRady (EÚ) 2016/9438. júna 2016ochrane nesprístupneného know-howobchodných informácií (obchodného tajomstva) (Ú. v. EÚ L 157, 15.6.2016, s. 1).
(38)    Uznesenie Európskeho parlamentu20. októbra 2020odporúčaniami pre Komisiusystému občianskoprávnej zodpovednosti za umelú inteligenciu [2020/2014(INL)] (Ú. v. EÚ C 404, 6.10.2021, s. 107).
(39)    Ú. v. EÚ C 369, 17.12.2011, s. 14.
(40)    Smernica Európskeho parlamentuRady (EÚ) 2020/182825. novembra 2020žalobáchzastúpení na ochranu kolektívnych záujmov spotrebiteľov a o zrušení smernice 2009/22/ES (Ú. v. EÚ L 409, 4.12.2020, s. 1).