Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020IP0276

Usnesení Evropského parlamentu ze dne 20. října 2020 obsahující doporučení Komisi k režimu občanskoprávní odpovědnosti za umělou inteligenci (2020/2014(INL))

Úř. věst. C 404, 6.10.2021, p. 107–128 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

CS

Úřední věstník Evropské unie

C 404/107


P9_TA(2020)0276

Režim občanskoprávní odpovědnosti za umělou inteligenci

Usnesení Evropského parlamentu ze dne 20. října 2020 obsahující doporučení Komisi k režimu občanskoprávní odpovědnosti za umělou inteligenci (2020/2014(INL))

(2021/C 404/05)

Evropský parlament,

s ohledem na článek 225 Smlouvy o fungování Evropské unie,

s ohledem na články 114 a 169 Smlouvy o fungování Evropské unie,

s ohledem na směrnici Rady 85/374/EHS ze dne 25. července 1985 o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky (1) (směrnice o odpovědnosti za výrobky),

s ohledem na směrnici Evropského parlamentu a Rady 2005/29/ES ze dne 11. května 2005 o nekalých obchodních praktikách vůči spotřebitelům na vnitřním trhu (směrnice o nekalých obchodních praktikách) (2), na směrnici Evropského parlamentu a Rady 2011/83/EU ze dne 25. října 2011 o právech spotřebitelů (3) a na další právní předpisy EU na ochranu spotřebitele,

ohledem na nařízení Evropského parlamentu a Rady (EU) 2017/745 ze dne 5. dubna 2017 o zdravotnických prostředcích (4),

s ohledem na nařízení Rady (EU) 2018/1488 ze dne 28. září 2018, kterým se zřizuje evropský společný podnik pro vysoce výkonnou výpočetní techniku (5),

s ohledem na směrnici Evropského parlamentu a Rady (EU) 2019/770 ze dne 20. května 2019 o některých aspektech smluv o poskytování digitálního obsahu a digitálních služeb (6),

s ohledem na interinstitucionální dohodu ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů a na pokyny pro zlepšování právní úpravy (7),

s ohledem na návrh nařízení Evropského parlamentu a Rady ze dne 6. června 2018, kterým se zavádí program Digitální Evropa na období 2021–2027 (COM(2018)0434),

s ohledem na sdělení Komise ze dne 25. dubna 2018 o umělé inteligenci pro Evropu (COM(2018)0237),

s ohledem na sdělení Komise ze dne 7. prosince 2018 o koordinovaném plánu v oblasti umělé inteligence (COM(2018)0795),

s ohledem na sdělení Komise ze dne 8. dubna 2019 o budování důvěry v umělou inteligenci zaměřenou na člověka (COM(2019)0168),

s ohledem na zprávu Komise Evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru ze dne 19. února 2020 o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost (COM(2020)0064),

s ohledem na bílou knihu Evropské komise ze dne 19. února 2020 nazvanou „O umělé inteligenci – evropský přístup k excelenci a důvěře“ (COM(2020)0065),

s ohledem na své usnesení ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (8),

s ohledem na své usnesení ze dne 1. června 2017 o digitalizaci evropského průmyslu (9),

s ohledem na své usnesení ze dne 12. září 2018 o autonomních zbraňových systémech (10),

s ohledem na své usnesení ze dne 12. února 2019 o komplexní evropské průmyslové politice v oblasti umělé inteligence a robotiky (11),

s ohledem na své usnesení ze dne 12. února 2020 o automatizovaných rozhodovacích procesech: zajištění ochrany spotřebitele a volného pohybu zboží a služeb (12),

s ohledem na zprávu odborné skupiny na vysoké úrovni pro umělou inteligenci ze dne 8. dubna 2019„Etické pokyny pro důvěryhodnou umělou inteligenci“,

s ohledem na zprávu odborné skupiny na vysoké úrovni pro umělou inteligenci ze dne 8. dubna 2019„Definice umělé inteligence: hlavní schopnosti a obory“,

s ohledem na zprávu odborné skupiny na vysoké úrovni pro umělou inteligenci ze dne 26. června 2019„Politická a investiční doporučení pro důvěryhodnou umělou inteligenci“,

s ohledem na zprávu skupiny odborníků pro odpovědnost a nové technologie – sestava pro nové technologie ze dne 21. listopadu 2019„Odpovědnost za umělou inteligenci a další nové digitální technologie“,

s ohledem na studii o posouzení evropské přidané hodnoty, kterou provedla výzkumná služba Evropského parlamentu, nazvanou „Režim občanskoprávní odpovědnosti za umělou inteligenci: hodnocení evropské přidané hodnoty“ (13)

s ohledem na politickou zprávu výzkumné služby Evropského parlamentu a panelu STOA o právních a etických úvahách o robotice z června 2016 (14),

s ohledem na studii generálního ředitelství pro vnitřní politiky Evropského parlamentu z října 2016 „Evropská občanskoprávní pravidla pro robotiku“, která byla vypracována pro Výbor pro právní záležitosti (15),

s ohledem na články 47 a 54 jednacího řádu,

s ohledem na stanoviska Výboru pro vnitřní trh a ochranu spotřebitelů a Výboru pro dopravu a cestovní ruch,

s ohledem na zprávu Výboru pro právní záležitosti (A9-0178/2020),

A.

vzhledem k tomu, že pojem „odpovědnost“ plní v našem každodenním životě důležitou dvojí funkci: na jedné straně zajišťuje, aby osoba, která utrpěla újmu, měla nárok žádat a získat odškodnění od strany, jíž byla prokázána odpovědnost za tuto újmu, a na druhé straně prostřednictvím hospodářských pobídek motivuje fyzické a právnické osoby k tomu, aby se především způsobení újmy preventivně vyhýbaly nebo aby při svém jednání finančně zohlednily riziko platby odškodného;

B.

vzhledem k tomu, že progresivní právní rámec pro občanskou odpovědnost musí vzbuzovat důvěru v bezpečnost, spolehlivost a jednotnost výrobků a služeb, včetně digitálních technologií, aby byla zajištěna rovnováha mezi účinnou a spravedlivou ochranou potenciálních poškozených a manévrovacím prostorem pro podniky, zejména malé a střední podniky, aby mohly vyvíjet nové technologie, produkty nebo služby; vzhledem k tomu, že to přispěje k vybudování důvěry a vytvoření stabilního prostředí pro investice; vzhledem k tomu, že konečným cílem každého rámce pro odpovědnost by mělo být poskytnutí právní jistoty všem stranám, ať se bude jednat o výrobce, provozovatele, poškozeného nebo jakoukoli jinou třetí stranu;

C.

vzhledem k tomu, že členské státy mohou ve svých právních systémech upravit pravidla odpovědnosti pro určité aktéry odlišně nebo mohou zpřísnit pravidla pro určité činnosti; vzhledem k tomu, že princip objektivní odpovědnosti znamená, že strana může nést odpovědnost i bez zavinění; vzhledem k tomu, že v mnohých vnitrostátních zákonech upravujících občanské delikty nese žalovaný objektivní odpovědnost, pokud se naplní riziko, kterým ohrožuje veřejnost, například prostřednictvím automobilu nebo nebezpečné činnosti, nebo riziko, které nemůže mít pod kontrolou, například v případě zvířat;

D.

vzhledem k tomu, že budoucím právním předpisům Unie, které mají výslovně stanovit odpovědnost za systémy umělé inteligence, by měly předcházet analýzy a konzultace s členskými státy o souladu navrhovaných předpisů s hospodářskými, právními a sociálními podmínkami;

E.

vzhledem k tomu, že otázka režimu občanskoprávní odpovědnosti za umělou inteligenci by měla být předmětem široké veřejné diskuse, která zohlední všechny zájmy, které jsou v sázce, zejména etické, právní, ekonomické a sociální aspekty, aby se předešlo nedorozuměním a neodůvodněným obavám, které tato technologie může vyvolat u občanů; vzhledem k tomu, že předpokladem pro další legislativní kroky by mělo být pečlivé posouzení důsledků případného nového regulačního rámce pro všechny aktéry prostřednictvím hodnocení dopadu;

F.

vzhledem k tomu, že koncepce systémů umělé inteligence zahrnuje velkou skupinu různých technologií, včetně jednoduchých statistik, strojového učení a hlubokého učení;

G.

vzhledem k tomu, že termín „automatizované rozhodovací procesy“ by mohl vyřešit připadnou nejednoznačnost termínu „umělá inteligence“; vzhledem k tomu, že v rámci automatizovaných rozhodovacích procesů uživatel na začátku částečně nebo plně svěří za použití softwaru nebo služby rozhodnutí jinému subjektu; vzhledem k tomu, že tento subjekt následně používá automatizované rozhodovací modely k provedení určitého úkonu jménem uživatele nebo k informování o rozhodnutích uživatele při provedení určitého úkonu;

H.

vzhledem k tomu, že určité systémy umělé inteligence jsou z právního hlediska značnou výzvou pro stávající rámec odpovědnosti a mohly by přivodit situace, kdy by v důsledku jejich neprůhlednosti mohlo být mimořádně nákladné nebo dokonce nemožné určit, kdo měl pod kontrolou riziko spojené se systémem umělé inteligence nebo který kód, vstup nebo data nakonec škodlivou operaci způsobily; vzhledem k tomu, že tento faktor by mohl ztížit určení vztahu mezi újmou a chováním, které ji způsobilo, takže oběti by nemusely získat odpovídající odškodnění;

I.

vzhledem k tomu, že právní výzvy také zvyšuje konektivita mezi jedním systémem umělé inteligence a jinými systémy umělé inteligence i systémy, které umělou inteligenci nepoužívají, závislost na vnějších datech, náchylnost k narušení kybernetické bezpečnosti a rostoucí autonomie systémů umělé inteligence, které mimo jiné využívají techniky strojového a hlubokého učení;

J.

vzhledem k tomu, že k řešení těchto právních otázek a k odstranění rizika, že uživatelé nebudou příliš ochotni novou technologii přijmout, mohou přispět přísné etické normy pro systémy umělé inteligence v kombinaci se spolehlivými a spravedlivými postupy odškodňování; vzhledem k tomu, že spravedlivými postupy odškodňování se rozumí to, že každá osoba, která utrpí újmu nebo majetkovou škodu způsobenou systémy umělé inteligence, by měla mít stejnou úroveň ochrany jako v případech bez účasti systému umělé inteligence; vzhledem k tomu, že uživatel musí mít jistotu, že případné škody způsobené systémy umělé inteligence jsou kryty odpovídajícím pojištěním a že je stanoven právní způsob nápravy;

K.

vzhledem k tomu, že právní jistota je základní podmínkou také pro dynamický rozvoj a inovace technologie založené na umělé inteligenci, zejména pro začínající podniky, mikropodniky a malé a střední podniky, a pro její praktické uplatňování v každodenním životě; vzhledem ke klíčové úloze začínajících podniků, mikropodniků a malých a středních podniků, zejména v evropském hospodářství, je opodstatněný striktně proporcionální postup, který těmto podnikům umožní vyvíjet a inovovat;

L.

vzhledem k tomu, že různorodost systémů umělé inteligence a široká škála rizik spojených s těmito technologiemi komplikuje nalezení jediného řešení, které by bylo vhodné pro celé spektrum rizik; vzhledem k tomu, že v této souvislosti je vhodné přijmout takový přístup, v jehož rámci budou prováděny pokusy a pilotní projekty a používána regulační pískoviště k nalezení přiměřených řešení založených na důkazech, jež budou podle potřeby zacílena na konkrétní situace a odvětví;

Úvod

1.

domnívá se, že výzva, kterou s sebou nese zavádění systémů umělé inteligence do společnosti, na pracoviště a do ekonomiky, je jedním z nejdůležitějších bodů současného politického programu; vzhledem k tomu, že technologie založené na umělé inteligenci by mohly a měly mít za cíl zlepšit náš život téměř v každé oblasti, od osobního života (např. doprava, vzdělávání na míru, pomoc potřebným osobám, fitness programy a poskytování úvěrů), přes pracovní prostředí (např. úleva od únavných a opakujících se úkonů) až po globální problémy, jako je klimatická krize, zdravotní péče, výživa a logistika;

2.

pevně věří, že pro účinné využití výhod a prevenci možného zneužití systémů umělé inteligence a zamezení roztříštěnosti právních předpisů v Unii má klíčový význam jednotná legislativa, jež by platila pro všechny systémy umělé inteligence v celé Unii, byla by založená na zásadách a obstála by i v budoucnosti; zastává názor, že ačkoliv pro širokou škálu potenciálních aplikací jsou vhodnější zvláštní odvětvové předpisy, horizontální a harmonizovaný právní rámec založený na společných zásadách se jeví jako nezbytný k tomu, aby byly v celé Unii zavedeny rovnocenné standardy a aby byly účinně chráněny evropské hodnoty a práva občanů;

3.

konstatuje, že jednotný digitální trh je třeba plně harmonizovat, neboť digitální oblast se vyznačuje rychlou přeshraniční dynamikou a mezinárodním tokem údajů; domnívá se, že Unii se podaří udržet si digitální suverenitu a stimulovat digitální inovace v Evropě pouze za pomoci jednotných společných pravidel v souladu s kulturou inovací;

4.

konstatuje, že celosvětová soutěž v oblasti umělé inteligence již probíhá a že by v ní Unie měla hrát vedoucí úlohu a za tímto účelem plně využívat svého vědeckého a technického potenciálu; zdůrazňuje, že technický pokrok nesmí být na úkor ochrany uživatelů před újmou, kterou jim mohou způsobit zařízení a systémy využívající umělou inteligenci; vybízí k tomu, aby byly normy občanskoprávní odpovědnosti Unie prosazovány na mezinárodní úrovni;

5.

pevně věří, že nová společná pravidla pro systémy umělé inteligence by měla mít jedině podobu nařízení; domnívá se, že otázka odpovědnosti v případě újmy způsobené systémem umělé inteligence je jedním z klíčových aspektů, které je v tomto rámci třeba řešit;

Odpovědnost a umělá inteligence

6.

domnívá se, že není třeba zcela přepracovat dobře fungující režimy odpovědnosti, avšak že složitost, konektivita, neprůhlednost, zranitelnost, možnost modifikací pomocí aktualizací, schopnost samostatného učení a potenciální autonomie systémů umělé inteligence a velký počet zúčastněných stran představují značný problém pro účinnost ustanovení unijních a vnitrostátních právních rámců pro odpovědnost; domnívá se, že je nutné koordinovaně provést specifické úpravy režimů odpovědnosti, aby se zabránilo tomu, aby osoby, které utrpěly újmu nebo majetkovou škodu, zůstaly bez odškodnění;

7.

poznamenává, že všechny reálné nebo virtuální činnosti, zařízení nebo procesy řízené systémy umělé inteligence mohou být technicky přímou nebo nepřímou příčinou újmy, avšak téměř vždy tyto systémy někdo sestrojil, uvedl do provozu nebo do nich zasahoval; v této souvislosti konstatuje, že není nutné přiznávat systémům umělé inteligence právní subjektivitu; je toho názoru, že v důsledku neprůhlednosti, konektivity a autonomie systémů umělé inteligence by mohlo být v praxi velmi obtížné nebo dokonce nemožné zpětně vysledovat, který konkrétní lidský zásah nebo které koncepční rozhodnutí o systému vedlo ke konkrétní škodlivé činnosti systémů umělé inteligence; připomíná, že v souladu se široce přijímaným pojetím odpovědnosti lze tuto překážku nicméně obejít tím, že odpovědnost ponesou různé osoby v celém hodnotovém řetězci, které vytvářejí, spravují nebo kontrolují rizika spojená se systémem umělé inteligence;

8.

domnívá se, že směrnice o odpovědnosti za výrobky se již více než třicet let osvědčuje jako účinný prostředek k získání náhrady za škodu způsobenou vadným výrobkem; přesto by měla být revidována a přizpůsobena digitálnímu světu, abychom se mohli postavit výzvám, které představují nové digitální technologie, a zajistit tak vysokou úroveň ochrany spotřebitele a právní jistotu pro spotřebitele a podniky a zároveň zamezit tomu, aby malé a střední podniky a začínající podniky musely nést vysoké náklady a rizika; vyzývá Komisi, aby posoudil, zda by směrnice o odpovědnosti za výrobky mohla být přeměněna v nařízení, a aby vyjasnila definici pojmu „výrobky“ a určila, zda do oblasti její působnosti spadá též digitální obsah a digitální služby, a aby dále zvážila úpravu pojmů jako „výrobce“, „škoda“ a „vada“; po přezkumu směrnice o platebních službách je toho názoru, že v zájmu právní jistoty v celé Unii by pojem „výrobce“ měl zahrnovat výrobce, vývojáře, programátory, poskytovatele služeb i provozovatele backendových služeb; vyzývá Komisi, aby po řádném posouzení zvážila, zda by bylo možné u škod způsobených novými digitálními technologiemi obrátit v některých jasně definovaných případech důkazní břemeno; zdůrazňuje nicméně, že je důležité zajistit, aby se aktualizovaný akt Unie omezoval jen na jasně definované problémy, pro něž existují proveditelná řešení, a aby ponechával prostor budoucímu technologickému vývoji, včetně vývoje založeného na svobodném softwaru a softwaru s otevřeným zdrojovým kódem; proto konstatuje, že směrnice o odpovědnosti za výrobky by se měla nadále používat také v případě občanskoprávních nároků vůči výrobci vadného systému umělé inteligence, pokud je tento systém výrobkem ve smyslu uvedené směrnice; zdůrazňuje, že aktualizace rámce pro odpovědnost za výrobky by měla probíhat současně s aktualizací směrnice Evropského parlamentu a Rady 2001/95/ES ze dne 3. prosince 2001 o bezpečnosti výrobků (16), aby bylo zajištěno, že systémy umělé inteligence budou zahrnovat zásady bezpečnosti již od návrhu;

9.

domnívá se, že platné vnitrostátní předpisy týkající se subjektivní odpovědnosti za škodu nabízejí ve většině případů dostatečnou míru ochrany osobám, které utrpěly újmu zásahem třetí strany, například hackera, nebo jejichž majetek byl takovou třetí stranou poškozen, protože v případě takového zásahu se často jedná o zaviněné jednání; konstatuje, že doplnění platných vnitrostátních předpisů o občanskoprávních deliktech je zřejmě nezbytné pouze ve specifických případech, například pokud třetí stranu nelze vypátrat nebo je nemajetná;

10.

považuje tedy za vhodné, aby se tato zpráva zaměřovala na občanskoprávní nároky vůči provozovatelům systémů umělé inteligence; je toho názoru, že odpovědnost provozovatele lze zdůvodnit tím, že má vliv na rizika spojená se systémem umělé inteligence obdobně jako majitel automobilu; domnívá se, že vzhledem ke složitosti a konektivitě systému umělé inteligence bude provozovatel v řadě případů pro poškozeného první evidentní kontakt;

Odpovědnost provozovatele

11.

soudí, že pravidla pro odpovědnost provozovatele by se měla vztahovat na veškerý provoz systémů umělé inteligence, bez ohledu na místo, kde jsou provozovány, a na to, zda se jedná o fyzický či virtuální provoz; podotýká však, že je třeba věnovat zvláštní pozornost provozu na veřejných místech, kde je riziku vystaveno velké množství lidí; domnívá se, že potenciální poškození často o systému umělé inteligence vůbec nevědí a zpravidla nemají s provozovatelem smluvní vztah, na jehož základě by mohly uplatnit nárok na odškodnění; konstatuje, že v případě vzniku újmy by takové osoby mohly uplatňovat pouze nárok na odškodnění na základě subjektivní odpovědnosti a mohlo by pro ně být obtížné prokázat zavinění provozovatelem systému umělé inteligence, a proto by příslušné nároky na odškodnění mohly být neúspěšné;

12.

domnívá se, že dokud se směrnice o odpovědnosti za výrobky vztahuje pouze na provozovatele frontendových služeb, je třeba chápat jako provozovatele provozovatele frontendových i backendových služeb; konstatuje, že provozovatel frontendových služeb by měl být definován jako fyzická nebo právnická osoba, která má určitý stupeň kontroly nad riziky spojenými s provozem a fungováním systému umělé inteligence a má z něj prospěch; konstatuje, že provozovatel backendových služeb by měl být definován jako fyzická nebo právnická osoba, která průběžně definuje vlastnosti technologie a poskytuje data a nezbytné backendové podpůrné služby, a proto vykonává určitý stupeň kontroly nad riziky spojenými s provozem a fungováním systému umělé inteligence; domnívá se, že kontrola by zde měla být chápána jako jakákoli činnost provozovatele, která má vliv na provoz systému umělé inteligence, respektive na to, v jaké míře jsou možným rizikům systému vystaveny třetí osoby; domnívá se, že tyto činnosti by mohly mít dopad na provoz od začátku až do konce, neboť na nich závisí, jaké bude mít systém vstupy, výstupy nebo výsledky, nebo mohou měnit jeho jednotlivé funkce či procesy;

13.

poznamenává, že mohou nastat situace, kdy existuje více provozovatelů, například provozovatel backendových služeb a provozovatel frontendových služeb; domnívá se, že v takovém případě by měli nést všichni provozovatelé společnou a nerozdílnou odpovědnost, přičemž by měli právo vznášet vůči sobě navzájem proporcionální regresní nároky; zastává názor, že podíly odpovědnosti by se měly odvíjet od míry, do níž měli jednotliví provozovatelé kontrolu nad rizikem spojeným s provozem a fungováním systému umělé inteligence; domnívá se, že je třeba zlepšit sledovatelnost produktů, aby bylo možné snáze určit, které z nich byly zapojeny v různých fázích;

Pravidla pro odpovědnost rozlišená podle rizik

14.

uznává, že rozhodujícím faktorem s ohledem na odpovědnost je druh systému umělé inteligence, nad nímž má provozovatel kontrolu; poznamenává, že systém umělé inteligence, který je spojen s inherentním vysokým rizikem a jedná autonomně, potenciálně ohrožuje veřejnost v daleko větší míře; domnívá se, že vzhledem k právním výzvám, které systémy umělé inteligence znamenají pro stávající režimy občanskoprávní odpovědnosti, je vhodné pro takové vysoce rizikové systémy stanovit společný režim objektivní odpovědnosti; zdůrazňuje, že takový přístup, který by mohl zahrnovat několik stupňů rizika, by měl vycházet z jednoznačných kritérií a řádné definice vysokého rizika a měl by zajišťovat právní jistotu;

15.

domnívá se, že systém umělé inteligence představuje vysoké riziko, pokud jeho autonomní fungování má značný potenciál přivodit jedné či více osobám újmu náhodným způsobem, a to nad rámec toho, co lze rozumně očekávat od jeho zamýšleného použití; domnívá se, že při určování, zda je systém umělé inteligence vysoce rizikový, je třeba brát v úvahu také odvětví, v nichž lze očekávat významná rizika, a povahu prováděných činností; domnívá se, že velikost tohoto potenciálu závisí na souhře mezi závažností možné újmy, pravděpodobností, že riziko vznikne, a způsobem, jakým se systém umělé inteligence využívá;

16.

doporučuje, aby byly všechny vysoce rizikové systémy umělé inteligence uvedeny na vyčerpávajícím seznamu v příloze navrhovaného nařízení; uznává, že s ohledem na rychlý technický rozvoj a na požadované odborné znalosti by měla Komise tuto přílohu minimálně každých šest měsíců přezkoumávat a v případě nutnosti ji prostřednictvím aktu v přenesené pravomoci měnit; domnívá se, že Komise by měla úzce spolupracovat s nově zřízeným stálým výborem, který by byl obdobou stávajícího Stálého výboru pro prekurzory nebo Technického výboru pro motorová vozidla, v nichž působí národní odborníci z členských států a zástupci zúčastněných stran; domnívá se, že vzorem pro sestavení skupiny zúčastněných stran by mohla být odborná skupiny na vysoké úrovni pro umělou inteligenci, která má vyvážené složení, avšak jejími členy by měli být i odborníci na etiku, antropologové, sociologové a odborníci na duševní zdraví; je rovněž toho názoru, že Evropský parlament by měl jmenovat odborníky, kteří by nově zřízenému stálému výboru poskytovali poradenství;

17.

konstatuje, že vývoj technologií založených na umělé inteligenci je velmi dynamický a neustále se zrychluje; zdůrazňuje, že k zajištění odpovídající ochrany uživatelů je zapotřebí zrychlený přístup k analýze nových zařízení a systémů využívajících systémy umělé inteligence, které se objevují na evropském trhu, pokud jde o potenciální rizika; doporučuje Komisi, aby byly všechny související postupy co nejvíce zjednodušeny; dále navrhuje, aby hodnocení případné vysoké rizikovosti určitého systému umělé inteligence zahajovala Komise souběžně s posuzováním bezpečnosti produktu, aby nedocházelo k tomu, že by byl vysoce rizikový systém umělé inteligence schválen pro trh dříve, než je klasifikován jako vysoce rizikový, a tudíž by byl provozován bez povinného pojistného krytí;

18.

konstatuje, že Komise by měla posoudit, jakým způsobem by bylo možné zajistit, aby údaje shromážděné, zaznamenané nebo uložené ve vysoce rizikových systémech umělé inteligence pro účely shromažďování důkazů v případě újmy způsobené tímto systémem umělé inteligence mohly získávat a využívat vyšetřující orgány a aby se zlepšila sledovatelnost a kontrolovatelnost těchto údajů, a to při zohlednění základních práv a práv na soukromí;

19.

domnívá se, že v souladu se systémy členských států v oblasti objektivní odpovědnosti by mělo toto nařízení postihovat porušení důležitých a zákonem chráněných práv na život, zdraví, tělesnou integritu nebo majetek, a mělo by stanovit částky a rozsah odškodnění, jakož i promlčecí lhůty; má za to, že navržené nařízení by se mělo také vztahovat na značnou nehmotnou újmu, která vedla k prokazatelné hospodářské ztrátě překračující prahovou částku harmonizovanou v právních předpisech Unie o odpovědnosti, která vyváží přístup poškozených osob ke spravedlnosti se zájmy dalších zúčastněných osob; žádá Komisi, aby prahové částky pro škody přehodnotila a sladila v právních předpisech Unie; je toho názoru, že by Komise měla důkladně analyzovat právní tradice všech členských států a jejich platné právní předpisy, které zakotvují právo na odškodnění za nehmotnou újmu, a to s cílem posoudit, zda je zahrnutí nehmotné újmy do legislativních aktů týkajících se umělé inteligence nezbytné a zda není v rozporu s právní úpravou Unie či nenarušuje právo členských států;

20.

domnívá se, že na veškerou činnost, veškerá zařízení nebo procesy řízené systémy umělé inteligence, které způsobí újmu, ale nejsou uvedeny na seznamu v příloze navrhovaného nařízení, by se měla i nadále vztahovat subjektivní odpovědnost; domnívá se, že v zájmu poškozené osoby by měla nicméně platit presumpce zavinění provozovatelem, který se může zprostit odpovědnosti předložením důkazu o splnění náležité péče;

21.

domnívá se, že pokud určitý systém umělé inteligence, který dosud nebyl posouzen Komisí a nově zřízeným stálým výborem, a nebyl proto klasifikován jako vysoce rizikový resp. zařazen na seznam v příloze navrhovaného nařízení, opakovaně vyvolává incidenty vedoucí k vážné újmě, měl by odchylně od systému uvedeného v bodě 20 podléhat objektivní odpovědnosti; konstatuje, že pokud tomu tak je, měla by Komise rovněž neprodleně posoudit, zda je nutné přílohu revidovat a přidat tento systém na seznam; zastává názor, že pokud Komise na základě tohoto posouzení rozhodne přidat tento systém na seznam, mělo by mít její rozhodnutí retroaktivní účinek od okamžiku prvního prokázaného incidentu, který tento systém způsobil a který vedl k závažné újmě;

22.

žádá Komisi, aby posoudila, zda je nutné na úrovni Unie stanovit pravidla, která by zakazovala smluvní ustanovení o vyloučení odpovědnosti, podobně jako je tomu ve vztazích mezi podniky a mezi státní správou a podniky;

Pojištění a systémy umělé inteligence

23.

domnívá se, že odpovědnostní krytí je jedním z klíčových faktorů, který je charakteristický pro úspěch nových technologií, produktů a služeb; pozoruje, že náležité krytí odpovědnosti má rovněž zásadní význam pro ujištění veřejnosti o tom, že může novým technologiím důvěřovat navzdory riziku utrpění újmy nebo čelení právním nárokům postižené osoby; současně bere na vědomí, že tento regulační systém se zaměřuje na potřebu využívat a rozšiřovat výhody systémů umělé inteligence a zároveň zavést spolehlivé záruky;

24.

zastává názor, že všichni provozovatelé vysoce rizikových systémů umělé inteligence uvedených v příloze k navrženému nařízení by měli uzavřít pojištění odpovědnosti, protože tyto systémy mají značný potenciál, pokud jde o riziko vzniku újmy; přitom je třeba vzít v potaz směrnici Evropského parlamentu a rady 2009/103/ES ze dne 16. září 2009 o pojištění občanskoprávní odpovědnosti z provozu motorových vozidel a kontrole povinnosti uzavřít pro případ takové odpovědnosti pojištění (17); domnívá se, že povinný režim pojištění týkající se vysoce rizikových systémů umělé inteligence by měl pokrývat částky a rozsah odškodnění, které jsou uvedeny v navrhovaném nařízení; je si vědom toho, že tato technologie je v současnosti stále velmi vzácná, neboť předpokládá vysokou míru autonomního rozhodování, a z tohoto důvodu jsou současné diskuse většinou orientovány na budoucnost; je nicméně přesvědčen, že nejistota ohledně rizik by neměla být nepřiměřeně vysoká, protože by jinak mohla být na překážku výzkumu a inovacím;

25.

domnívá se, že mechanismus odškodňování na úrovni Unie, který by byl financován z veřejných prostředků, nepředstavuje ten pravý způsob, jak řešit případné nedostatky v oblasti pojištění; soudí, že nedostatek údajů o rizicích spojených se systémy umělé inteligence spolu s tím, že není jasné, jak se bude umělá inteligence vyvíjet v budoucnosti, způsobuje, že pojišťovatelé mohou jen obtížně upravovat své produkty či vytvářet produkty nové; domnívá se, že pokud by byl vývoj povinného pojištění ponechán plně na trhu, vznikl by pravděpodobně jeden standardní produkt s nepřiměřeně vysokými cenami a nevhodnými pobídkami, což by provozovatele vedlo k tomu, aby volili nejlevnější pojištění, a nikoli pojištění s nejlepším krytím; domnívá se, že Komise by měla s odvětvím pojišťovnictví úzce spolupracovat a snažit se zjistit, jak by bylo možné data a inovativní modely využít k vytvoření pojištění, které bude nabízet dostatečné krytí za dostupnou cenu;

Závěrečné aspekty

26.

žádá Komisi, aby na základě článku 225 Smlouvy o fungování Evropské unie a s ohledem na doporučení uvedená v příloze k této zprávě předložila návrh nařízení o odpovědnosti za provoz systémů umělé inteligence;

27.

domnívá se, že požadovaný návrh nebude mít finanční dopady;

o

o o

28.   

pověřuje svého předsedu, aby předal toto usnesení a připojená doporučení Komisi a Radě.


(1)  Úř. věst. L 210, 7.8.1985, s. 29.

(2)  Úř. věst. L 149, 11.6.2005, s. 22.

(3)  Úř. věst. L 304, 22.11.2011, s. 64.

(4)  Úř. věst. L 117, 5.5.2017, s. 1.

(5)  Úř. věst. L 252, 8.10.2018, s. 1.

(6)  Úř. věst. L 136, 22.5.2019, s. 1.

(7)  Úř. věst. L 123, 12.5.2016, s. 1.

(8)  Úř. věst. C 252, 18.7.2018, s. 239.

(9)  Úř. věst C 307, 30.8.2018, s. 163.

(10)  Úř. věst. C 433, 23.12.2019, s. 86.

(11)  Přijaté texty, P8_TA(2019)0081.

(12)  Přijaté texty, P9_TA(2020)0032.

(13)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178'

(14)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf

(15)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf

(16)  Úř. věst. L 11, 15.1.2002, s. 4.

(17)  Úř věst. L 263, 7.10.2009, s. 11.


PŘÍLOHA K USNESENÍ:

PODBROBNÁ DOPORUČENÍ K VYPRACOVÁNÍ NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY O ODPOVĚDNOSTI ZA PROVOZ SYSTÉMŮ UMĚLÉ INTELIGENCE

A.   ZÁSADY A CÍLE NÁVRHU

Tato zpráva se zaměřuje na důležitý aspekt digitalizace, která je sama vytvářena pod vlivem přeshraniční činnosti, globální hospodářské soutěže a klíčových společenských faktorů. Vodítkem by měly být tyto zásady:

1.

K dosažení skutečně jednotného digitálního trhu je nutná úplná harmonizace formou nařízení.

2.

Nové právní výzvy, které s sebou nese vývoj systémů umělé inteligence, je třeba řešit zajištěním maximální právní jistoty v celém řetězci odpovědnosti, včetně výrobců, provozovatelů, poškozených osob a všech dalších třetích osob.

3.

Je třeba zabránit přílišné regulaci a nadměrné administrativní zátěži, neboť by bránily evropským inovacím ve sféře umělé inteligence, zejména v případech, kdy technologie, produkty či služby vyvíjí malé a střední podniky nebo začínající podniky.

4.

Normy občanskoprávní odpovědnosti pro umělou inteligenci by měly usilovat o rovnováhu mezi ochranou veřejnosti a podnikatelskými pobídkami k investicím do inovací, zejména systémů umělé inteligence.

5.

Místo nahrazení stávajících, dobře fungujících režimů odpovědnosti by mělo být provedeno několik nezbytných úprav, které by do praxe zavedly nové progresivní podněty.

6.

Budoucí návrh nařízení a směrnice o odpovědnosti za vadné výrobky představují dva pilíře společného rámce pro odpovědnost za systémy umělé inteligence a vyžadují úzkou spolupráci a sladění mezi všemi politickými aktéry na unijní i vnitrostátní úrovni.

7.

Občané by měli mít nárok na stejnou úroveň ochrany a stejná práva bez ohledu na to, zda újmu způsobil systém umělé inteligence či nikoliv nebo zda k újmě došlo při reálné nebo virtuální činnosti, aby byla posílena jejich důvěra v tuto novou technologii.

8.

Budoucí návrh nařízení by měl upravovat hmotné i nehmotné škody. Evropská komise se vyzývá, aby mimo jiné na základě svého sdělení ze dne 19. února 2020 o dopadech umělé inteligence a robotiky na bezpečnost a odpovědnost provedla důkladnou analýzu právních tradic všech členských států i platných právních ustanovení, která přiznávají odškodnění za nehmotnou újmu, s cílem posoudit, zda je právně legitimní a z pohledu poškozené osoby nezbytné do budoucího návrhu nařízení zahrnout nehmotnou újmu. Parlament se na základě dostupných informací domnívá, že značná nehmotná újma by měla být do nařízení zahrnuta, pokud poškozená osoba utrpěla zjevnou, tj. prokazatelnou hospodářskou ztrátu.

B.   ZNĚNÍ POŽADOVANÉHO NÁVRHU

Návrh

NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY

o odpovědnosti za provoz systémů umělé inteligence

EVROPSKÝ PARLAMENT A RADA EVROPSKÉ UNIE,

S ohledem na Smlouvu o fungování Evropské unie a zejména na článek 114 této smlouvy,

s ohledem na návrh Evropské komise,

po postoupení návrhu legislativního aktu vnitrostátním parlamentům,

s ohledem na stanovisko Evropského hospodářského a sociálního výboru (1),

v souladu s řádným legislativním postupem (2),

vzhledem k tomu, že:

(1)

Pojem „odpovědnost“ plní v našem každodenním životě důležitou dvojí funkci: na jedné straně zajišťuje, aby osoba, která utrpěla újmu, měla nárok žádat a získat odškodnění od strany, která nese za tuto újmu odpovědnost, a na druhé straně prostřednictvím hospodářských pobídek motivuje osoby k tomu, aby se snažily újmu nezpůsobovat. Rámec pro odpovědnost by měl vzbuzovat důvěru v bezpečnost, spolehlivost a jednotnost výrobků a služeb, včetně nových digitálních technologií, jako je umělá inteligence, internet věcí a robotika, aby zajistil rovnováhu mezi účinnou ochranou potenciálních poškozených a současně aby poskytoval dostatečný prostor k vývoji nových technologií, produktů nebo služeb.

(2)

Zejména na začátku životního cyklu nových výrobků a služeb, poté, co byly předběžně otestovány, existuje pro uživatele i třetí strany určité riziko, že něco nebude fungovat správně. Proces založený na metodě pokusu a omylu je však zároveň klíčovým hybatelem technického pokroku, bez něhož by většina našich technologií neexistovala. Dosud tomu bylo tak, že platily přísné předpisy pro bezpečnost výrobků a pravidla odpovědnosti, které rizika související s novými produkty a službami náležitě snižovaly.

(3)

Vzestup umělé inteligence však pro stávající rámce pro odpovědnost představuje značnou výzvu. Používání systémů umělé inteligence v každodenním životě povede k situacím, kdy v důsledku jejich neprůhlednosti (prvek „černé skříňky“) a velkého počtu aktérů, kteří intervenují v rámci jejich životního cyklu, bude mimořádně nákladné, nebo dokonce nemožné určit, kdo kontroloval riziko spojené s použitím dotčeného systému umělé inteligence nebo který kód či vstup způsobil škodlivou operaci. Tento problém navíc zhoršuje konektivita mezi systémem umělé inteligence s jinými systémy umělé inteligence i systémy, které umělou inteligenci nepoužívají, závislost na vnějších datech, náchylnost k narušení kybernetické bezpečnosti a rostoucí autonomie systémů umělé inteligence, kterou disponují schopnostmi strojového a hlubokého učení. Kromě těchto složitých vlastností a potenciálních slabin by systémy umělé inteligence mohly být také zneužity ke způsobení závažné újmy, například k ohrožení lidské důstojnosti, evropských hodnot a svobod tím, že by byli jednotlivci sledováni proti své vůli, že by byly zavedeny systémy sociálního kreditu, přijímána zaujatá rozhodnutí v otázkách zdravotního pojištění, poskytování úvěrů, soudních příkazů či zaměstnání nebo sestrojovány smrtící autonomní zbraňové systémy.

(4)

Je důležité zdůraznit, že výhody zavádění systémů umělé inteligence výrazně převáží nad jejich nevýhodami. Přispějí k účinnějšímu boji proti změně klimatu, ke zlepšení lékařských vyšetření a pracovních podmínek, k lepší integraci postižených a stárnoucích osob do společnosti a k zavedení individuálně přizpůsobené výuky pro všechny typy studentů. Mají-li být využity různé technologické příležitosti a posílena důvěra lidí ve využívání systémů umělé inteligence a má-li se současně předejít nepříznivým scénářům, je třeba se ubírat cestou přísných etických norem v kombinaci s propracovanými a spravedlivými postupy odškodnění.

(5)

Adekvátní režim odpovědnosti je také nutný jako protiváha k porušení bezpečnostních pravidel. Režim stanovený v tomto nařízení však musí zohledňovat všechny zájmy, které jsou s ním spojeny. Základní podmínkou pro další legislativní kroky je pečlivé prozkoumání dopadů případného nového regulačního rámce na malé a střední podniky a začínající podniky. Klíčová úloha těchto podniků v evropském hospodářství zdůvodňuje důsledně proporcionální postup, který jim umožní vyvíjet se a inovovat. Na druhou stranu musí mít poškození právo na nápravu a plnou náhradu vzniklé újmy.

(6)

Veškeré změny, které jsou zapotřebí ve stávajícím právním rámci, by měly především nejprve vyjasnit, že systémy umělé inteligence nemají právní subjektivitu ani lidské svědomí a že jejich jediným účelem je sloužit lidstvu. Řada systémů umělé inteligence se navíc příliš neliší od jiných technologií, které jsou někdy založeny na ještě složitějším softwaru. Převážná většina systémů umělé inteligence se ostatně používá k triviálním úkonům, a proto pro společnost nepředstavují žádné nebo minimální riziko. Termín „automatizované rozhodovací procesy“ by mohl vyřešit připadnou nejednoznačnost termínu „umělá inteligence“. V rámci automatizovaných rozhodovacích procesů uživatel již od počátku částečně nebo plně svěří prostřednictvím softwaru nebo služby rozhodnutí jinému subjektu. Tento subjekt následně používá automatizované rozhodovací modely k provedení určitého úkonu jménem uživatele nebo k informování pro rozhodnutí uživatele k provedení určitého úkonu.

(7)

Existují však i systémy umělé inteligence, které jsou vyvíjeny a zaváděny kritickým způsobem a zakládají se na technologiích, jako jsou neuronové sítě a procesy hlubokého učení. Vzhledem k jejich neprůhlednosti a autonomii by mohlo být velmi obtížné zpětně vysledovat, která konkrétní koncepční nebo provozní rozhodnutí, která učinil člověk, vedla k daným operacím. Provozovatel takového systému umělé inteligence by mohl například namítat, že fyzická nebo virtuální činnost, zařízení nebo proces, které způsobily újmu, nebyly pod jeho kontrolou, neboť újma byla způsobena autonomním provozem jeho systému umělé inteligence. Kromě toho pouhé provozování autonomního systému umělé inteligence by nemělo být dostatečným důvodem k uznání odpovědnosti. Mohlo by tak dojít ke sporům o odpovědnost, kdy by odpovědnost byla přisouzena nespravedlivě nebo neúčinně nebo kdy by osoba, jež utrpěla újmu způsobenou systémem umělé inteligence, nemohla prokázat zavinění výrobcem, třetí stranou, která do systému zasáhla, ani provozovatelem a nakonec by nebyla odškodněna.

(8)

Mělo by být nicméně vždy jasné, že za újmu způsobenou činností, zařízením nebo procesy systému umělé inteligence by měl být odpovědný ten, kdo tento systém vytváří, spravuje, řídí nebo do něj zasahuje. Vyplývá to z obecných a široce uznávaných právních koncepcí odpovědnosti, podle nichž za riziko ohrožující veřejnost nese odpovědnost osoba, která riziko vytvořila nebo která jej představuje, vznikne-li v důsledku tohoto rizika újma, a měla by proto toto riziko předem minimalizovat nebo následně odškodnit. Vzestup systémů umělé inteligence tedy nevyžaduje kompletní revizi pravidel upravujících odpovědnost v celé Unii. K vyřešení výzev spojených s umělou inteligencí postačí, budou-li provedeny specifické úpravy stávajících právních předpisů a zavedena promyšlená a cílená nová ustanovení, aby se zabránilo roztříštěnosti právní úpravy a aby se v celé Unii zajistila harmonizace legislativy upravující občanskoprávní odpovědnost za umělou inteligenci.

(9)

Směrnice Rady 85/374/EHS (3) („směrnice o odpovědnosti za vadné výrobky“) se za 30 let osvědčila jako účinný nástroj pro kompenzaci za škodu způsobenou vadným výrobkem. Proto by se měla používat také v případě občanskoprávních nároků strany, která utrpí újmu, vůči výrobci vadného systému umělé inteligence. V souladu se zásadami Unie pro zdokonalení tvorby právních předpisů je nutné veškeré nezbytné legislativní úpravy projednat při nezbytné revizi uvedené směrnice. Platné právní předpisy členských států upravující odpovědnost ve většině případů také nabízejí dostatečnou ochranu osobám, kterým byla způsobena újma zásahem třetí strany, neboť se v takovém případě často jedná o zaviněné jednání, kdy třetí strana používá systémy umělé inteligence za účelem způsobení újmy. Proto by se mělo toto nařízení zaměřit na nároky vůči provozovateli systému umělé inteligence.

(10)

Odpovědnost provozovatele podle tohoto nařízení se zakládá na skutečnosti, že vykonává určitou kontrolu nad riziky spojenými s provozem a fungováním systému umělé inteligence, která jsou srovnatelná s riziky majitele automobilu. Čím je systém důmyslnější a autonomnější, tím větší dopad má definování a ovlivňování algoritmů, například pomocí průběžných aktualizací. Vzhledem k tomu, že často lze za provozovatele systému umělé inteligence smysluplně považovat více než jednu osobu, termín „provozovatel“ podle toho nařízení by měl zahrnovat provozovatele frontendových i backendových služeb. Ačkoli je provozovatel frontendových služeb obecně osobou, která „primárně“ rozhoduje o použití systému umělé inteligence, ve skutečnosti by mohl mít vyšší stupeň kontroly nad provozními riziky provozovatel backendových služeb. Je-li provozovatel backendových služeb také „výrobcem“ ve smyslu článku 3 směrnice o odpovědnosti za vadné výrobky, měla by se na něj uplatňovat tato směrnice. V případě jednoho provozovatele, který je zároveň výrobcem systému umělé inteligence, by toto nařízení mělo přednost před směrnicí o odpovědnosti za vadné výrobky.

(11)

Pokud je uživatel, tedy osoba používající systém umělé inteligence, účastníkem škodní události, měl by podle tohoto nařízení nést odpovědnost za škodu pouze v případě, že je provozovatelem. V opačném případě by mohl rozsah hrubé nedbalosti nebo úmyslného přispění uživatele k riziku vést k jeho subjektivní odpovědnosti vůči navrhovateli. Použitelná spotřebitelská práva uživatele by neměla být dotčena.

(12)

Toto nařízení by mělo poškozené osobě umožnit uplatnit nárok na odškodnění v celém řetězci odpovědnosti a během celého životního cyklu systému umělé inteligence. Nařízení by se mělo v zásadě vztahovat na všechny systémy umělé inteligence bez ohledu na to, kde jsou provozovány, nebo zda se jedná o reálný nebo virtuální provoz. Většina nároků na odškodnění podle tohoto nařízení by se však měla týkat případů odpovědnosti třetích stran, kdy je systém umělé inteligence provozován ve veřejném prostoru a kdy je riziku vystaveno velké množství osob. V takové situaci si poškozené osoby často nebudou provozu systému umělé inteligence vědomy a nebudou mít s jeho provozovatelem žádný smluvní ani právní vztah. Provozování systému umělé inteligence je tak dostává do situace, kdy v případě způsobené újmy nebo škody mohou vůči provozovateli daného systému uplatnit nároky pouze na základě subjektivní odpovědnosti, přičemž zavinění provozovatele budou prokazovat jen velmi obtížně.

(13)

Rozhodujícím faktorem je druh systému umělé inteligence, nad nímž má provozovatel kontrolu. Vysoce rizikový systém umělé inteligence může v daleko větší míře ohrožovat uživatele nebo veřejnost nahodilým způsobem, který přesahuje rámec toho, co lze rozumně očekávat. To znamená, že na začátku autonomního provozu systému umělé inteligence není možné většinu potenciálně poškozených osob (např. osob na veřejném náměstí nebo v sousedním domě) zjistit nebo identifikovat, ve srovnání s provozem systému, který se týká konkrétních osob, jež s jeho použitím obvykle předem souhlasily (např. před operací v nemocnici nebo při prodejních předváděcích akcích v malém obchodě). Potenciál vysoce rizikového systému umělé inteligence způsobit újmu se stanoví podle souhry mezi účelem použití, pro který je systém umělé inteligence uveden na trh, způsobem jeho použití, závažností možné újmy, stupněm autonomního rozhodování, které může vést k újmě, a pravděpodobností, že se riziko skutečně projeví. Stupeň závažnosti by se měl stanovovat na základě relevantních faktorů, jako je míra případné újmy poškozených osob vyplývající z provozu, zejména dopady na základní práva, počet poškozených osob, celková hodnota případné škody a újma způsobená společnosti jako celku. Pravděpodobnost vzniku újmy nebo škody by se měla stanovovat na základě relevantních faktorů, jako je úloha algoritmických výpočtů v rozhodovacím procesu, složitost rozhodování a vratnost dopadů. Způsob používání by měl záviset na relevantních faktorech, jako je kontext a odvětví, v němž je systém umělé inteligence provozován, na tom, zda by mohl mít právní nebo faktický dopad na důležitá zákonem chráněná práva poškozené osoby, a zda je možné těmto dopadům v rozumné míře zabránit.

(14)

Všechny vysoce rizikové systémy umělé inteligence by měly být uvedeny na vyčerpávajícím seznamu v příloze k tomuto nařízení. S ohledem na rychlý technický rozvoj a vývoj trhu a také na odborné znalosti, které jsou nutné k příslušnému přehodnocení systémů umělé inteligence, by měla být na Komisi přenesena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 290 Smlouvy o fungování Evropské unie, aby mohla měnit toto nařízení, pokud jde o druhy systémů umělé inteligence, které představují vysoké riziko, a kritická odvětví, v nichž se používají. Komise by měla na základě definic a ustanovení podle tohoto nařízení zavčas, minimálně však každých šest měsíců, přehodnocovat jeho přílohu a v případě nutnosti ji na základě aktů v přenesené pravomoci měnit. Komise by měla zahájit hodnocení případné vysoké rizikovosti systému umělé inteligence souběžně s posouzením bezpečnosti produktu, aby se zabránilo tomu, že by byl vysoce rizikový systém umělé inteligence schválen pro trh, ale ještě nebyl klasifikován jako vysoce rizikový, a tudíž by byl provozován bez povinného pojistného krytí. Aby měly společnosti a výzkumné instituce dostatečnou jistotu pro plánování a investice, změny kritických odvětví by měly být prováděny pouze každých dvanáct měsíců. Pokud provozovatelé pracují na nové technologii, produktech nebo službách, které spadají pod některé ze stávajících kritických odvětví uvedených v příloze a které by později mohly být klasifikovány jako vysoce rizikový systém umělé inteligence, by o tom měly informovat Komisi.

(15)

Je obzvláště důležité, aby Komise v rámci přípravné činnosti vedla náležité konzultace s příslušnými zúčastněnými stranami, a to i na odborné úrovni, a aby tyto konzultace probíhaly v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů (4). Komisi by při pravidelných revizích podle tohoto nařízení měl být nápomocen stálý „Odborný výbor pro vysoce rizikové systémy umělé inteligence“ (TCRAI). Stálý výbor by se měl skládat ze zástupců členských států a měly by v něm být vyváženě zastoupeny také zainteresované strany, včetně spotřebitelských organizací, sdružení zastupujících poškozené osoby, zástupců podniků z různých odvětví a různé velikosti, výzkumných pracovníků a vědců. Pro zajištění rovné účasti na přípravě aktů v přenesené pravomoci obdrží Evropský parlament a Rada veškeré dokumenty současně s odborníky z členských států a odborníci Parlamentu a Rady mají při přípravě aktů v přenesené pravomoci systematický přístup na schůze skupin odborníků Komise a stálého výboru TCRAI.

(16)

Nařízení by se mělo vztahovat na újmu na životě, zdraví, tělesné integritě a majetkovou škodu a na značnou nehmotnou újmu, která vedla k prokazatelné hospodářské ztrátě překračující prahovou částku harmonizovanou v právních předpisech Unie o odpovědnosti, která vyváží přístup poškozených osob ke spravedlnosti se zájmy dalších zúčastněných osob. Komise by měla prahové částky pro škody přehodnotit a sladit v právních předpisech Unie. Značnou nehmotnou újmou by se měla rozumět značná újma, v jejímž důsledku poškozená osoba utrpěla objektivní a prokazatelné poškození osobních zájmů a hospodářskou ztrátu, která se vyčíslí s ohledem například na průměrné roční příjmy v minulosti a na další relevantní okolnosti. Nařízení by také mělo stanovit výši a rozsah odškodnění a promlčecí lhůtu k uplatnění nároku na odškodnění. Na rozdíl od směrnice o odpovědnosti za vadné výrobky by mělo toto nařízení stanovit mnohem nižší strop odškodnění, protože se vztahuje pouze na poškození jedné osoby v důsledku jedné operace systému umělé inteligence, zatímco uvedená směrnice se vztahuje na více výrobků nebo dokonce na výrobní řadu se stejnou vadou.

(17)

Na veškerou reálnou nebo virtuální činnost, zařízení nebo procesy řízené systémy umělé inteligence, které nejsou uvedeny v příloze tohoto nařízení jako vysoce rizikové systémy umělé inteligence, by se měla vztahovat subjektivní odpovědnost, pokud neexistují přísnější vnitrostátní právní předpisy a právní předpisy v oblasti ochrany spotřebitele. Pokud jde o výši a rozsah odškodnění a promlčecí lhůtu, měly by i nadále platit právní předpisy členských států, včetně příslušné judikatury. V případě, že újmu způsobí systém umělé inteligence, který není klasifikován jako vysoce rizikový, měla by platit presumpce zavinění ze strany provozovatele.

(18)

Náležitá péče, kterou lze očekávat ze strany provozovatele, by měla být úměrná i) povaze systému umělé inteligence, ii) potenciálně ohroženému právu chráněnému zákonem, iv) potenciální újmě, kterou by mohl systém umělé inteligence způsobit, a v) pravděpodobnosti vzniku takové újmy. Proto by se mělo přihlédnout k tomu, že provozovatel může mít omezené znalosti o algoritmech a datech používaných v systémech umělé inteligence. Pokud provozovatel zvolil systém umělé inteligence, který byl certifikován v rámci mechanismu, jenž se podobá dobrovolnému systému certifikace navrženému Komisí, mělo by se předpokládat, že si při výběru vhodného systému počínal s náležitou péčí, kterou lze od něho oprávněně očekávat (5). Pokud může provozovatel doložit, že systém umělé inteligence během provozu skutečně pravidelně sledoval a uvědomil výrobce o možných provozních nesrovnalostech, mělo by se předpokládat, že si při provozování takového systému počínal s náležitou péčí, kterou od něj lze oprávněně očekávat. Pokud provozovatel nainstaloval veškeré dostupné aktualizace, které mu poskytl výrobce systému umělé inteligence, mělo by se předpokládat, že si při zajišťování provozní spolehlivosti daného systému počínal s náležitou péčí, kterou od něj lze oprávněně očekávat. Vzhledem k tomu, že odbornost provozovatelů se může lišit podle toho, zda se jedná o pouhé spotřebitele nebo odborníky, měly by tomu být přizpůsobeny požadavky na péči.

(19)

Aby mohl provozovatel prokázat, že danou škodu nezavinil nebo aby poškozená osoba mohla prokázat zavinění, měli by být výrobci povinni spolupracovat s oběma dotčenými stranami, mimo jiné jim poskytnout řádně podložené informace. Unijní i mimounijní výrobci by měli být navíc povinni určit na území Unie svého zástupce pro odpovědnost za škody způsobené v důsledku používání umělé inteligence, který by byl kontaktní osobou pro poskytování odpovědí na veškeré dotazy provozovatelů podobně jako pověřenci pro ochranu osobních údajů podle článku 37 nařízení Evropského parlamentu a Rady (EU) 2016/679 o ochraně osobních údajů (6), zástupce výrobce podle čl. 3 odst. 41 a čl. 13 odst. 4 nařízení Evropského parlamentu a Rady (EU) 2018/858 (7) nebo zplnomocněný zástupce podle čl. 4 odst. 2 a 5 nařízení Evropského parlamentu a Rady (EU) 2019/1020 (8).

(20)

Normotvůrce se musí zabývat odpovědnostními riziky spojenými se systémy umělé inteligence v průběhu celého jejich životního cyklu, tj. od vývoje, přes používání až po konec životnosti, včetně nakládání s odpady a recyklace. Začlenění systémů umělé inteligence do výrobku nebo služby představuje pro podniky finanční riziko, a bude mít tudíž závažný dopad na schopnost a možnosti malých a středních podniků a začínajících podniků pojišťovat a financovat své výzkumné a vývojářské projekty založené na nových technologiích. Účelem stanovení odpovědnosti je proto nejen zaručit důležitá zákonem chráněná práva osob, ale také určit, zda podniky, zejména malé a střední podniky a začínající podniky, budou schopny získávat kapitál, inovovat, provádět výzkum a nakonec nabízet nové produkty a služby a zda budou spotřebitelé takovým výrobkům a službám důvěřovat a budou je ochotni používat bez ohledu na potenciální rizika a právní nároky, které by mohly v souvislosti s těmito produkty a službami vzneseny.

(21)

Pojištění může pomoci zaručit, aby se obětem dostalo účinného odškodnění, a také sdružovat rizika všech pojištěných osob. Jeden z faktorů, na nichž se zakládá nabídka pojistných produktů a služeb pojišťovacích společností, je posouzení rizika vypracované na základě dostatečného množství údajů týkajících se odpovědnosti za škodu v minulosti. Omezený přístup ke kvalitním údajům nebo jejich nedostatečné množství by mohlo být důvodem, proč je vytváření pojistných produktů pro nové a vznikající technologie na počátku tak obtížné. Větší přístup k údajům generovaným novými technologiemi a optimalizace jejich využití spolu s povinností poskytovat řádně podložené informace však zvýší schopnost pojišťovacích společností modelovat nově vznikající rizika a podpořit vývoj inovativnějších pojistných krytí.

(22)

Vzhledem k tomu, že chybí údaje o uplatňování nároků na odškodnění v minulosti, je třeba přezkoumat, jak a za jakých podmínek je odpovědnost pojistitelná, a pojistky vázat na produkt, a nikoli na odpovědnou osobu. S vývojem technologií už existují pojistné produkty, které jsou vyvíjeny pro jednotlivé oblasti a druhy krytí. Řada pojistitelů se specializuje na určité segmenty trhu (např. na malé a střední podniky) nebo na pojistné krytí určitých druhů produktů (např. elektrospotřebičů), což znamená, že obvykle budou mít pro pojištěné subjekty k dispozici pojistný produkt. Je však obtížné stanovit univerzální řešení a pojistný trh bude potřebovat čas na to, aby se přizpůsobil. Komise by měla úzce spolupracovat s pojistným trhem na vývoji inovativních pojistných produktů, které by mohly tuto mezeru zaplnit. Ve výjimečných případech, jako je například událost, která způsobila hromadnou škodu, kdy by odškodnění výrazně převyšovalo maximální částky stanovené v tomto nařízení, by se členským státům mělo doporučit, aby na omezenou dobu vytvořily zvláštní odškodňovací fondy, které by řešily konkrétní potřeby v těchto případech. Zvláštní odškodňovací fondy by také mohly být vytvářeny ke krytí výjimečných případů, kdy újmu způsobil systém umělé inteligence, který ještě nebyl klasifikován jako vysoce rizikový, a tedy není pojištěn. Aby byla zajištěna právní jistota a splněna povinnost informovat všechny potenciálně poškozené osoby, měly by být zveřejněny jasné a vyčerpávající informace o vytvoření zvláštního odškodňovacího fondu a o podmínkách pro vznesení nároku na odškodnění z tohoto fondu.

(23)

Je nanejvýš důležité, aby veškeré budoucí změny znění tohoto nařízení šly ruku v ruce s nezbytným přepracováním směrnice o odpovědnosti za vadné výrobky, aby byl proveden komplexní a konzistentní přezkum a zaručena práva a povinnosti všech dotčených stran v řetězci odpovědnosti. Zavedení nového režimu odpovědnosti pro provozovatele systémů umělé inteligence vyžaduje úzkou koordinaci ustanovení tohoto nařízení s přezkumem směrnice o odpovědnosti za vadné výrobky, pokud jde o jejich věcnou podstatu i uplatňovaný přístup, tak aby spolu tvořily provázaný rámec odpovědnosti za škodu způsobenou systémy umělé inteligence a vyvažovaly zájmy výrobce, provozovatele, spotřebitele a poškozené osoby, tedy odpovědnostní riziko a příslušné způsoby odškodnění. Je proto nutné ve všech právních předpisech upravit a zjednodušit definice systému umělé inteligence, provozovatele frontendových a backendových služeb, výrobce, vady, výrobku a služby, což by mělo být provedeno paralelně.

(24)

Cíle tohoto nařízení – totiž vytvořit na úrovni Unie progresivní a jednotný přístup, díky němuž by byly pro evropské občany a podniky vytvořeny společné evropské normy, které by zajistily jednotná práva a právní jistotu v celé Unii a zamezily tříštění jednotného digitálního trhu, jež by bránilo zachování digitální suverenity, podpoře digitálních inovací v Evropě a zajištění vysoké úrovně ochrany občanských a spotřebitelských práv – vyžadují plnou harmonizaci režimů odpovědnosti za škodu způsobenou systémy umělé inteligence. Vzhledem k rychlým technologickým změnám, přeshraničnímu vývoji a využívání systémů umělé inteligence a v konečném důsledku i vzhledem k protichůdným legislativním přístupům v Unii nemohou tohoto cíle uspokojivě dosáhnout členské státy, avšak z důvodu rozsahu činnosti nebo jejích účinků jej lze dosáhnout spíše na úrovni Unie. Unie proto může přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o Evropské unii. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení těchto cílů.

PŘIJALY TOTO NAŘÍZENÍ:

KAPITOLA I

OBECNÁ USTANOVENÍ

Článek 1

Předmět

Toto nařízení stanovuje pravidla pro nároky fyzických a právnických osob na určení občanskoprávní odpovědnosti vůči provozovatelům systémů umělé inteligence.

Článek 2

Oblast působnosti

1.   Toto nařízení se použije na území Unie v případech, kdy fyzická nebo virtuální činnost, zařízení nebo proces řízené systémem umělé inteligence způsobí újmu na životě, zdraví či tělesné integritě fyzické osoby nebo škodu na majetku fyzické nebo právnické osoby nebo pokud způsobí značnou nehmotnou újmu, v jejímž důsledku došlo k prokazatelné hospodářské ztrátě.

2.   Veškeré dohody mezi provozovatelem systému umělé inteligence a fyzickou nebo právnickou osobou, jíž takový systém způsobil újmu, které obcházejí nebo omezují práva a povinnosti stanovené v tomto nařízení a které byly uzavřeny předtím nebo poté, co došlo k újmě, se považují za neplatné, pokud jde o práva a povinnosti stanovené tímto nařízením.

3.   Tímto nařízením nejsou dotčeny další nároky na odškodnění vyplývající ze smluvních vztahů mezi provozovatelem a fyzickou nebo právnickou osobou, které systém umělé inteligence způsobil újmu, ani nároky na odškodnění podané vůči provozovateli podle unijního nebo vnitrostátního práva na základě předpisů týkajících se odpovědnosti za výrobky, ochrany spotřebitele, zákazu diskriminace, ochrany pracovníků a životního prostředí.

Článek 3

Definice

Pro účely tohoto nařízení se použijí tyto definice:

a)

„systémem umělé inteligence“ se rozumí systém, který je buď založen na softwaru, nebo je součástí hardwarových zařízení a vykazuje chování simulující inteligenci mimo jiné tím, že shromažďuje a zpracovává údaje, analyzuje a interpretuje své okolí a činí s určitým stupněm autonomie kroky k dosažení konkrétních cílů;

b)

„autonomním“ se rozumí systém umělé inteligence, který pracuje tak, že analyzuje určitá vstupní data a využívá soubor předem stanovených instrukcí, na něž se však neomezuje, a to navzdory tomu, že jeho chování je omezeno cílem, který mu byl stanoven, a dalšími koncepčními rozhodnutími vývojáře a je zaměřen na splnění tohoto cíle;

c)

„vysokým rizikem“ se rozumí významný potenciál autonomně fungujícího systému umělé inteligence způsobit jedné nebo více osobám újmu náhodným způsobem, který výrazně přesahuje to, co lze přiměřeně očekávat; význam tohoto potenciálu závisí na souhře mezi závažností možné újmy, stupni rozhodovací autonomie, pravděpodobností, že se riziko skutečně zrealizuje, a způsobem, jakým se systém umělé inteligence využívá;

d)

„provozovatelem“ se rozumí provozovatel frontendových nebo backendových služeb, není-li jeho odpovědnost upravena směrnicí 85/374/EHS;

e)

„provozovatelem frontendových služeb“ se rozumí fyzická nebo právnická osoba, která má určitý stupeň kontroly nad riziky spojenými s provozem a fungováním systému umělé inteligence a má z něj prospěch;

f)

„provozovatelem backendových služeb“ se rozumí fyzická nebo právnická osoba, která průběžně definuje vlastnosti technologie a poskytuje data a nezbytné backendové podpůrné služby, a proto vykonává určitý stupeň kontroly nad riziky spojenými s provozem a fungováním systému umělé inteligence;

g)

„kontrolou“ se rozumí jakýkoli úkon provozovatele, který ovlivňuje provoz systému umělé inteligence, a tedy rozsah, v jakém provozovatel vystavuje třetí strany potenciálním rizikům spojeným s provozem a fungováním systému umělé inteligence; k ovlivňování provozu může docházet v kterékoli fázi, a to tak, že provozovatel určuje vstupy, výstupy nebo výsledky nebo mění některé funkce či procesy v rámci systému umělé inteligence; stupeň, do něhož jsou tyto aspekty provozu systému umělé inteligence určovány daným úkonem, závisí na tom, do jaké míry má provozovatel vliv na riziko spojené s provozem a fungováním systému umělé inteligence;

h)

„poškozenou osobou“ se rozumí kterákoli osoba, která utrpěla újmu způsobenou fyzickou nebo virtuální činností, zařízením nebo procesem řízeným systémem umělé inteligence, přičemž tato osoba není jeho provozovatelem;

i)

„újmou“ se rozumí negativní dopad na život, zdraví a tělesnou integritu fyzické osoby nebo na majetek fyzické nebo právnické osoby nebo značná nehmotná újma, která způsobí prokazatelnou hospodářskou ztrátu;

j)

„výrobcem“ se rozumí výrobce ve smyslu článku 3 směrnice 85/374/EHS.

KAPITOLA II:

VYSOCE RIZIKOVÉ SYSTÉMY UMĚLÉ INTELIGENCE

Článek 4

Objektivní odpovědnost za vysoce rizikové systémy umělé inteligence

1.   Provozovatel vysoce rizikového systému umělé inteligence nese objektivní odpovědnost za veškerou újmu způsobenou fyzickou nebo virtuální činností, zařízením nebo procesem řízeným uvedeným systémem umělé inteligence.

2.   Úplný výčet vysoce rizikových systémů umělé inteligence a kritických odvětví, v nichž se používají, je uveden v příloze k tomuto nařízení. Komisi je v souladu s článkem 13 svěřena pravomoc přijímat akty v přenesené pravomoci za účelem provedení následujících změn tohoto výčtu:

a)

vložení nových druhů vysoce rizikových systémů umělé inteligence a kritických odvětví, v nichž jsou používány,

b)

odstranění druhů systémů umělé inteligence, které se již nepovažují za vysoce rizikové,

c)

změna kritických odvětví u stávajících rizikových systémů umělé inteligence.

Akt v přenesené pravomoci pozměňující přílohu vstupuje v platnost šest měsíců po přijetí. Při určování, které vysoce rizikové systémy umělé inteligence a kritická odvětví budou nově vloženy do přílohy prostřednictvím aktů v přenesené pravomoci, přihlíží Komise ke všem kritériím stanoveným v tomto nařízení, zejména ke kritériím uvedeným v čl. 3 písm. c).

3.   Provozovatele vysoce rizikových systémů umělé inteligence nezbavuje odpovědnosti prohlášení, že jednali s náležitou péčí nebo že újma byla způsobena autonomní činností, zařízením nebo procesem řízeným systémem umělé inteligence. Provozovatelé neodpovídají za újmu způsobenou vyšší mocí.

4.   Provozovatel frontendových služeb vysoce rizikového systému umělé inteligence uzavře ve vztahu k provozu těchto systémů pojištění odpovědnosti, které odpovídá výši a rozsahu odškodnění podle článků 5 a 6 tohoto nařízení. Provozovatel backendových služeb uzavře ve vztahu k provozu těchto systémů podnikatelské nebo produktové pojištění odpovědnosti, které odpovídá výši a rozsahu odškodnění podle článků 5 a 6 tohoto nařízení. Pokud povinné pojištění, které provozovatel frontendových nebo backendových služeb již uzavřel na základě jiných právních předpisů Unie nebo členských států, nebo platné dobrovolné podnikatelské pojištění je dostačující s ohledem na činnost systému umělé inteligence nebo poskytované služby, má se za to, že povinnost uzavřít pojištění ve vztahu k systému umělé inteligence nebo k poskytované službě byla splněna, jestliže příslušné stávající povinné pojištění odpovídá výši a rozsahu odškodnění uvedené v článku 5 a 6 tohoto nařízení.

5.   V případě odporující si klasifikace systémů umělé inteligence z hlediska objektivní odpovědnosti má toto nařízení přednost před právními úpravami odpovědnosti za škodu platnými v členských státech.

Článek 5

Výše odškodnění

1.   Provozovatel vysoce rizikového systému umělé inteligence, který je podle tohoto nařízení odpovědný za způsobenou újmu, poskytne odškodnění:

a)

do výše dvou milionů EUR, pokud v důsledku provozu vysoce rizikového systému umělé inteligence došlo k úmrtí nebo újmě na zdraví nebo tělesné integritě poškozené osoby;

b)

do výše jednoho milionu EUR, pokud došlo ke značné nehmotné újmě, která způsobila prokazatelnou hospodářskou ztrátu, nebo k majetkové škodě, a to i pokud došlo k poškození více částí majetku jedné osoby v důsledku jedné provozní operace jednoho vysoce rizikového systému umělé inteligence; v případě, že poškozená osoba má vůči provozovateli nárok na odškodnění za způsobenou škodu rovněž na základě smlouvy, se odškodnění podle tohoto nařízení nehradí, pokud je celková částka škody na majetku nebo značné nehmotné újmy nižší než [500 EUR] (9).

2.   Jestliže souhrnná výše odškodnění, které má být vyplaceno několika osobám, kterým tentýž provoz téhož vysoce rizikového systému umělé inteligence způsobil újmu, přesahuje celkovou částku uvedenou v odstavci 1, sníží se částka, která má být vyplacena každé z těchto osob, poměrným způsobem, tak aby souhrnná výše odškodnění nepřesáhla celkovou částku uvedenou v odstavci 1.

Článek 6

Rozsah odškodnění

1.   V rámci částky uvedené v čl. 5 odst. 1 písm. a) se výše odškodnění, kterou má uhradit provozovatel nesoucí odpovědnost za újmu na zdraví, která vedla k úmrtí poškozené osoby, vypočte na základě nákladů na lékařskou péči, která byla dané osobě poskytnuta před její smrtí, a finanční škody, která vznikla před její smrtí v důsledku ztráty nebo omezení její schopnosti vykonávat výdělečnou činnost nebo zvýšení jejích potřeb po dobu trvání újmy na zdraví před její smrtí. Provozovatel nesoucí odpovědnost za újmu rovněž uhradí náklady na pohřeb zemřelé poškozené osoby osobě, která tyto náklady nese.

Pokud v době nehody, která způsobila újmu vedoucí k úmrtí poškozené osoby, byla tato osoba ve vztahu k třetí osobě, vůči níž měla zákonnou vyživovací povinnost, poskytne provozovatel nesoucí odpovědnost za újmu této třetí osobě odškodnění formou úhrady výživného ve výši, kterou by musela platit poškozená osoba, a to po dobu, která odpovídá průměrné střední délce života osoby jejího věku a jejího stavu. Provozovatel třetí osobu odškodní i v případě, že v době nehody, která vedla ke smrti, byla třetí osoba již počata, ale ještě se nenarodila.

2.   Odškodnění, která má uhradit provozovatel, jenž nese odpovědnost za újmu na zdraví nebo tělesné integritě poškozené osoby, zahrnuje v rámci částky uvedené v čl. 5 odst. 1 písm. b) úhradu nákladů na související léčbu a případné finanční škody, která poškozené osobě vznikla v důsledku přerušení, omezení nebo ztráty schopnosti vykonávat výdělečnou činnost nebo v důsledku následného lékařsky doloženého navýšení jejích potřeb.

Článek 7

Promlčecí lhůty

1.   Na občanskoprávní nároky uplatňované v souladu s čl. 4 odst. 1, které se týkají újmy na životě, zdraví nebo tělesné integritě, se vztahuje zvláštní promlčecí lhůta v délce 30 let ode dne vzniku újmy.

2.   Na občanskoprávní nároky uplatňované v souladu s čl. 4 odst. 1, které se týkají majetkové škody nebo značné nehmotné újmy, která způsobila prokazatelnou hospodářskou ztrátu, se vztahují tyto zvláštní promlčecí lhůty:

a)

10 let ode dne, kdy došlo k majetkové škodě nebo k prokazatelné hospodářské ztrátě, jež byla způsobena značnou nehmotnou újmou, nebo

b)

30 let ode dne, kdy proběhl úkon vysoce rizikového systému umělé inteligence, jenž později způsobil majetkovou škodu nebo nehmoutnou újmu.

Pokud jde o promlčecí lhůty uvedené v prvním pododstavci, platí ta, která uplyne jako první.

3.   Tímto článkem nejsou dotčeny vnitrostátní právní předpisy, kterými se řídí pozastavení nebo přerušení platnosti promlčecí lhůty.

KAPITOLA III

OSTATNÍ SYSTÉMY UMĚLÉ INTELIGENCE

Článek 8

Subjektivní odpovědnost za ostatní systémy umělé inteligence

1.   Na provozovatele systému umělé inteligence, který není vysoce rizikovým systémem podle čl. 3 písm. c) a čl. 4 odst. 2, a není proto uveden v příloze tohoto nařízení, se vztahuje subjektivní odpovědnost za jakoukoli újmu způsobenou fyzickou nebo virtuální činností, zařízením nebo procesem řízeným systémem umělé inteligence.

2.   Provozovatel nenese odpovědnost, pokud je schopen prokázat, že újma nebyla způsobena jeho zaviněním, a to na základě kteréhokoli z následujících důvodů:

a)

systém umělé inteligence byl aktivován bez jeho vědomí, přestože byla přijata všechna přiměřená a nezbytná opatření k tomu, aby k aktivaci, která by nebyla pod jeho kontrolou, nedošlo, nebo

b)

byla dodržena zásada náležité péče provedením všech níže uvedených opatření: byl zvolen systém umělé inteligence vhodný pro příslušný úkol a odpovídají příslušným dovednostem, systém byl řádně uveden do provozu, byla sledována jeho činnost a byla zajištěna provozní spolehlivost pravidelnou instalací veškerých dostupných aktualizací.

Provozovatele nezbavuje odpovědnosti prohlášení, že újma byla způsobena autonomní činností, zařízením nebo procesem řízeným systémem umělé inteligence. Provozovatel neodpovídá za újmu způsobenou vyšší mocí.

3.   Pokud byla újma způsobena třetí osobou, která zasáhla do systému umělé inteligence tím, že změnila jeho fungování nebo jeho účinky, je provozovatel povinen vyplatit odškodnění v případě, že danou třetí osobu nelze vypátrat nebo je nemajetná.

4.   Na žádost provozovatele nebo poškozené osoby je výrobce systému umělé inteligence povinen spolupracovat a poskytovat informace v rozsahu odpovídajícím významu nároku, aby umožnil určit odpovědnost.

Článek 9

Vnitrostátní ustanovení o odškodnění a promlčecích lhůtách

Na občanskoprávní nároky uplatňované v souladu s čl. 8 odst. 1 se vztahují promlčecí lhůty a výše a rozsah odškodnění stanovené právními předpisy členského státu, v němž k újmě došlo.

KAPITOLA IV

ROZDĚLENÍ ODPOVĚDNOSTI

Článek 10

Spoluzavinění z nedbalosti

1.   Pokud újmu způsobila jak fyzická a virtuální činnost, zařízení nebo proces řízený systémem umělé inteligence, tak i činnost poškozené osoby nebo jakékoli jiné osoby, která je jí podřízena, rozsah odpovědnosti provozovatele podle tohoto nařízení se odpovídajícím způsobem sníží. Provozovatel nenese odpovědnost, pokud újma vznikla výlučně zaviněním poškozené osoby nebo osoby, která je jí podřízena.

2.   Provozovatel, který nese odpovědnost, může údaje vygenerované systémem umělé inteligence použít k tomu, aby poškozené osobě prokázal spoluzavinění z nedbalosti, v souladu s nařízením (EU) 2016/679 a dalšími právními předpisy o ochraně údajů. Poškozená osoba může tyto údaje rovněž použít jako důkaz nebo vysvětlení v souvislosti s nárokem na odškodnění.

Článek 11

Společná a nerozdílná odpovědnost

Pokud existuje více provozovatelů systému umělé inteligence, nesou společnou a nerozdílnou odpovědnost. Pokud je provozovatel poskytující frontendové služby zároveň výrobcem systému umělé inteligence, má toto nařízení přednost před směrnicí o odpovědnosti za výrobky. Je-li provozovatel backendových služeb rovněž považován za výrobce ve smyslu článku 3 směrnice o odpovědnosti za výrobky, měla by se ve vztahu k němu použít uvedená směrnice. Pokud existuje pouze jeden provozovatel, který je zároveň výrobcem systému umělé inteligence, má toto nařízení přednost před směrnicí o odpovědnosti za výrobky.

Článek 12

Regresní nárok

1.   Provozovatel má právo uplatnit regresní nárok, pouze pokud byla poškozená osoba plně odškodněna v souladu s tímto nařízením.

2.   V případě, že provozovatel nese vůči poškozené osobě společnou a nerozdílnou odpovědnost s jinými provozovateli a poškozenou osobu v souladu s čl. 4 odst. 1 nebo čl. 8 odst. 1 plně odškodnil, může od ostatních provozovatelů žádat úhradu části odškodnění v závislosti na jejich podílu odpovědnosti.

Podíly odpovědnosti se odvíjejí od míry, do níž měli jednotliví provozovatelé kontrolu nad rizikem spojeným s provozem a fungováním systému umělé inteligence. Pokud není možné od provozovatele, který nese společnou a nerozdílnou odpovědnost, získat jeho příspěvek, uhradí jej ostatní provozovatelé. Pokud provozovatel, který nese společnou a nerozdílnou odpovědnost, vyplatí poškozené osobě odškodnění a žádá od ostatních odpovědných provozovatelům úhradu zálohově vyplaceného odškodnění, přechází na něj nárok poškozené osoby vůči ostatním provozovatelům. K přechodu práv nesmí dojít v neprospěch původního nároku.

3.   Pokud provozovatel vadného systému umělé inteligence plně odškodní poškozenou osobu za způsobenou újmu v souladu s čl. 4 odst. 1 nebo čl. 8 odst. 1 tohoto nařízení, může uplatnit nárok na odškodnění vůči výrobci tohoto systému v souladu se směrnicí 85/374/EHS a vnitrostátními ustanoveními v oblasti odpovědnosti za výrobky.

4.   Pokud pojistitel provozovatele odškodní poškozenou osobu za způsobenou újmu v souladu s čl. 4 odst. 1 nebo čl. 8 odst. 1, přechází případný občanskoprávní nárok poškozené osoby vůči jiné osobě za tutéž újmu na pojistitele provozovatele až do výše odškodnění, jaké pojistitel provozovatele poškozené osobě vyplatil.

KAPITOLA V

ZÁVĚREČNÁ USTANOVENÍ

Článek 13

Výkon přenesené pravomoci

1.   Pravomoc přijímat akty v přenesené pravomoci je svěřena Komisi za podmínek stanovených v tomto článku.

2.   Pravomoc přijímat akty v přenesené pravomoci uvedené v čl. 4 odst. 2 je svěřena Komisi na dobu pěti let od [datum použitelnosti tohoto nařízení].

3.   Evropský parlament nebo Rada mohou přenesení pravomoci uvedené v čl. 4 odst. 2 kdykoli zrušit. Rozhodnutím o zrušení se ukončuje přenesení pravomoci v něm blíže určené. Rozhodnutí nabývá účinku prvním dnem po vyhlášení v Úředním věstníku Evropské unie nebo k pozdějšímu dni, který je v něm upřesněn. Nedotýká se platnosti již platných aktů v přenesené pravomoci.

4.   Před přijetím aktu v přenesené pravomoci vede Komise v souladu se zásadami stanovenými v interinstitucionální dohodě o zdokonalení tvorby právních předpisů ze dne 13. dubna 2016 konzultace se stálým Odborným výborem pro vysoce rizikové systémy umělé inteligence (TCRAI).

5.   Přijetí aktu v přenesené pravomoci Komise neprodleně oznámí současně Evropskému parlamentu a Radě.

6.   Akt v přenesené pravomoci přijatý podle čl. 4 odst. 2 vstoupí v platnost pouze v případě, že k němu Evropský parlament nebo Rada ve lhůtě dvou měsíců ode dne oznámení nevznesou námitku, či v případě, že Evropský parlament i Rada před uplynutím uvedené lhůty oznámí Komisi, že námitku nevznesou. Z podnětu Evropského parlamentu nebo Rady se tato lhůta prodlouží o dva měsíce.

Článek 14

Přezkum

Do 1. ledna 202X [3 roky od data použitelnosti tohoto nařízení] a poté každé tři roky předkládá Komise Evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru podrobnou zprávu zkoumající toto nařízení s ohledem na další rozvoj umělé inteligence.

Při přípravě zprávy uvedené v prvním pododstavci požádá Komise členské státy o informace o judikatuře a soudních smírech a o statistiku nehod, jako je jejich počet, způsobená újma, používané aplikace umělé inteligence, odškodnění vyplacené pojišťovnami, a rovněž je požádá o posouzení počtu právních nároků vznesených poškozenými osobami, a to buď jednotlivě, nebo kolektivně, a časových lhůt, v nichž jsou tyto nároky projednávány soudem.

Komise ke zprávě případně připojí legislativní návrhy s cílem odstranit zjištěné nedostatky.

Článek 15

Vstup v platnost

Toto nařízení vstupuje v platnost dvacátým dnem po vyhlášení v Úředním věstníku Evropské unie.

Použije se ode dne 1. ledna 202X.

Toto nařízení je závazné v celém rozsahu a přímo použitelné v členských státech.

V … dne

Za Evropský parlament

předseda

Za Radu

předseda nebo předsedkyně

PŘÍLOHA

[…]


(1)  Úř. věst. …

(2)  Úř. věst. …

(3)  Směrnice Rady 85/374/EHS ze dne 25. července 1985 o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky (Úř. věst. L 210, 7.8.1985, s. 29).

(4)  Úř. věst. L 123, 12.5.2016, s. 1.

(5)  Viz bílá kniha Komise ze dne 19. února 2020„O umělé inteligenci – evropský přístup k excelenci a důvěře“ (COM(2020)0065).

(6)  Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů) (Úř. věst. L 119, 4.5.2016, s. 1).

(7)  Nařízení Evropského parlamentu a Rady (EU) 2018/858 ze dne 30. května 2018 o schvalování motorových vozidel a jejich přípojných vozidel, jakož i systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla a o dozoru nad trhem s nimi, o změně nařízení (ES) č. 715/2007 a (ES) č. 595/2009 a o zrušení směrnice 2007/46/ES (Úř. věst. L 151, 14.6.2018, s. 1).

(8)  Nařízení Evropského parlamentu a Rady (EU) 2019/1020 ze dne 20. června 2019 o dozoru nad trhem a souladu výrobků s předpisy a o změně směrnice 2004/42/ES a nařízení (ES) č. 765/2008 a (EU) č. 305/2011 (Úř. věst. L 169, 25.6.2019, s. 1).

(9)  Určeno k revizi Komise, jak je uvedeno v bodě 19 usnesení.


Top