6.10.2021   

CS

Úřední věstník Evropské unie

C 404/63


P9_TA(2020)0275

Rámec pro etické aspekty umělé inteligence, robotiky a souvisejících technologií

Usnesení Evropského parlamentu ze dne 20. října 2020 obsahující doporučení Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií (2020/2012(INL))

(2021/C 404/04)

Evropský parlament,

s ohledem na článek 225 Smlouvy o fungování Evropské unie,

s ohledem na článek 114 Smlouvy o fungování Evropské unie,

s ohledem na Listinu základních práv Evropské unie,

s ohledem na nařízení Rady (EU) 2018/1488 ze dne 28. září 2018, kterým se zřizuje evropský společný podnik pro vysoce výkonnou výpočetní techniku (1),

s ohledem na směrnici Rady 2000/43/ES ze dne 29. června 2000, kterou se zavádí zásada rovného zacházení s osobami bez ohledu na jejich rasu nebo etnický původ (2) (směrnice o rasové rovnosti),

s ohledem na směrnici Rady 2000/78/ES ze dne 27. listopadu 2000, kterou se stanoví obecný rámec pro rovné zacházení v zaměstnání a povolání (3) (směrnice o rovném zacházení v zaměstnání);

s ohledem na nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně údajů) (4) (GDPR) a na směrnici Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV (5),

s ohledem na interinstitucionální dohodu ze dne 13. dubna 2016 o zlepšení tvorby právních předpisů (6),

s ohledem na návrh nařízení Evropského parlamentu a Rady ze dne 6. června 2018, kterým se zavádí program Digitální Evropa na období 2021–2027 (COM(2018)0434),

s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 11. prosince 2019 o Zelené dohodě pro Evropu (COM(2019)0640),

s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o umělé inteligenci – evropský přístup k excelenci a důvěře (COM(2020)0065),

s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o evropské strategii pro data (COM(2020)0066),

s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o formování digitální budoucnosti Evropy (COM(2020)0067),

s ohledem na závěry Rady Evropské unie z června 2020 o utváření digitální budoucnosti Evropy,

s ohledem na své usnesení ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (7),

s ohledem na své usnesení ze dne 1. června 2017 o digitalizaci evropského průmyslu (8),

s ohledem na své usnesení ze dne 12. září 2018 o autonomních zbraňových systémech (9),

s ohledem na své usnesení ze dne 11. září 2018 o rovnosti jazyků v digitálním věku (10),

s ohledem na své usnesení ze dne 12. února 2019 o komplexní evropské průmyslové politice v oblasti umělé inteligence a robotiky (11),

s ohledem na zprávu odborné skupiny na vysoké úrovni pro umělou inteligenci zřízené Komisí ze dne 8. dubna 2019 nazvanou „Etické pokyny pro důvěryhodnou umělou inteligenci“,

s ohledem na studii o posouzení evropské přidané hodnoty, kterou provedla výzkumná služba Evropského parlamentu, nazvanou „Evropský rámec pro etické aspekty umělé inteligence, robotiky a souvisejících technologií: hodnocení evropské přidané hodnoty“' (12),

s ohledem na přehledy a studie vypracované na žádost Panelu pro budoucnost vědy a technologie (STOA) a pod vedením oddělení vědeckých prognóz výzkumné služby Evropského parlamentu a nazvané „What if algorithms could abide by ethical principles?“(„Co kdyby se algoritmy mohly řídit etickými zásadami?“), „Artificial Intelligence ante portas: Legal & ethical reflections“ („Umělá inteligence přede dveřmi: právní a etické úvahy“), „A governance framework for algorithmic accountability and transparency“ („Rámec pro správu algoritmické odpovědnosti a transparentnosti“), „Should we fear artificial intelligence?“ („Měli bychom se obávat umělé inteligence?“) a „The ethics of artificial intelligence: Issues and initiatives“ („Etika umělé inteligence: témata a iniciativy“),

s ohledem na Rámcovou úmluvu Rady Evropy o ochraně národnostních menšin, na protokol č. 12 k Úmluvě o ochraně lidských práv a základních svobod a na Evropskou chartu regionálních či menšinových jazyků,

s ohledem na doporučení Rady OECD k umělé inteligenci přijaté dne 22. května 2019,

s ohledem na články 47 a 54 jednacího řádu,

s ohledem na stanoviska Výboru pro zahraniční věci, Výboru pro vnitřní trh a ochranu spotřebitelů, Výboru pro dopravu a cestovní ruch, Výboru pro občanské svobody, spravedlnost a vnitřní věci, Výboru pro zaměstnanost a sociální věci, Výboru pro životní prostředí, veřejné zdraví a bezpečnost potravin a Výboru pro kulturu a vzdělávání,

s ohledem na zprávu Výboru pro právní záležitosti (A9-0186/2020),

Úvod

A.

vzhledem k tomu, že vývoj, zavádění a používání umělé inteligence (dále též „UI“), robotiky a souvisejících technologií provádějí lidé a jejich rozhodnutí určují potenciál těchto technologií být ku prospěchu společnosti;

B.

vzhledem k rychlému prosazování a vývoji umělé inteligence, robotiky a souvisejících technologií, které mají potenciál vytvářet příležitosti pro podniky a být prospěšné pro občany a mohou přímo ovlivňovat všechny aspekty našich společenství, včetně základních práv a sociálních a hospodářských zásad a hodnot, a mít dlouhodobý vliv na všechny oblasti činnosti;

C.

vzhledem k tomu, že umělá inteligence, robotika a související technologie budou mít za následek výrazné změny na trhu práce i na pracovišti; vzhledem k tomu, že mohou potenciálně nahradit pracovníky, kteří provádějí opakující se činnosti, usnadnit pracovní systémy pro spolupráci mezi lidmi a stroji, zvýšit konkurenceschopnost a prosperitu a vytvářet nové pracovní příležitosti pro kvalifikované pracovníky, a zároveň představovat zásadní výzvu z hlediska reorganizace pracovní síly;

D.

vzhledem k tomu, že rozvoj umělé inteligence, robotiky a souvisejících technologií může také přispět k dosažení cílů v oblasti udržitelnosti Zelené dohody pro Evropu v mnoha různých odvětvích; vzhledem k tomu, že digitální technologie mohou zvýšit dopad politik při zajišťování ochrany životního prostředí; vzhledem k tomu, že mohou také přispívat k omezení dopravních zácp a emisí skleníkových plynů a látek znečišťujících ovzduší;

E.

vzhledem k tomu, že v odvětvích, jako je veřejná doprava, mohou být inteligentní dopravní systémy podporované UI používány k minimalizaci čekání, optimalizaci tras, posílení nezávislosti osob se zdravotním postižením a ke zvýšení energetické účinnosti, čímž urychlují dekarbonizaci a snižují environmentální stopu;

F.

vzhledem k tomu, že tyto technologie přinášejí nové podnikatelské příležitosti, které mohou přispět k oživení unijního průmyslu po skončení současné zdravotní a hospodářské krize, pokud budou více využívány, například v odvětví dopravy; vzhledem k tomu, že tyto příležitosti mohou vést k vytváření nových pracovních míst, protože zavádění těchto technologií má potenciál zvýšit úroveň produktivity podniků a přispět ke zvýšení efektivity; vzhledem k tomu, že inovativní programy v této oblasti mohou umožnit rozmach regionálních podnikatelských klastrů;

G.

vzhledem k tomu, že Unie a její členské státy nesou zvláštní odpovědnost za využívání, podporu a zvyšování přidané hodnoty umělé inteligence a za zajišťování toho, aby technologie UI byly bezpečné a přispívaly k dobrým životním podmínkám a obecnému zájmu jejich občanů, jelikož mohou významně přispět k dosažení společného cíle, tj. ke zlepšení života občanů a ke zvýšení prosperity v rámci Unie tím, že přispějí k rozvoji lepších strategií a inovací v řadě oblasti a odvětví; vzhledem k tomu, že aby bylo možné plně využít potenciál umělé inteligence a informovat uživatele o přínosech a výzvách, které technologie UI přinášejí, je nezbytné začlenit UI nebo digitální gramotnost do vzdělávání a odborné přípravy, a to i z hlediska podpory digitální inkluze, a vést na unijní úrovni informační kampaně, které by přesně zachycovaly všechny aspekty rozvoje UI;

H.

vzhledem k tomu, že společný regulační rámec Unie pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v rámci Unie (dále jen „regulační rámec pro UI“) by měl občanům umožnit sdílet přínosy vyplývající z jejich potenciálu a zároveň je chránit před potenciálními riziky těchto technologií a podporovat důvěryhodnost těchto technologií v Unii i jinde; vzhledem k tomu, že tento rámec by měl být založen na právu a hodnotách Unie a měl by být veden zásadami transparentnosti, vysvětlitelnosti, spravedlnosti a odpovědnosti;

I.

vzhledem k tomu, že tento regulační rámec má klíčový význam pro to, aby se zabránilo roztříštěnosti vnitřního trhu v důsledku odlišných vnitrostátních právních předpisů, a pomůže získat velmi potřebné investice, rozvíjet datovou infrastrukturu a podpořit výzkum; vzhledem k tomu, že by měl zahrnovat společné právní povinnosti a etické zásady, které jsou stanoveny v návrhu nařízení požadovaném v příloze k tomuto usnesení; vzhledem k tomu, že by tento rámec měl být zaveden v souladu s pokyny pro zlepšování právní úpravy;

J.

vzhledem k tomu, že Unie zavedla přísný právní rámec, aby mimo jiné zajistila ochranu osobních údajů a soukromí a nediskriminaci, podpořila rovnost žen a mužů, ochranu životního prostředí a práv spotřebitelů; vzhledem k tomu, že takovýto právní rámec, který zahrnuje rozsáhlý soubor horizontálních a odvětvových právních předpisů, včetně předpisů v oblasti bezpečnosti výrobků a odpovědnosti, bude i nadále platit rovněž pro umělou inteligenci, robotiku i související technologie, přestože mohou být zapotřebí určité úpravy specifických právních nástrojů, aby odrážely digitální transformaci a řešily nové výzvy, které z používání umělé inteligence vyplývají;

K.

vzhledem k tomu, že existují obavy, že stávající unijní právní rámec, včetně acquis v oblasti spotřebitelského práva, zaměstnanosti a sociálního práva, právních předpisů v oblasti ochrany údajů, bezpečnosti výrobků a dozoru nad trhem i antidiskriminačních právních předpisů, nemusí být nadále vhodný k účinnému řešení rizik vyplývajících z umělé inteligence, robotiky a souvisejících technologií;

L.

vzhledem k tomu, že vedle úprav stávajících právních předpisů by se měly řešit právní a etické otázky týkající se technologií UI, a to prostřednictvím účinného, komplexního rámce práva Unie, který obstojí i v budoucnu a bude odrážet zásady a hodnoty Unie zakotvené ve Smlouvách a v Listině základních práv Evropské unie (dále jen „Listina“)a jenž by se měl vyhnout nadměrné regulaci tím, že pouze vyplní stávající právní mezery, a zvýší právní jistotu pro podniky i občany zejména díky tomu, že bude obsahovat povinná opatření pro předcházení praktikám, které by nepochybně oslabily základní práva;

M.

vzhledem k tomu, že každý nový regulační rámec musí zohlednit všechny relevantní zájmy; vzhledem k tomu, že základní podmínkou pro další legislativní kroky by mělo být pečlivé zkoumání všech dopadů případného nového regulačního rámce na všechny aktéry prostřednictvím hodnocení dopadu; vzhledem, k tomu, že klíčová úloha malých a středních podniků a startupů, zejména v unijním hospodářství, odůvodňuje striktně přiměřený postup, který jim umožní se rozvíjet a inovovat;

N.

vzhledem k tomu, že umělá inteligence, robotika a související technologie mohou mít závažné důsledky pro materiální i nemateriální integritu jednotlivců, skupin a společnosti jako celku, a že potenciální individuální i kolektivní škody musí být řešeny prostřednictvím legislativní odezvy;

O.

vzhledem k tomu, že aby bylo možné dodržovat unijní regulační rámec pro UI, může být zapotřebí přijmout zvláštní pravidla pro unijní odvětví dopravy;

P.

vzhledem k tomu, že technologie UI mají strategický význam pro odvětví dopravy, včetně toho, že díky nim dojde ke zvýšení bezpečnosti a přístupnosti všech druhů dopravy a k vytváření nových pracovních míst a udržitelnějších podnikatelských modelů; vzhledem k tomu, že unijní přístup k rozvoji umělé inteligence, robotiky a souvisejících technologií v oblasti dopravy má potenciál zvýšit globální konkurenceschopnost a strategickou autonomii unijního hospodářství;

Q.

vzhledem k tomu, že přibližně 95 % všech silničních dopravních nehod v EU stále zahrnuje lidský faktor; vzhledem k tomu, že cílem Unie je omezit do roku 2020 roční počet úmrtí na silnicích ve srovnání s rokem 2010 o 50 %, že však vzhledem ke stagnaci v této oblasti obnovila EU své úsilí v rámci politiky EU pro bezpečnost silničního provozu na období 2021–2030: Další kroky směrem k „vizi nulových obětí na cestách“; vzhledem k tomu, že umělá inteligence, automatizace a další nové technologie mají v tomto ohledu značný potenciál zvýšit bezpečnost silničního provozu tím, že omezí prostor pro lidské chyby, a že jsou v tomto ohledu nesmírně důležité;

R.

vzhledem k tomu, že by unijní regulační rámec pro UI měl rovněž odrážet skutečnost, že je třeba zajistit dodržování práv pracovníků; vzhledem k tomu, že je třeba brát ohled na rámcovou dohodu evropských sociálních partnerů o digitalizaci z června 2020;

S.

vzhledem k tomu, že oblast působnosti unijního regulačního rámce pro UI by měla být přiměřená, úměrná a pečlivě posouzená; vzhledem k tomu, že by měla zahrnovat širokou škálu technologií a jejich složek, včetně algoritmů, softwaru a dat, které používají nebo produkují, je nezbytné zaujmout cílený přístup založený na rizicích, aby se nebránilo budoucím inovacím a nedocházelo k vytváření zbytečných překážek, zejména pro malé a střední podniky; vzhledem k tomu, že různorodost aplikací řízených umělou inteligencí, robotikou a souvisejícími technologiemi komplikuje nalezení jediného řešení vhodného pro celou škálu rizik;

T.

vzhledem k tomu, že analýzy údajů a umělá inteligence mají stále větší dopad na informace zpřístupňované občanům; vzhledem k tomu, že takovéto technologie mohou v případě zneužití ohrozit základní právo na svobodu projevu a na informace, jakož i svobodu a pluralitu sdělovacích prostředků;

U.

vzhledem k tomu, že zeměpisná působnost pro uplatňování unijního regulačního rámce pro UI by měla zahrnovat všechny složky umělé inteligence, robotiky a souvisejících technologií vyvíjených, zaváděných nebo používaných v Unii, včetně případů, kdy může být část technologií umístěna mimo Unii nebo nemá konkrétní umístění;

V.

vzhledem k tomu, že unijní regulační rámec pro UI by měl zahrnovat všechny příslušné fáze, tj. vývoj, zavádění a používání příslušných technologií a jejich složek, což vyžaduje řádné zvážení příslušných právních povinností a etických zásad, a měl by stanovit podmínky, které zajistí, aby vývojáři, provozovatelé a uživatelé tyto povinnosti a zásady plně dodržovali;

W.

vzhledem k tomu, že zavedení harmonizovaného přístupu k etickým zásadám týkajícím se umělé inteligence, robotiky a souvisejících technologií vyžaduje, aby byly na úrovni Unie jednotným způsobem chápány koncepty, které tvoří základ těchto technologií, jako jsou algoritmy, software, data nebo biometrické rozpoznávání;

X.

vzhledem k tomu, že opatření na úrovni Unie jsou odůvodněná tím, že je zapotřebí zabránit regulační roztříštěnosti nebo souboru vnitrostátních regulačních ustanovení bez společného jmenovatele a zajistit jednotné uplatňování právně zakotvených společných etických zásad při vývoji, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií; vzhledem k tomu, že jsou zapotřebí jasná pravidla tam, kde hrozí vážná rizika;

Y.

vzhledem k tomu, že společné etické zásady jsou účinné pouze tehdy, jsou-li také zakotveny v právu, a jsou-li určeny osoby odpovědné za zajištění, posuzování a sledování souladu technologií s těmito zásadami;

Z.

vzhledem k tomu, že etické pokyny, jako jsou zásady přijaté odbornou skupinou na vysoké úrovni pro umělou inteligenci, představují užitečný výchozí bod, ale nemohou zajistit, aby vývojáři, provozovatelé a uživatelé jednali spravedlivě, a zaručit účinnou ochranu jednotlivců; vzhledem k tomu, že tyto pokyny jsou ještě relevantnější v případě rizikové umělé inteligence, robotiky a souvisejících technologií;

AA.

vzhledem k tomu, že každý členský stát by měl určit vnitrostátní orgán dohledu pověřený zajišťováním, posuzováním a sledováním souladu vývoje, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií s unijním regulačním rámcem pro UI a usnadňováním diskuse a výměny názorů v úzké spolupráci s příslušnými zúčastněnými stranami a občanskou společností; vzhledem k tomu, že by vnitrostátní orgány dohledu měly vzájemně spolupracovat;

AB.

vzhledem k tomu, že s cílem zajistit harmonizovaný přístup napříč Unie a optimální fungování jednotného digitálního trhu musí Komise nebo příslušné, k tomu určené instituce, orgány, úřady nebo agentury Unie posoudit koordinaci na úrovni Unie z hlediska nových příležitostí a výzev, zejména pokud jsou přeshraniční povahy a vyplývají z probíhajícího technologického vývoje; vzhledem k tomu, že by Komise měla být za tímto účelem pověřena hledáním vhodného řešení umožňujícího strukturovat takovouto koordinaci na úrovni Unie;

Umělá inteligence zaměřená na člověka a vytvářená člověkem

1.

domnívá se, že aniž by byly dotčeny odvětvové právní předpisy, je nezbytné, zejména v případě rizikových technologií, mít účinný a harmonizovaný regulační rámec založený na právu Unie, Listině a mezinárodních právu v oblasti lidských práv, který by zavedl rovnocenné normy v celé Unii a účinně chránil unijní hodnoty;

2.

domnívá se, že každý nový regulační rámec pro UI sestávající z právních povinností a etických zásad pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií by měl plně dodržovat Listinu, a tím také lidskou důstojnost, autonomii a sebeurčení jednotlivce, předcházet škodám, prosazovat spravedlnost, začleňování a transparentnost, odstraňovat předsudky a diskriminaci, také v souvislosti s menšinovými skupinami, a respektovat a dodržovat zásady spočívající v omezování negativních externalit používaných technologií, zajišťování vysvětlitelnosti technologií a zaručování toho, aby tyto technologie sloužily lidem, aby je nenahrazovaly nebo za ně nerozhodovaly, s tím, že jejich konečným cílem je zlepšovat životní podmínky všech lidí;

3.

zdůrazňuje asymetrii mezi těmi, kteří využívají technologie UI, a těmi, kteří s nimi pracují a jsou jim vystaveni; v této souvislosti zdůrazňuje, že důvěru občanů v UI lze vybudovat pouze na základě regulačního rámce, který bude již od návrhu a standardně dodržovat etické postupy a který zajistí, že jakákoli používaná umělá inteligence bude plně respektovat Smlouvy, Listinu a sekundární právo Unie; domnívá se, že rozvíjení tohoto přístupu by mělo být v souladu se zásadou předběžné opatrnosti, kterou se řídí právní předpisy Unie a jež by měla být jádrem každého regulačního rámce pro UI; vyzývá v této souvislosti k vytvoření jasného a soudržného modelu správy, který společnostem a inovátorům umožní dále vyvíjet umělou inteligenci, robotiku a související technologie;

4.

domnívá se, že veškerá legislativní opatření týkající se umělé inteligence, robotiky a souvisejících technologií by měla být v souladu se zásadami nezbytnosti a přiměřenosti;

5.

domnívá se, že takovýto přístup podnikům umožní zavádět na trh inovativní produkty a vytvářet nové příležitosti a zároveň zajišťovat ochranu unijních hodnot vývojem takových systémů UI, které budou již od návrhu zahrnovat etické zásady Unie; domnívá se, že takovýto regulační rámec založený na hodnotách by představoval přidanou hodnotu tím, že by Unii poskytl jedinečnou konkurenční výhodu a významně by přispěl k blahobytu a prosperitě občanů a podniků Unie tím, že by posílil vnitřní trh; zdůrazňuje, že takovýto regulační rámec pro UI bude rovněž přidanou hodnotou z hlediska podpory inovací na vnitřním trhu; domnívá se, že například v odvětví dopravy poskytuje tento přístup podnikům v Unii příležitost stát se globálními leadery v této oblasti;

6.

konstatuje, že unijní právní rámec by se měl vztahovat na umělou inteligenci, robotiku a související technologie, včetně softwaru, algoritmů nebo dat, které tyto technologie používají či produkují.

7.

konstatuje, že příležitosti založené na umělé inteligenci, robotice a souvisejících technologiích závisejí na datech velkého objemu, přičemž pro nastavení algoritmů a vyladění výsledků je zapotřebí kritické množství dat; vítá v tomto ohledu návrh Komise na vytvoření společného datového prostoru v Unii s cílem posílit výměnu údajů a podpořit výzkum a zároveň plně dodržovat evropská pravidla pro ochranu údajů;

8.

domnívá se, že stávající právní rámec Unie, zejména v oblasti ochrany soukromí a osobních údajů, se bude muset plně vztahovat na umělou inteligenci, robotiku a související technologie a bude muset být pravidelně přezkoumáván, kontrolován a v případě potřeby aktualizován, aby bylo možné účinně čelit rizikům vznikajícím v souvislosti s těmito technologiemi, a v tomto ohledu by pro něj mohlo být prospěšné, aby byl doplněn o pevné etické zásady; poukazuje na to, že v případech, kde je předčasné přijímat právní akty, by měl být použit rámec právně nevynutitelných pravidel („soft law“);

9.

očekává, že Komise v návaznosti na Bílou knihu o umělé inteligenci do nadcházejícího legislativního návrhu požadovaného v příloze k tomuto usnesení začlení silný etický rámec zahrnující mimo jiné otázky týkající se bezpečnosti, odpovědnosti a základních práv, který maximalizuje příležitosti a minimalizuje rizika technologií UI; očekává, že požadovaný legislativní návrh bude zahrnovat politická řešení hlavních uznávaných rizik umělé inteligence, včetně mj. etického shromažďování a využívání dat velkého objemu, otázky diskriminace a nerovných podmínek, k nimž dochází prostřednictvím algoritmů; vyzývá Komisi, aby vypracovala kritéria a ukazatele pro označování technologií UI s cílem podpořit transparentnost, vysvětlitelnost a odpovědnost a podnítit vývojáře k tomu, aby přijímali další preventivní opatření; zdůrazňuje, že je třeba investovat do integrace netechnických oborů do studia a výzkumu umělé inteligence s cílem zohlednit sociální souvislosti;

10.

domnívá se, že umělá inteligence, robotika a související technologie musí být přizpůsobeny potřebám lidí v souladu se zásadou, že jejich vývoj, zavádění a používání by měly být vždy ve službách lidí a nikdy naopak, a měly by usilovat o zvyšování blahobytu a svobody jednotlivců, o zachování míru, předcházení konfliktům a zvyšování mezinárodní bezpečnosti a zároveň maximalizovat poskytované přínosy, předcházet souvisejícím rizikům a snižovat je;

11.

prohlašuje, že rozvoj, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií, mj. i člověkem, by měly být vždy založeny na etických zásadách a měly by umožňovat zapojení lidského faktoru, demokratický dohled i převzetí kontroly člověkem, bude-li to zapotřebí, a to prostřednictvím vhodných kontrolních opatření;

Posouzení rizik

12.

zdůrazňuje, že každé budoucí nařízení by mělo být založeno na takovém přístupu k regulaci umělé inteligence, robotiky a souvisejících technologií, který bude diferencovaný, založený na rizicích a zaměřený na budoucnost a bude zahrnovat technologicky neutrální normy napříč odvětvími a případně také odvětvové normy; konstatuje, že aby se zajistilo jednotné uplatňování systému posuzování rizik a bylo dosaženo souladu se souvisejícími právními povinnostmi s cílem zajistit rovné podmínky pro členské státy a předejít roztříštěnosti vnitřního trhu, je zapotřebí vyčerpávající a kumulativní seznam rizikových odvětví a rizikových způsobů použití a účelů; zdůrazňuje, že takovýto seznam musí podléhat pravidelnému přehodnocování, a konstatuje, že vzhledem k vyvíjející se povaze těchto technologií může být zapotřebí způsob posuzování rizik v budoucnu přezkoumat;

13.

domnívá se, že rozhodnutí o tom, zda by umělá inteligence, robotika a související technologie měly být považovány za rizikové a tudíž by měly povinně splňovat právní požadavky a etické zásady stanovené v regulačním rámci pro UI, by mělo vždy vycházet z nestranného, regulovaného a externího posouzení ex-ante založeného na konkrétních a definovaných kritériích;

14.

v této souvislosti se domnívá, že umělá inteligence, robotika a související technologie by měly být považovány za rizikové, pokud jejich vývoj, zavádění a používání zahrnují významné riziko, že jednotlivcům nebo společnosti způsobí zranění nebo škody v rozporu se základními právy a bezpečnostními pravidly stanovenými v právu Unie; domnívá se, že za účelem posouzení toho, zda technologie UI takovéto riziko zahrnují, by se mělo zvážit, v jakém odvětví jsou vyvíjeny, zaváděny nebo používány, jejich zvláštní použití či účel a závažnost zranění nebo škody, které by mohly způsobit; první a druhé kritérium, tj. odvětví a zvláštní použití či účel, by se mělo posuzovat kumulativně;

15.

zdůrazňuje, že posouzení rizik těchto technologií by mělo být prováděno na základě vyčerpávajícího a kumulativního seznamu rizikových odvětví a rizikových způsobů použití a účelů; je rozhodně přesvědčen, že posuzování rizik těchto technologií by v Unii mělo probíhat koherentním způsobem, zejména v případě, že jsou posuzována jak s ohledem na soulad s regulačním rámcem pro UI, tak podle jakýchkoli dalších odvětvových právních předpisů;

16.

domnívá se, že tento přístup založený na rizicích by měl být prováděn tak, aby se co nejvíce omezila administrativní zátěž pro podniky, a zejména pro malé a střední podniky, tím, že budou v co nejvyšší míře používány stávající nástroje; tyto nástroje zahrnují mimo jiné seznam pro posouzení vlivu na ochranu osobních údajů uvedený v nařízení (EU) 2016/679;

Bezpečnostní prvky, transparentnost a odpovědnost

17.

připomíná, že právo na informování spotřebitele je klíčovou zásadou práva Unie, a zdůrazňuje, že by tudíž mělo být plně prováděno i v souvislosti s umělou inteligencí, robotikou a souvisejícími technologiemi; domnívá se, že by mělo zejména zahrnovat transparentnost ohledně interakce se systémy umělé inteligence, včetně automatizovaných procesů, a ohledně způsobu jejich fungování a dovedností, jako je způsob filtrování a prezentování informací, jejich přesnost a omezení; domnívá se, že by tyto informace měly být poskytovány vnitrostátním orgánům dohledu a vnitrostátním orgánům pro ochranu spotřebitele;

18.

zdůrazňuje, že důvěra spotřebitelů má zásadní význam pro rozvoj a uplatňování těchto technologií, které s sebou mohou nést rizika, pokud jsou založeny na neprůhledných algoritmech a neobjektivních datových souborech; domnívá se, že spotřebitelé by měli mít právo být náležitě informováni, a to srozumitelným, včasným, standardizovaným, přesným a přístupným způsobem, o existenci, odůvodnění, možných výsledcích a dopadech algoritmických systémů, o tom, jak se obrátit na člověka s rozhodovacími pravomocemi a jak rozhodnutí systému zkontrolovat, smysluplně zpochybnit a opravit; zdůrazňuje v této souvislosti, že je třeba zohledňovat a dodržovat zásady informování a zveřejňování, na nichž je založeno acquis v oblasti spotřebitelského práva; považuje za nezbytné poskytnout koncovým uživatelům podrobné informace o provozu dopravních systémů a vozidlech podporovaných umělou inteligencí;

19.

konstatuje, že je zásadní, aby algoritmy a datové soubory používané nebo vytvořené umělou inteligencí, robotikou a souvisejícími technologiemi byly vysvětlitelné a, je-li to nezbytně nutné a v plném souladu s právními předpisy Unie v oblasti ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, přístupné veřejným orgánům, jako jsou vnitrostátní orgány dohledu a vnitrostátní orgány dozoru nad trhem; dále připomíná, že podle nejvyšších možných a platných odvětvových norem by tuto dokumentaci měly uchovávat osoby, které jsou zapojeny do různých fází vývoje rizikových technologií; připomíná, že orgány dozoru nad trhem mohou mít v tomto ohledu další pravomoci; v této souvislosti zdůrazňuje úlohu zákonného reverzního inženýrství; domnívá se, že přezkum stávajících právních předpisů v oblasti dozoru nad trhem může být nezbytný k zajištění toho, že bude eticky reagovat na vznik umělé inteligence, robotiky a souvisejících technologií;

20.

vyzývá k tomu, aby, pokud to vyplyne z posouzení rizik, byli vývojáři a provozovatelé rizikových technologií povinni poskytovat veřejným orgánům příslušnou dokumentaci o používání a designu i bezpečnostní pokyny a, je-li to nezbytně nutné a v plném souladu s právem Unie v oblasti ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, také zdrojový kód, vývojové nástroje a data, která systém používá; konstatuje, že takováto povinnost by umožnila posoudit jejich soulad s právními předpisy a etickými zásadami Unie, a připomíná v této souvislosti například poskytování povinného výtisku národním knihovnám; konstatuje, že je důležité rozlišovat mezi transparentností algoritmů a transparentností používání algoritmů;

21.

dále konstatuje, že aby bylo možné respektovat lidskou důstojnost, autonomii a bezpečnost, měla by být náležitě zohledněna klíčová a pokročilá lékařská zařízení, a dže je třeba, aby si nezávislé, důvěryhodné orgány ponechaly prostředky nezbytné k poskytování služeb osobám používajícím tato zařízení, pokud je původní vývojář nebo provozovatel již neposkytuje; takovéto služby by zahrnovaly například údržbu, opravy a vylepšení, včetně softwarových aktualizací, které opraví závady a slabá místa;

22.

trvá na tom, že riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, bez ohledu na oblast, v níž jsou vyvíjeny, zaváděny a používány, by se měly již již od návrhu vyvíjet bezpečným, sledovatelným, technicky propracovaným, spolehlivým a právně závazným způsobem a musí podléhat nezávislé kontrole a dohledu; zejména se domnívá, že všichni aktéři v celém vývojovém i dodavatelském řetězci produktů a služeb umělé inteligence by měli nést právní zodpovědnost, a zdůrazňuje, že jsou zapotřebí mechanismy, které tuto odpovědnost zajistí;

23.

zdůrazňuje, že regulační předpisy a pokyny týkající se vysvětlitelnosti, auditovatelnosti, sledovatelnosti a transparentnosti, jakož i, pokud to posouzení rizik vyžaduje a je-li to nezbytně nutné a v plném souladu s právem Unie v oblasti ochrany údajů, soukromí, práv duševního vlastnictví a obchodních tajemství, také přístup veřejných orgánů k technologiím, datům a počítačovým systémům, na nichž jsou tyto technologie založeny, jsou zásadní pro zajištění důvěry občanů v tyto technologie, přestože míra vysvětlitelnosti závisí na složitosti těchto technologií; zdůrazňuje, že není vždy možné vysvětlit, proč určitý model vedl ke konkrétnímu výsledku nebo rozhodnutí, jako například v případě algoritmů „černé schránky“; domnívá se proto, že dodržování těchto zásad je základní podmínkou pro zajištění odpovědnosti;

24.

domnívá se, že občané, včetně spotřebitelů, by měli být informováni o tom, zda při interakci se systémem používajícím umělou inteligenci zejména k personalizaci produktů nebo služeb pro své uživatele mohou tuto personalizaci vypnout nebo ji omezit;

25.

v tomto ohledu upozorňuje na skutečnost, že k tomu, aby byly umělá inteligence, robotika a s nimi související technologie spolehlivé, musí být technicky propracované a přesné;

26.

zdůrazňuje, že je důležitá ochrana sítí propojené umělé inteligence a robotiky a že musí být přijata přísná opatření s cílem předejít případům narušení bezpečnosti, úniku dat, „otrávení dat“ (data poisoning), kybernetickým útokům a zneužívání osobních údajů, což bude vyžadovat, aby příslušné agentury, orgány a instituce na evropské i vnitrostátní úrovni spolupracovaly mezi sebou i s koncovými uživateli těchto technologií; vyzývá Komisi a členské státy, aby při vývoji a zavádění technologie UI vždy zajistily dodržování unijních hodnot a respektování základních práv s cílem zajistit bezpečnost a odolnost digitální infrastruktury Unie;

Nezaujatost a nediskriminace

27.

připomíná, že umělá inteligence má v závislosti na tom, jak je vyvíjena a používána, potenciál vytvářet a posilovat předsudky, a to i prostřednictvím inherentních předsudků v základních datových souborech, a tudíž vytvářet různé formy automatizované diskriminace včetně nepřímé diskriminace, které se týkají zejména skupin lidí s podobnými charakteristikami; vyzývá Komisi a členské státy, aby přijaly veškerá možná opatření s cílem zabránit takovýmto předsudkům a zajistit plnou ochranu základních práv;

28.

je znepokojen riziky předpojatosti a diskriminace při vývoji, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují; připomíná, že by za všech okolností měly dodržovat právo Unie, lidská práva a důstojnost, autonomii i sebeurčení jednotlivce a že mělo by být zajištěno rovné zacházení i nediskriminace pro všechny;

29.

zdůrazňuje, že technologie UI by měly být navrhovány tak, aby dodržovaly a chránily unijní hodnoty a fyzickou a mentální integritu a sloužily jim, podporovaly kulturní a jazykovou rozmanitost v Unii a pomáhaly uspokojovat základní potřeby; zdůrazňuje, že je třeba zabránit tomu, aby byly používány způsobem, který by mohl vést k nepřípustnému, přímému či nepřímému nátlaku, oslabení psychologické autonomie nebo duševního zdraví nebo k neodůvodněnému sledování, klamání či nepřípustné manipulaci;

30.

je rozhodně přesvědčen, že by měla být striktně dodržována základní práva zakotvená v Listině, aby se zajistilo, že tyto vznikající technologie nevytvoří mezery v ochraně základních práv;

31.

potvrzuje, že případné předsudky a diskriminace prostřednictvím softwaru, algoritmů a dat mohou jednotlivcům i společnosti způsobit zjevnou újmu, a měly by se řešit podporou vývoje a sdílení strategií, které proti těmto jevům bojují, jako je zajištění objektivnosti datových souborů ve výzkumu a vývoji, a vytvořením pravidel pro zpracovávání údajů; domnívá se, že tento přístup má potenciál využít software, algoritmy a data v boji proti předsudkům a diskriminaci v některých situacích a dosáhnout rovných práv a pozitivní sociální změny;

32.

trvá na tom, že základem těchto technologií by měly být etické hodnoty jako spravedlnost, přesnost, důvěrnost a transparentnost, což v této souvislosti znamená, že by měly fungovat tak, aby nevytvářely neobjektivní výstupy;

33.

poukazuje na význam kvality datových souborů používaných pro umělou inteligenci, robotiku a související technologie v závislosti na jejich kontextu, zejména pokud jde o reprezentativnost údajů z fáze učení, ustanovení týkající se zajištění objektivnosti datových souborů, používaných algoritmů a dat a norem pro jejich agregaci; zdůrazňuje, že tyto datové soubory by měly být na základě výzvy kdykoli kontrolovatelné orgány dohledu, aby byl zajištěn jejich soulad s výše uvedenými zásadami;

34.

zdůrazňuje, že v souvislosti s rozsáhlou dezinformační válkou, kterou vedou zejména neevropské subjekty, by technologie UI mohly mít eticky nepříznivé dopady, pokud by umožnily třetím zemím využívat zkreslení v údajích a algoritmech nebo záměrně měnit údaje z fáze učení, a mohly by být rovněž vystaveny dalším formám nebezpečné škodlivé manipulace nepředvídatelnými způsoby a s nedozírnými následky; proto je stále více zapotřebí, aby Unie pokračovala v investicích do výzkumu, analýzy, inovací a přeshraničního a meziodvětvového předávání znalostí s cílem rozvíjet technologie UI, které by byly jednoznačně prosté jakéhokoli profilování, zaujatosti a diskriminace a mohly by účinně přispívat k boji proti falešným zprávám a dezinformacím a současně respektovat ochranu údajů a unijní právní rámec;

35.

připomíná, že je důležité zajistit účinné nápravné prostředky pro jednotlivce, a vyzývá členské státy, aby zajistily přístupné, cenově dostupné, nezávislé a účinné postupy a mechanismy přezkumu, které by zaručovaly nestranné lidské posouzení všech případů údajného porušení práv, jako jsou práva spotřebitelů nebo občanská práva, prostřednictvím používání algoritmických systémů, ať už pocházejí od subjektů veřejného nebo soukromého sektoru; zdůrazňuje význam návrhu směrnice Evropského parlamentu a Rady o zástupných žalobách na ochranu kolektivních zájmů spotřebitelů a o zrušení směrnice 2009/22/ES, ohledně kterého bylo dne 22. června 2020 dosaženo politické dohody a jenž v budoucnu umožní napadnout zavedení nebo probíhající používání systému UI, který by mohl vést k porušení práv spotřebitelů, nebo dosáhnout nápravy porušení práv; žádá Komisi a členské státy, aby zajistily, že vnitrostátní a unijní spotřebitelské organizace budou mít dostatečné finanční prostředky na to, aby mohly spotřebitelům poskytovat pomoc při uplatňování jejich práva na nápravu v případech, kdy došlo k porušení jejich práv;

36.

domnívá se tedy, že každá fyzická i právnická osoba by měla mít možnost domáhat se nápravy rozhodnutí, které vydala technologie umělé inteligence, robotika nebo související technologie v její neprospěch nebo v rozporu s unijním či vnitrostátním právem;

37.

domnívá se, že v případě podezření na porušení unijního regulačního rámce by prvním kontaktním místem pro spotřebitele žádající nápravu mohly být vnitrostátní orgány dohledu, s cílem zajistit účinné uplatňování tohoto rámce;

Sociální odpovědnost a genderová vyváženost

38.

zdůrazňuje, že sociálně odpovědná umělá inteligence, robotika a související technologie musí přispívat k hledání řešení, která chrání a podporují základní práva a hodnoty naší společnosti, jako jsou demokracie, právní stát, pluralitní a nezávislé sdělovací prostředky a objektivní a volně dostupné informace, zdraví a hospodářská prosperita, rovnost příležitostí, práva pracujících a sociální práva, kvalitní vzdělávání, ochrana dětí, kulturní a jazyková rozmanitost, rovnost žen a mužů, digitální gramotnost, inovace a kreativita; zdůrazňuje, že je důležité zajistit řádné zohledňování a zastupování zájmů všech občanů, a to i těch, kteří patří k marginalizovaným skupinám nebo jsou ve zranitelném postavení, jako jsou osoby se zdravotním postižením;

39.

poukazuje na to, že je důležité dosáhnout vysoké úrovně obecné digitální gramotnosti a zajistit odborné vzdělávání vysoce kvalifikovaných pracovníků v této oblasti a vzájemné uznávání jejich kvalifikace v celé Unii; zdůrazňuje, že je třeba mít rozmanité týmy vývojářů a inženýrů společně s klíčovými společenskými aktéry, aby se předešlo nechtěnému zahrnutí genderové a kulturní předpojatosti do algoritmů, systémů a aplikací UI; podporuje vytvoření vzdělávacích osnov a činností zaměřených na zvyšování povědomí veřejnosti o společenském, právním a etickém dopadu umělé inteligence;

40.

zdůrazňuje, že je zásadně důležité zaručit svobodu myšlení a projevu, čímž se zajistí, že tyto technologie nebudou propagovat nenávistné projevy nebo násilí; domnívá se proto, že ztěžování nebo omezování digitálně uplatňované svobody projevu je podle základních zásad Unie nelegální, s výjimkou případů, kdy uplatňování tohoto základního práva zahrnuje protiprávní jednání;

41.

zdůrazňuje, že umělá inteligence, robotika a související technologie mohou přispět k omezení sociálních nerovností, a je přesvědčen, že evropský model pro jejich vývoj musí být založen na důvěře občanů a větší sociální soudržnosti;

42.

zdůrazňuje, že zavedení jakéhokoli systému umělé inteligence by nemělo nepřiměřeně omezovat přístup uživatelů k veřejným službám, jako je sociální zabezpečení; vyzývá proto Komisi, aby posoudila, jak je tohoto cíle možné dosáhnout;

43.

zdůrazňuje význam odpovědného výzkumu a vývoje usilujícího o maximalizaci potenciálu umělé inteligence, robotiky a souvisejících technologií pro občany a veřejné blaho; vyzývá k tomu, aby Unie a její členské státy uvolnily prostředky na rozvoj a podporu odpovědné inovace;

44.

zdůrazňuje, že technologické odborné znalosti budou stále důležitější, a bude tudíž nezbytné průběžně aktualizovat příslušná školení, zejména pro budoucí generace, a podporovat odbornou rekvalifikaci osob, které již jsou na trhu práce; v tomto ohledu trvá na tom, že by inovace a školení měly být podporovány nejen v soukromém, ale i ve veřejném sektoru;

45.

trvá na tom, že vývoj, zavádění a používání těchto technologií by neměly způsobovat žádnou újmu jednotlivcům, společnosti ani životnímu prostředí, a že by tedy vývojáři, provozovatelé a uživatelé těchto technologií měli v souladu s příslušnými unijními a vnitrostátními předpisy v oblasti odpovědnosti nést odpovědnost za případné zranění nebo újmu;

46.

vyzývá členské státy, aby posoudily, zda by úbytek pracovních míst vyplývající ze zavádění těchto technologií měl vést k příslušným veřejným politikám, jako je omezení pracovní doby;

47.

trvá na tom, že designový přístup založený na unijních hodnotách a etických zásadách je zásadní k tomu, aby byly vytvořeny podmínky pro široké společenské přijetí umělé inteligence, robotiky a souvisejících technologií; domnívá se, že tento přístup zaměřený na vývoj důvěryhodné, eticky odpovědné a technicky propracované umělé inteligence je důležitým prvkem, který umožní rozvoj udržitelné, bezpečné a přístupné inteligentní mobility;

48.

upozorňuje na to, že autonomní vozidla mají velký přínos pro osoby se sníženou pohyblivostí, protože těmto osobám umožňují lépe se podílet na individuální silniční dopravě, a usnadňují tak jejich každodenní život; zdůrazňuje význam dostupnosti, zejména při navrhování systémů řešení pro mobilitu (mobilita jako služba);

49.

vyzývá Komisi, aby nadále podporovala vývoj důvěryhodných systémů UI, které by zajistily bezpečnější, účinnější, finančně i jinak přístupnější a inkluzivnější dopravu, mj. pokud jde o osoby s omezenou schopností pohybu, a zejména osoby se zdravotním postižením, a to s ohledem na směrnici Evropského parlamentu a Rady (EU) 2019/882 (13) a na unijní právo o právech cestujících;

50.

domnívá se, že umělá inteligence může pomoci lépe využívat dovedností a schopností osob se zdravotním postižením a že využívání umělé inteligence na pracovišti může přispívat k inkluzivním trhům práce a k vyšší míře zaměstnanosti osob se zdravotním postižením;

Životní prostředí a udržitelnost

51.

uvádí, že státní správa a podniky by měly používat umělou inteligenci, robotiku a související technologie tak, aby byly přínosné pro lidi i pro planetu, přispívaly k plnění cílů v oblasti udržitelného rozvoje, zachování životního prostředí, klimatické neutrality a oběhového hospodářství; vývoj, zavádění a používání těchto technologií by v souladu s právem Unie měly přispívat k ekologické transformaci, zachování životního prostředí a k minimalizaci a nápravě případného poškození životního prostředí, k němuž došlo během jejich životního cyklu a v celém dodavatelském řetězci;

52.

vzhledem k výraznému dopadu na životní prostředí a pro účely předchozího bodu by dopad vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií na životní prostředí mohl být tam, kde je to relevantní a vhodné, vyhodnocován po celý jejich životní cyklus, a to příslušnými odvětvovými orgány; takovéto hodnocení by mohlo zahrnovat odhad dopadu těžby nezbytných surovin, spotřeby energie a emisí skleníkových plynů způsobených jejich vývojem, zaváděním a používáním;

53.

navrhuje, aby byl pro účely vývoje odpovědných špičkových řešení v oblasti umělé inteligence prozkoumán, podporován a maximalizován potenciál umělé inteligence, robotiky a souvisejících technologií prostřednictvím odpovědného výzkumu a vývoje, na které budou muset Unie a její členské státy uvolnit prostředky;

54.

zdůrazňuje skutečnost, že vývoj, zavádění a používání těchto technologií skýtají řadu příležitostí k podpoře cílů udržitelného rozvoje stanovených Organizací spojených národů i k podpoře globální transformace energetiky a dekarbonizace;

55.

domnívá se, že cíli sociální odpovědnosti, genderové rovnosti, ochrany životního prostředí a udržitelnosti by neměly být dotčeny stávající obecné a odvětvové povinnosti v těchto oblastech; domnívá se, že by měly být vydány nezávazné prováděcí pokyny pro vývojáře, provozovatele a uživatele zejména rizikových technologií, pokud jde o metodiku pro posuzování jejich souladu s tímto nařízením a dosahování jeho cílů;

56.

vyzývá Unii, aby podporovala a financovala rozvoj umělé inteligence, robotiky a souvisejících technologií zaměřených na člověka, které budou řešit environmentální a klimatické výzvy a zajistí dodržování základních práv prostřednictvím daňových pobídek, pobídek začleněných do zadávání veřejných zakázek a dalších pobídek;

57.

zdůrazňuje, že bez ohledu na současnou vysokou uhlíkovou stopu vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně automatizovaných rozhodnutí a strojového učení, mohou tyto technologie přispět k omezení stávající environmentální stopy odvětví informačních a komunikačních technologií; poukazuje na to, že tyto i jiné řádně regulované související technologie by měly být zásadně důležité pro dosažení cílů Zelené dohody, cílů OSN v oblasti udržitelného rozvoje a cílů Pařížské dohody v mnoha různých odvětvích a měly by zajistit větší dopad politik zajišťujících ochranu životního prostředí, např. politik týkajících se snižování odpadu a zhoršování životního prostředí;

58.

vyzývá Komisi, aby vypracovala studii o dopadu uhlíkové stopy technologií umělé inteligence a o pozitivních a negativních dopadech přechodu na používání těchto technologií spotřebiteli;

59.

konstatuje, že vzhledem k rychlejšímu rozvoji aplikací umělé inteligence, které vyžadují výpočetní, skladovací a energetické zdroje, by měl být v průběhu celého jejich životního cyklu zohledněn dopad systémů umělé inteligence na životní prostředí;

60.

domnívá se, že v oblastech, jako je zdravotnictví, musí odpovědnost nést v konečném důsledku fyzická nebo právnická osoba; zdůrazňuje, že je nutné zajistit sledovatelné a veřejně dostupné tréninkové údaje pro algoritmy;

61.

důrazně podporuje vytvoření evropského zdravotního datového prostorunavrženého Komisí ve svém sdělení o evropské strategii pro data, jehož cílem je podpora výměny údajů o zdraví a výzkumu při plném respektování ochrany údajů, včetně zpracování údajů pomocí technologií umělé inteligence, a který zajišťuje intenzivnější a širší využívání a opětovné používání údajů o zdravotním stavu; vybízí k rozšíření přeshraniční výměny údajů o zdravotním stavu, propojení a používání těchto údajů prostřednictvím bezpečných a sjednocených úložišť, specifických druhů zdravotních informací, jako jsou evropské zdravotní záznamy, genomické informace a digitální zdravotní snímky s cílem usnadnit celounijní interoperabilní rejstříky nebo databáze v oblastech, jako je výzkum, věda a zdravotnictví;

62.

poukazuje na výhody umělé inteligence při prevenci, léčbě a omezování nemocí, což dobře ilustruje příklad, kdy umělá inteligence předpověděla epidemii onemocnění COVID-19 dříve než WHO; naléhavě vyzývá Komisi, aby ve spolupráci s členskými státy středisku ECDC náležitým způsobem poskytla regulační rámec a zdroje pro nezávislé shromažďování nezbytných anonymizovaných celkových zdravotních údajů v reálném čase, aby bylo mj. možné řešit problémy, které odhalila krize COVID-19;

Ochrana soukromí a biometrické rozpoznávání

63.

poznamenává, že v důsledku vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií se rychle zvyšuje produkce a používání dat včetně osobních údajů, jako jsou biometrické údaje, z čehož plyne, že je nezbytné dodržovat a prosazovat práva občanů na soukromí a ochranu osobních údajů v souladu s právem Unie;

64.

poukazuje na to, že možnost, kterou skýtají tyto technologie, používat osobní a neosobní údaje ke kategorizaci osob, k mikrocílení na tyto osoby, k odhalení zranitelných míst jednotlivců či k využití přesné prediktivní znalosti musí být vyvážit účinně prosazovanými zásadami ochrany údajů a soukromí, jako jsou např. minimalizace údajů, právo odmítnout profilování a kontrolovat použití svých údajů, právo získat vysvětlení rozhodnutí založeného na automatizovaném zpracování a ochrana soukromí již od návrhu, jakož i zásady proporcionality, nezbytnosti a omezení na základě přesně vymezeného účelu v souladu s obecným nařízením o ochraně osobních údajů;

65.

zdůrazňuje, že když veřejné orgány používají z důvodu významného veřejného zájmu technologie dálkového rozpoznávání, jako je rozpoznávání biometrických charakteristik, zejména rozpoznávání obličeje, jejich použití by mělo být vždy oznámeno a mělo by být přiměřené, cílené, omezené na konkrétní cíle a dobu a prováděné v souladu s právem s řádným přihlédnutím k lidské důstojnosti a autonomii a k základním právům zakotveným v Listině. Kritéria pro tato užití a jejich omezení by měla podléhat soudnímu přezkumu a demokratické kontrole a měla by zohledňovat jejich psychologický a společensko-kulturní dopad na občanskou společnost;

66.

upozorňuje na skutečnost, že ačkoli má zavádění umělé inteligence, robotiky a souvisejících technologií v rámci rozhodnutí orgánů veřejné moci své výhody, může vést k případům závažného zneužívání, jako jsou hromadné sledování, prediktivní policejní dohled a porušování řádných procesních práv;

67.

má za to, že k technologiím, které mohou činit automatizovaná rozhodnutí, a nahradit tak rozhodnutí veřejných orgánů, by se mělo přistupovat s nejvyšší obezřetností, a to zejména v oblastech spravedlnosti a prosazování práva;

68.

je přesvědčen, že členské státy by měly takovéto technologie využívat pouze tehdy, je-li jednoznačně prokázáno, že jsou důvěryhodné, a – v případech, kdy jsou v sázce základní svobody – je-li možný přiměřený lidský zásah a přezkum nebo je-li takový zásah a přezkum systematicky uplatňován; zdůrazňuje, že je důležité, aby vnitrostátní orgány vypracovaly důkladné posouzení dopadů systémů umělé inteligence, které jsou v těchto případech využívány, na základní práva, zejména jsou-li tyto technologie vyhodnoceny jako vysoce rizikové;

69.

má za to, že veškerá rozhodnutí učiněná systémem umělé inteligence, robotiky nebo souvisejících technologií v rámci výsad orgánů veřejné moci by měla podléhat přiměřenému lidskému zásahu a standardům spravedlivého řízení, zejména jsou-li tyto technologie vyhodnoceny jako vysoce rizikové;

70.

je přesvědčen, že technologický pokrok by neměl vést k tomu, aby byly umělá inteligence, robotika a související technologie využívány k autonomnímu přijímání rozhodnutí veřejného sektoru, která mají přímý a významný dopad na práva a povinnosti občanů;

71.

konstatuje, že umělá inteligence, robotika a související technologie v oblasti prosazování práva a ochrany hranic by mohly posílit veřejnou bezpečnost, ale rovněž potřebují rozsáhlou a přísnou veřejnou kontrolu a nejvyšší možnou úroveň transparentnosti, a to jak pokud jde o posuzování rizik jednotlivých aplikací, tak i o obecný přehled využívání umělé inteligence, robotiky a souvisejících technologií v oblasti prosazování práva a ochrany hranic; domnívá se, že tyto technologie s sebou nesou významná etická rizika, na která se musí odpovídajícím způsobem reagovat s ohledem na možné nepříznivé dopady na jednotlivce, zejména pokud jde o jejich právo na soukromí, ochranu údajů a nediskriminaci; zdůrazňuje, že jejich zneužívání se může stát přímou hrozbou pro demokracii a že jejich zavádění a využívání musí být v souladu se zásadami proporcionality a nezbytnosti, Listinou základních práv a příslušnými sekundárním právem Unie, jako jsou pravidla pro ochranu údajů; zdůrazňuje, že umělá inteligence by při vydávání soudních rozhodnutí nikdy neměla nahradit lidi; domnívá se, že rozhodnutí, která se týkají například kauce nebo probace a která jsou přijímána při soudních jednáních, nebo rozhodnutí založená výhradně na automatizovaném zpracování, která mají právní účinek na fyzické osoby nebo která se jich významně dotýkají, musí vždy zahrnovat smysluplné posouzení a úsudek člověka;

Řádná správa

72.

zdůrazňuje, že řádné řízení vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, zejména vysoce rizikových technologií, zavedením opatření zaměřených na odpovědnost a řešení potenciálních rizik předsudků a diskriminace, může zvýšit bezpečnost občanů a jejich důvěru v tyto technologie;

73.

má za to, že společný evropský rámec pro správu těchto technologií, který by koordinovala Komise nebo jiný příslušný orgán, instituce či jiný subjekt Unie, jemuž bude tento úkol svěřen, a který by prováděly vnitrostátní orgány dohledu v jednotlivých členských státech, by zajistil soudržný unijní přístup a zabránil fragmentaci jednotného trhu;

74.

poznamenává, že se při vývoji umělé inteligence, robotiky a souvisejících technologií používá velké množství dat a že zpracování a sdílení těchto dat, přístup k nim a jejich využívání se musí řídit právem a požadavky na kvalitu, integritu, interoperabilitu, transparentnost, bezpečnost, soukromí a kontrolu, které jsou v nich stanoveny;

75.

připomíná, že přístup k datům je významným faktorem pro růst digitálního hospodářství; v této souvislosti zdůrazňuje, že interoperabilita údajů hraje díky omezení efektu závislosti na jednom poskytovateli (tzv. „lock-in“) klíčovou úlohu při zajišťování spravedlivých tržních podmínek a prosazování rovných podmínek na jednotném digitálním trhu;

76.

zdůrazňuje, že je třeba zajistit, aby osobní údaje, zejména údaje týkající se nebo pocházející od zranitelných skupin, jako jsou osoby se zdravotním postižením, pacienti, děti, starší osoby, menšiny, migranti a další skupiny ohrožené vyloučením, byly náležitě chráněny;

77.

konstatuje, že vývoj, zavádění a využívání umělé inteligence, robotiky a souvisejících technologií ze strany veřejných orgánů jsou často zadávány soukromým subjektům; je přesvědčen, že by tím neměla být ohrožena ochrana společenských hodnot a základních práv; domnívá se, že smluvní podmínky u veřejných zakázek by měly případně odrážet etické standardy, kterým podléhají veřejné orgány;

Spotřebitelé a vnitřní trh

78.

poukazuje na význam regulačního rámce pro umělou inteligenci, který by se používal v případě, že jsou spotřebitelé v rámci Unie uživateli algoritmického systému, že takovému systému podléhají, že se na ně takový systém zaměřuje nebo jsou k němu směrováni, a to nehledě na to, kde jsou subjekty, které daný systém vyvíjejí, prodávají nebo využívají, usazeny; dále je přesvědčen, že v zájmu právní jistoty by stanovená pravidla tohoto rámce měla platit pro všechny vývojáře a v celém hodnotovém řetězci, konkrétně pro vývoj, zavádění a používání příslušných technologií a jejich součástí, a měla by zaručit vysokou úroveň ochrany spotřebitele;

79.

poznamenává, že umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a oblasti jako internet věcí, strojové učení, systémy založené na pravidlech nebo automatické a asistované procesy rozhodování jsou spolu neodmyslitelně spjaty; dále konstatuje, že by mohly být vytvořeny standardizované ikony, které by pomáhaly vysvětlovat tyto systémy spotřebitelům, pokud by systémy byly složité nebo mohly činit rozhodnutí, která mají významný dopad na život spotřebitelů;

80.

připomíná, že za účelem odhalení mezer v právních předpisech by Komise měla přezkoumat stávající právní rámec a jeho uplatňování, včetně acquis v oblasti spotřebitelského práva, právních předpisů o odpovědnosti za vadné výrobky, o bezpečnosti výrobků a o dozoru nad trhem, a rovněž by měla přezkoumat stávající regulační povinnosti; považuje to za nezbytné, aby bylo možné ověřit, zda stávající právní rámec je schopen reagovat na nové výzvy spojené s nástupem umělé inteligence, robotiky a souvisejících technologií a zajistit vysokou úroveň ochrany spotřebitele;

81.

zdůrazňuje, že výzvy spojené s umělou inteligencí, robotikou a souvisejícími technologiemi je třeba účinně řešit a zajistit, aby spotřebitelé měli silné postavení a byli řádně chráněni; zdůrazňuje, že je třeba hledět nad rámec tradičních zásad informování a zveřejňování, na nichž bylo založeno acquis v oblasti spotřebitelského práva, neboť k zajištění toho, aby tyto technologie přispívaly ke zlepšení života spotřebitelů a rozvíjely se způsobem, který respektuje základní práva a práva spotřebitelů a hodnoty Unie, budou zapotřebí silnější práva spotřebitelů a jasná omezení týkající se vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií;

82.

poukazuje na to, že legislativní rámec zavedený rozhodnutím č. 768/2008/ES (14) stanoví harmonizovaný seznam povinností výrobců, dovozců a distributorů, prosazuje používání norem a stanoví několik úrovní kontroly v závislosti na nebezpečnosti výrobku; domnívá se, že rámec by se měl vztahovat i na produkty se zabudovanou umělou inteligencí;

83.

konstatuje, že pro účely analýzy dopadů umělé inteligence, robotiky a souvisejících technologií na spotřebitele by přístup k údajům měl být umožněn i příslušným vnitrostátním orgánům, a to za předpokladu, že bude plně v souladu s právem Unie, mj. v oblasti ochrany údajů a soukromí a obchodního tajemství; připomíná, že je důležité, aby měli spotřebitelé vzdělání, které by jim umožnilo být informovanější a mít potřebné dovednosti pro práci s umělou inteligencí, robotikou a souvisejícími technologiemi, chránilo je před potenciálními riziky a umožnilo jim prosazovat jejich práva;

84.

vyzývá Komisi, aby navrhla opatření, která by zajistila dohledatelnost údajů, a aby při tom brala v potaz zákonnost získávání těchto údajů a ochranu práv spotřebitelů a základních práv a postupovala plně v souladu s právem Unie v oblasti ochrany údajů, soukromí, práv duševního vlastnictví a obchodního tajemství;

85.

konstatuje, že by tyto technologie měly být zaměřeny na uživatele a navrženy způsobem, který umožní využívat produkty nebo služby umělé inteligence každému, bez ohledu na věk, pohlaví, schopnosti nebo vlastnosti; poznamenává, že obzvláště důležitá je dostupnost těchto technologií pro osoby se zdravotním postižením; poznamenává, že by neměl být uplatňován žádný unifikovaný přístup a že by se mělo zvážit zavedení zásady univerzálního designu, který odpovídá potřebám co nejširší škály uživatelů a je v souladu s příslušnými standardy v oblasti přístupnosti; zdůrazňuje, že jednotlivcům se tím zajistí rovný přístup a možnost aktivní účasti na stávajících i nově vznikajících počítačově podporovaných lidských činnostech a asistenčních technologiích;

86.

zdůrazňuje, že v případě, že k vývoji, zavedení nebo používání umělé inteligence, robotiky a souvisejících technologií jsou vedle otevřeného zadávání zakázek a otevřených smluvních norem použity ve značné míře i prostředky z veřejných zdrojů, měla by být zvážena možnost, že kód, vygenerovaná data – pokud nejde o osobní údaje – a model vytvořený na základě trénování po dohodě s vývojáři budou standardně veřejné, aby byla zajištěna jejich transparentnost a zvýšena kybernetická bezpečnost a aby bylo umožněno jejich opětovné použití v zájmu podpory inovací; zdůrazňuje, že tímto způsobem lze uvolnit plný potenciál jednotného trhu, a zabránit tak jeho fragmentaci;

87.

domnívá se, že umělá inteligence, robotika a související technologie mají obrovský potenciál zajistit, aby spotřebitelé měli v mnoha aspektech svého života vedle lepších produktů a služeb příležitost získat přístup k některým vymoženostem a aby mohli těžit z lepšího dozoru nad trhem, pokud se budou nadále uplatňovat všechny platné zásady, podmínky (včetně transparentnosti a kontrolovatelnosti) a právní předpisy;

Bezpečnost a obrana

88.

zdůrazňuje, že se bezpečnostní a obranná politika Evropské unie a jejích členských států řídí zásadami zakotvenými v Listině a zásadami Charty Organizace spojených národů a obecnou shodou na univerzálních hodnotách dodržování nedotknutelných a nezadatelných práv každého člověka, respektování lidské důstojnosti, svobody, demokracie, rovnosti a právního státu; zdůrazňuje, že veškeré obranné úsilí v rámci Unie musí respektovat tyto univerzální hodnoty a zároveň podporovat mír, bezpečnost a pokrok v Evropě a ve světě;

89.

vítá skutečnost, že zasedání vysokých smluvních stran Úmluvy OSN o některých konvenčních zbraních (CCW) v roce 2019 schválilo 11 obecných zásad pro vývoj a používání autonomních zbraňových systémů; vyjadřuje však politování nad tím, že se nepodařilo dosáhnout dohody o právně závazném nástroji, který by upravoval smrtící autonomní zbraňové systémy, s účinným mechanismem vymáhání; vítá a podporuje zprávu odborné skupiny Komise na vysoké úrovni pro umělou inteligenci nazvanou „Etické zásady pro důvěryhodnou umělou inteligenci“, která byla zveřejněna dne 9. dubna 2019, a postoj této skupiny ke smrtícím autonomním zbraňovým systémům; naléhavě vyzývá členské státy, aby vypracovaly vnitrostátní strategie k vymezení definice a určení statusu smrtících autonomních zbraní s cílem vytvořit komplexní strategii na úrovni Unie a aby spolu s místopředsedou Komise, vysokým představitelem Unie a Radou podporovaly diskusi o smrtících autonomních zbraních v rámci CCW OSN a dalších příslušných fór a zavedení mezinárodních norem týkajících se etických a právních parametrů pro vývoj a používání plně autonomních, poloautonomních a dálkově ovládaných smrtících zbraňových systémů; v této souvislosti připomíná své usnesení o smrtících autonomních zbraňových systémech ze dne 12. září 2018 a znovu vyzývá k urychlenému vypracování a přijetí společného postoje k smrtícím autonomním zbraňovým systémům, k mezinárodnímu zákazu vývoje, výroby a používání smrtících autonomních zbraňových systémů, které umožňují útočit bez smysluplné lidské kontroly a bez dodržování zásady zapojení lidského faktoru, v souladu s prohlášením nejvýznamnějších světových výzkumných pracovníků v oblasti umělé inteligence v jejich otevřeném dopise z roku 2015; vítá dohodu Rady a Parlamentu o vyloučení smrtících autonomních zbraní „bez možnosti smysluplné lidské kontroly nad rozhodnutími o výběru a použití při provádění útoků na člověka“ z opatření financovaných z Evropského obranného fondu; je přesvědčen, že etické aspekty jiných oblastí uplatnění umělé inteligence v odvětví obrany, jako jsou zpravodajská činnost, sledování a průzkum (ISR) nebo kybernetické operace, nesmí být přehlíženy a zvláštní pozornost musí být věnována vývoji bezpilotních letounů a jejich používání ve vojenských operacích;

90.

zdůrazňuje, že nové technologie v oblasti obrany a bezpečnosti, na něž se nevztahuje mezinárodní právo, by se měly posuzovat s ohledem na zásadu respektování lidskosti a obecně platných etických norem;

91.

doporučuje, aby jakýkoli unijní rámec upravující používání systémů na bázi UI v oblasti obrany v bojových i nebojových situacích dodržoval veškeré příslušné právní režimy, zejména mezinárodní humanitární právo a mezinárodní právo v oblasti lidských práv, a aby byl v souladu s právem Unie a s jejími zásadami a hodnotami, přičemž by měl brát v potaz rozdíly v technické a bezpečnostní infrastruktuře v celé Unii;

92.

uznává, že na rozdíl od základen obranného průmyslu by kritické inovace v oblasti umělé inteligence mohly pocházet z malých členských států, a proto by standardizovaný přístup SBOP měl zajistit, aby nebyly menší členské státy a malé a střední podniky vytlačovány; zdůrazňuje, že soubor společných kapacit EU v oblasti umělé inteligence spolu s operačními koncepcemi členských států může překlenout technické mezery, kvůli nimž by mohly být vynechány státy, jež příslušnou technologií, odvětvím nebo odbornými znalostmi pro zavádění systémů umělé inteligence v rámci ministerstev obrany nedisponují;

93.

domnívá se, že současné a budoucí činnosti související s bezpečností a obranou v rámci Unie budou vycházet z umělé inteligence, robotiky a autonomie a ze souvisejících technologií a že spolehlivá, stabilní a důvěryhodná umělá inteligence by mohla přispět k moderním a účinným ozbrojeným silám Unie; Unie proto musí převzít vedoucí úlohu ve výzkumu a vývoji systémů umělé inteligence v oblasti bezpečnosti a obrany; domnívá se, že využívání aplikací s podporou umělé inteligence v bezpečnosti a obraně by mohlo veliteli operace poskytnout řadu přímých výhod, jako jsou kvalitnější shromažďované údaje, lepší znalost situace, rychlejší rozhodování, nižší riziko vedlejších škod díky lepším kabelovým systémům, ochrana pozemních sil a také větší spolehlivost vojenského vybavení, a tím i snížené riziko pro lidi a méně lidských obětí; zdůrazňuje, že pro zaručení evropské strategické autonomie v kapacitní a operační oblasti je nezbytný rozvoj důvěryhodné umělé inteligence v oblasti obrany; připomíná, že systémy umělé inteligence se také stávají klíčovými prvky v boji proti novým bezpečnostním hrozbám, jako jsou kybernetické a hybridní války, a to jak v online, tak v offline prostoru; zároveň upozorňuje na všechna rizika a výzvy spojené s neregulovaným využíváním umělé inteligence; konstatuje, že umělá inteligence by mohla být vystavena manipulaci, chybám a nepřesnostem;

94.

zdůrazňuje, že technologie umělé inteligence mají v podstatě dvojí využití a že rozvoj umělé inteligence používané při činnostech souvisejících s obranou těží z výměn mezi vojenskými a civilními technologiemi; zdůrazňuje, že umělá inteligence používaná při činnostech souvisejících s obranou je průlomovou technologií s průřezovým dosahem, jejíž rozvoj může poskytnout příležitosti pro konkurenceschopnost a strategickou autonomii Unie;

95.

uznává, že v dnešním kontextu hybridního a vyspělého vedení válek mohou být objem a rychlost informací v počátečních fázích krize příliš velké pro lidské analytiky a že systém umělé inteligence by mohl tyto informace zpracovat a zajistit tak, aby lidé s rozhodovací pravomocí mohli sledovat celou škálu informací v přiměřeném časovém rámci umožňujícím rychlou reakci;

96.

zdůrazňuje, že je důležité investovat do rozvoje lidského kapitálu pro umělou inteligenci a podporovat potřebné dovednosti a vzdělávání v oblasti bezpečnostních a obranných technologií na bázi umělé inteligence, přičemž je třeba se zaměřit zvláště na etiku poloautonomních a autonomních operačních systémů na základě lidské odpovědnosti ve světě využívajícím umělou inteligenci; zdůrazňuje zejména, že je důležité zajistit, aby etikové v této oblasti disponovali odpovídajícími dovednostmi a absolvovali náležitou odbornou přípravu; vyzývá Komisi, aby co nejdříve předložila svou „rozšířenou agendu dovedností“, která byla oznámena v bílé knize o umělé inteligenci ze dne 19. února 2020;

97.

zdůrazňuje, že kvantová výpočetní technika by mohla představovat nejrevolučnější změnu v konfliktech od vzniku jaderných zbraní, a proto naléhavě vyzývá Unii a členské státy, aby vývoj kvantových výpočetních technologií přijaly za svou prioritu; uznává, že akty agrese, včetně útoků na kritickou infrastrukturu, s pomocí kvantové výpočetní techniky vytvoří konfliktní prostředí, v němž bude čas přijímat rozhodnutí dramaticky omezen ze dnů a hodin na minuty a vteřiny, a členské státy tak budou nuceny rozvíjet kapacity na svoji ochranu a školit své činitele s rozhodovací pravomocí i vojenský personál k tomu, aby dokázali v těchto časových lhůtách účinně reagovat;

98.

vyzývá ke zvýšení investic do evropské umělé inteligence pro obranu a do kritické infrastruktury, která ji podporuje;

99.

připomíná, že většina současných vojenských velmocí na celém světě se již zapojila do značného úsilí v oblasti výzkumu a vývoje v souvislosti s vojenským rozměrem umělé inteligence; má za to, že Unie musí zajistit, aby v tomto směru nezaostávala;

100.

vyzývá Komisi, aby do své průmyslové politiky začlenila budování kapacit v oblasti kybernetické bezpečnosti s cílem zajistit rozvoj a zavádění bezpečných, odolných a robustních systémů na bázi umělé inteligence; vyzývá Komisi, aby prozkoumala využívání aplikací a protokolů kybernetické bezpečnosti založených na technologii blockchain s cílem zvýšit odolnost, důvěryhodnost a spolehlivost infrastruktur umělé inteligence prostřednictvím modelů šifrování údajů bez zprostředkovatelů; vybízí evropské zúčastněné strany, aby prozkoumaly a navrhly vyspělejší prvky, které by usnadnily odhalování poruchových a škodlivých systémů na bázi umělé inteligence a robotických systémů, které by mohly ohrozit bezpečnost Unie a občanů;

101.

zdůrazňuje, že u všech systémů umělé inteligence v obraně musí být konkrétní a řádně vymezený rámec mise, který ponechá lidem schopnost odhalit a vypnout nebo deaktivovat nasazené systémy, pokud by překročily rámec mise vymezený a zadaný lidským velitelem nebo pokud by podnikly jakékoli eskalační nebo nezamýšlené kroky; domnívá se, že systémy, výrobky a technologie na bázi umělé inteligence pro vojenské využití by měly být vybaveny „černou skříňkou“ pro zaznamenávání každé datové transakce provedené strojem;

102.

zdůrazňuje, že veškerou odpovědnost za rozhodování o koncepci, vývoji, nasazení a využívání systémů umělé inteligence musí nadále nést lidští provozovatelé, neboť při výkonu jakéhokoli rozhodnutí zbraňových systémů na bázi umělé inteligence, které by mohlo mít smrtící důsledky, musí být zajištěno smysluplné lidské monitorování a kontrola nad každým zbraňovým systémem a v rozhodování o použití síly musí být lidský záměr; zdůrazňuje, že by se měla zachovat lidská kontrola nad velením a kontrolou systémů na bázi umělé inteligence v souladu se zásadou aktivního zapojení člověka, sledování ze strany člověka a člověka ve velení na úrovni vojenského velení; zdůrazňuje, že systémy na bázi umělé inteligence musí umožňovat, aby vojenské vedení ozbrojených sil převzalo plnou odpovědnost za použití smrtící síly a uplatňovalo potřebnou úroveň úsudku, kterým stroje nemohou disponovat, protože takový úsudek musí být založen na rozlišování, přiměřenosti a obezřetnosti, při uskutečňování smrtících nebo rozsáhlých ničivých akcí prostřednictvím podobných systémů; zdůrazňuje, že je třeba vytvořit jasné a dohledatelné rámce pro povolování a odpovědnost za zavádění inteligentních zbraní a jiných systémů na bázi umělé inteligence, a to za použití jedinečných rysů uživatele, jako jsou biometrické specifikace, které umožní nasazení výlučně oprávněným personálem;

Doprava

103.

poukazuje na potenciál využívání umělé inteligence, robotiky a souvisejících technologií u všech autonomních druhů dopravy na silnici, železnici, vodních cestách i v letecké dopravě a při urychlení přechodu na jiné druhy dopravy a intermodální dopravu, protože tyto technologie mohou přispět k nalezení optimální kombinace jednotlivých způsobů dopravy zboží a cestujících; zdůrazňuje dále, že umělá inteligence, robotika a související technologie mohou zvýšit účinnost dopravy, logistiky a dopravních toků a zajistit, aby byly všechny způsoby dopravy bezpečnější, inteligentnější a šetrnější k životnímu prostředí; poukazuje na to, že etický přístup k umělé inteligenci může být pokládán za systém včasného varování, zejména pokud jde o bezpečnost a účinnost dopravy;

104.

poukazuje na to, že globální soutěž mezi společnostmi a hospodářskými regiony vyžaduje, aby EU podporovala investice a zvýšila mezinárodní konkurenceschopnost společností v odvětví dopravy tím, že vytvoří prostředí, které by bylo příznivé pro rozvoj a používání řešení založených na umělé inteligenci a dalších inovacích a v němž by se podniky se sídlem v Unii mohly stát světovými lídry v oblasti rozvoje technologií umělé inteligence;

105.

zdůrazňuje, že dopravní odvětví Unie potřebuje aktualizovaný regulační rámec týkající se těchto nově vznikajících technologií a jejich používání v odvětví dopravy a jasný etický rámec, aby bylo možné vyvinout důvěryhodnou umělou inteligenci, mj. pokud jde o její bezpečnost, zabezpečení, dodržování autonomie lidského rozhodování, dohled a otázky odpovědnosti za způsobenou škodu, který by zajistil rozsáhlejší společné výhody pro všechny a byl by klíčovým prvkem při navyšování investic do výzkumu a inovací, rozvoje dovedností a zavádění umělé inteligence v oblasti veřejných služeb a v malých, středních a začínajících podnicích a který by zároveň zajistil ochranu údajů a interoperabilitu, aniž by docházelo k vytváření zbytečné administrativní zátěže podniků a spotřebitelů;

106.

konstatuje, že rozvoj a zavádění umělé inteligence v odvětví dopravy nebude možné bez moderní infrastruktury, která je zásadní součástí inteligentních dopravních systémů; zdůrazňuje, že přetrvávající rozdíly v úrovni rozvoje mezi členskými státy vytvářejí riziko, že nejméně rozvinuté regiony a jejich obyvatelé nebudou mít prospěch z rozvoje autonomní mobility; požaduje, aby modernizace dopravní infrastruktury v Unii, včetně její integrace do sítě 5G, byla odpovídajícím způsobem financována;

107.

doporučuje, aby byly na úrovni Unie vypracovány důvěryhodné normy v oblasti umělé inteligence pro veškeré druhy dopravy včetně automobilového průmyslu a pro testování vozidel využívajících umělou inteligenci a souvisejících produktů a služeb;

108.

konstatuje, že systémy umělé inteligence by mohly přispět ke značnému snížení počtu úmrtí na silnicích, například prostřednictvím kratší reakční doby a lepšího dodržování silničních pravidel; domnívá se však, že není možné, aby používání autonomních vozidel vedlo k odstranění veškerých nehod, a zdůrazňuje, že je proto stále důležitější, aby bylo možné rozhodnutí umělé inteligence vysvětlit, a odůvodnit tak nedostatky a nechtěné důsledky těchto rozhodnutí;

Zaměstnanost, práva pracovníků, digitální dovednosti a pracoviště

109.

poznamenává, že používání umělé inteligence, robotiky a souvisejících technologií na pracovišti může přispět k inkluzivním trhům práce a mít dopad na zlepšení bezpečnosti a ochrany zdraví při práci, přičemž může být rovněž využito k monitorování, hodnocení, předvídání a řízení výkonnosti pracovníků s přímými a nepřímými důsledky pro jejich profesní dráhu; vzhledem k tomu, že by umělá inteligence měla mít pozitivní dopad na pracovní podmínky a měla by se řídit dodržováním lidských práv i základních práv a hodnot Unie; vzhledem k tomu, že by umělá inteligence měla být zaměřená na člověka, podporovat dobré podmínky lidí a společnosti a přispívat ke spravedlivé a řádné transformaci; tyto technologie by se proto měly pozitivně odrazit na pracovních podmínkách, které se řídí dodržováním lidských práv i základních práv a hodnot Unie;

110.

zdůrazňuje, že je třeba prostřednictvím odborné přípravy a vzdělávání rozvíjet dovednosti pracovníků a jejich zástupců, pokud jde o umělou inteligenci na pracovišti, aby lépe chápali dopady řešení založených na umělé inteligenci; zdůrazňuje, že uchazeči a pracovníci by měli být řádně písemně informováni, pokud se umělá inteligence používá v průběhu přijímacích řízení a dalšího rozhodování o lidských zdrojích, a o také tom, jak lze v tomto případě požádat o lidský přezkum s cílem zvrátit automatizované rozhodnutí;

111.

zdůrazňuje, že je třeba zajistit, aby zvyšování produktivity spojené s vývojem a využíváním umělé inteligence a robotiky nepřinášelo užitek pouze vlastníkům a akcionářům společností, ale aby také prospívalo společnostem a pracovníkům díky zlepšení pracovních podmínek a podmínek zaměstnávání, včetně mezd, hospodářského růstu a rozvoje, a aby také sloužilo společnosti jako celku, a to zejména v případech, kdy k němu dochází na úkor pracovních míst; vyzývá členské státy, aby pečlivě zkoumaly potenciální dopad umělé inteligence na trh práce a na systémy sociálního zabezpečení a aby vyvinuly strategie týkající se způsobu zajištění dlouhodobé stability pomocí reformy daní a příspěvků a také dalších opatření v případě nižších veřejných příjmů;

112.

zdůrazňuje význam podnikových investic do formální a neformální odborné přípravy a celoživotního učení s cílem podpořit spravedlivou transformaci na digitální ekonomiku; zdůrazňuje v této souvislosti, že společnosti využívající umělou inteligenci odpovídají za poskytování přiměřeného zvyšování kvalifikací a rekvalifikací pro všechny příslušné zaměstnance tak, aby se mohli naučit, jak používat digitální nástroje a pracovat s coboty a dalšími novými technologiemi, a tím se přizpůsobit měnícím se potřebám trhu práce a udržet si zaměstnání;

113.

domnívá se, že zvláštní pozornost by měla být věnována všem novým formám práce, jako je zakázková práce („gig work“) nebo práce prostřednictvím platforem, která je výsledkem uplatňování nových technologií v této oblasti; zdůrazňuje, že dopad umělé inteligence musí být rovněž zohledněn při regulaci podmínek práce na dálku v celé Unii a zajišťování důstojných pracovních podmínek a podmínek zaměstnávání v digitální ekonomice; vyzývá Komisi, aby v tomto ohledu vedla konzultace se sociálními partnery, vývojáři umělé inteligence, výzkumnými pracovníky a dalšími zúčastněnými stranami;

114.

zdůrazňuje, že umělá inteligence, robotika a související technologie nesmí žádným způsobem ovlivňovat výkon základních práv uznávaných v členských státech a na úrovni Unie, včetně práva na stávku nebo svobody stávkovat nebo činit jiné kroky, na něž se vztahují konkrétní systémy vztahů mezi sociálními partnery v členských státech, v souladu s vnitrostátními právem nebo zvyklostmi, ani právo vyjednávat, uzavírat a vymáhat kolektivní smlouvy nebo podnikat kolektivní akce v souladu s vnitrostátním právem nebo zvyklostmi;

115.

opětovně připomíná význam vzdělávání a soustavného učení pro rozvoj kvalifikací nezbytných v digitálním věku a pro boj proti digitálnímu vyloučení; vyzývá členské státy, aby investovaly do vysoce kvalitních reakceschopných a inkluzivních systémů vzdělávání, odborné přípravy a celoživotního učení a také do politiky rekvalifikace a zvyšování kvalifikace pro pracovníky v odvětvích, na něž může mít umělá inteligence značný dopad; zdůrazňuje, že je nezbytné vybavit současné i budoucí pracovníky nutnou gramotností, matematickou gramotností a digitálními dovednostmi a také kompetencemi v oblasti vědy, technologie, inženýrství a matematiky a průřezovými měkkými dovednostmi, jako je kritické myšlení, kreativita a podnikavost; zdůrazňuje, že v této souvislosti musí být věnována zvláštní pozornost začlenění znevýhodněných skupin;

116.

připomíná, že umělá inteligence, robotika a související technologie používané na pracovišti musí být přístupné všem, a to na základě zásady design pro všechny;

Vzdělávání a kultura

117.

zdůrazňuje, že je třeba vypracovat kritéria pro vývoj, zavádění a používání umělé inteligence s ohledem na jejich dopad na oblast vzdělávání, sdělovacích prostředků, mládeže, výzkumu, sportu a kulturní a kreativní odvětví a vytvořit referenční standardy a vymezující principy pro eticky zodpovědné a přijatelné používání technologií umělé inteligence, které mohou být v uvedených oblastech náležitě uplatňovány, včetně jasného systému odpovědnosti za škodu způsobenou výrobky v důsledku používání umělé inteligence;

118.

konstatuje, že každé dítě má právo na kvalitní vzdělávání na všech úrovních; vyzývá proto k vypracování, zavedení a používání kvalitních systémů umělé inteligence, které by umožnily vytvořit a zajistit kvalitní vzdělávací nástroje na všech úrovních pro všechny, a zdůrazňuje, že zavedení těchto nových systémů ve školách by nemělo vést k vytváření ještě větších rozdílů v digitalizaci společnosti; uznává obrovský potenciální přínos umělé inteligence a robotiky pro vzdělávání; konstatuje, že personalizované výukové systémy založené na umělé inteligenci by neměly nahrazovat vzdělávání s učitelem a že tradiční formy vzdělávání by neměly být opomíjeny, a zároveň poukazuje na to, že učitelům, kteří se snaží získat odpovídající dovednosti, musí být poskytnuta finanční, technologická a vzdělávací podpora, včetně specializovaných kurzů v oblasti informačních a komunikačních technologií, tak aby se mohli přizpůsobit technologickým změnám a aby potenciálu umělé inteligence dokázali nejen využívat, ale aby také porozuměli jejím omezením; požaduje, aby byla vypracována celounijní strategie s cílem napomoci transformaci a modernizaci našich vzdělávacích systémů, přípravě našich vzdělávacích zařízení na všech úrovních a vybavení učitelů a žáků nezbytnými dovednostmi a schopnostmi;

119.

zdůrazňuje, že vzdělávací instituce by měly používat pro vzdělávací účely pouze systémy umělé inteligence, které získaly osvědčení o dodržování etických zásad;

120.

zdůrazňuje, že příležitosti, které nabízí digitalizace a nové technologie, nesmí vést k celkové ztrátě pracovních míst v kulturních a kreativních odvětvích, k zanedbávání péče o originály ani k omezení tradičního přístupu ke kulturnímu dědictví, kam je třeba směřovat stejnou podporu; konstatuje, že systémy s umělou inteligencí vyvíjené, zaváděné a používané v Unii by měly odrážet její kulturní rozmanitost a mnohojazyčnost;

121.

uznává rostoucí potenciál umělé inteligence v informační oblasti, ve sdělovacích prostředcích a na internetových platformách, mj. coby nástroje k boji proti dezinformacím v souladu s právem Unie; zdůrazňuje, že bez odpovídající regulace by mohla mít eticky nepříznivé dopady spočívající ve využívání neobjektivních údajů a algoritmů, které by mohly vést k šíření dezinformací a vytváření informačních bublin; upozorňuje na význam transparentnosti a odpovědnosti v souvislosti s algoritmy, které používají platformy pro sdílení videonahrávek, jakož i streamingové platformy, neboť je třeba zajistit přístup ke kulturně a jazykově různorodému obsahu;

Vnitrostátní orgány dohledu

122.

poukazuje na přidanou hodnotu určení vnitrostátních orgánů dohledu v každém členském státě, které jsou odpovědné za zajištění toho, aby vývoj, zavádění a používání vysoce rizikové umělé inteligence, robotiky a souvisejících technologií probíhal v souladu s právními povinnostmi a etickými zásadami, a posuzují a monitorují, zda tak tomu skutečně je, čímž přispívají k tomu, aby tyto technologie uvedeným právním a etickým požadavkům vyhověly;

123.

je přesvědčen o tom, že tyto orgány musí mít povinnost spolupracovat s orgány příslušnými pro provádění odvětvových právních předpisů, aniž by docházelo k překrývání jejich úkolů, s cílem vymezit technologie, které jsou z etického hlediska vysoce rizikové, a dohlédnout na provádění požadovaných a přiměřených opatření v případech, kdy jsou takové technologie zjištěny;

124.

uvádí, že tyto orgány by měly spolupracovat nejen mezi sebou, ale rovněž s Evropskou komisí a dalšími příslušnými orgány, institucemi a jinými subjekty Unie, aby byla zaručena jednotná přeshraniční činnost;

125.

navrhuje, aby byla v rámci této spolupráce vypracována společná kritéria a postup pro podávání žádostí o udělení evropského osvědčení o dodržování etických zásad, a to i po předložení žádosti jakýmkoli vývojářem, provozovatelem či uživatelem technologií, které nejsou považovány za vysoce rizikové, kteří chtějí získat pozitivní osvědčení o dodržování etických zásad na základě posouzení provedeného příslušným vnitrostátním orgánem dohledu;

126.

vyzývá k tomu, aby byly tyto orgány pověřeny podporou pravidelné výměny názorů s občanskou společností a podporou inovací v rámci Unie, a to tak, že budou poskytovat pomoc výzkumným pracovníkům, vývojářům a dalším příslušným zúčastněným stranám a méně digitalizovaným podnikům, zejména malým a středním podnikům nebo začínajícím podnikům, a to zejména pokud jde o zvyšování povědomí a podporu rozvoje, zavádění, školení a získávání talentů s cílem zajistit účinný přenos technologií a přístup k technologiím, projektům, výsledkům a sítím;

127.

vyzývá k tomu, aby všechny členské státy své určené vnitrostátní orgány dohledu dostatečně financovaly, a zdůrazňuje, že je třeba posílit vnitrostátní orgány pro dohled nad trhem, pokud jde o kapacitu, dovednosti a kompetence v oblasti umělé inteligence, robotiky a souvisejících technologií, jakož i znalosti o jejich specifických rizicích;

Koordinace na úrovni Unie

128.

zdůrazňuje význam koordinace na úrovni Unie, kterou bude provádět Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, aby se zabránilo roztříštěnosti, a dále zdůrazňuje, že je důležité zajistit harmonizovaný přístup v rámci celé Unie; domnívá se, že koordinace by se měla zaměřit na mandáty a činnosti vnitrostátních orgánů dohledu v každém členském státě, jak je uvedeno v předchozím pododdíle, a rovněž na sdílení osvědčených postupů mezi těmito orgány a upevňování spolupráce v oblasti souvisejícího výzkumu a vývoje v celé Unii; vyzývá |Komisi, aby posoudila situaci a našla nejvhodnější řešení pro strukturu takové spolupráce; příkladem již existujících příslušných orgánů, institucí a jiných subjektů Unie jsou ENISA, EIOÚ a evropský veřejný ochránce práv;

129.

je přesvědčen o tom, že taková spolupráce a evropské osvědčení o dodržování etických zásad by v této souvislosti byly přínosné nejen pro rozvoj průmyslu a inovací v Unii, ale rovněž by zvýšily povědomí občanů o možnostech a rizicích spojených s těmito technologiemi;

130.

navrhuje vytvořit odborné středisko, které bude sdružovat akademickou obec, výzkum, průmysl a jednotlivé odborníky na úrovni Unie, s cílem podpořit výměnu zkušeností a odborných znalostí a usnadnit spolupráci v celé Unii i mimo ni; dále vyzývá k tomu, aby toto odborné středisko zapojilo i organizace zastupující zúčastněné strany, například organizace na ochranu spotřebitelů, a zajistilo se tak široké zastoupení spotřebitelů; domnívá se, že vzhledem k možnému nepřiměřenému dopadu algoritmických systémů na ženy a menšiny by měly být úrovně rozhodování takové struktury různorodé a zajišťovat rovnost žen a mužů; zdůrazňuje, že členské státy musí v rámci svých vnitrostátních strategií pro dohled nad trhem vytvořit strategie řízení rizik pro umělou inteligenci;

131.

navrhuje, aby Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, poskytovaly nezbytnou pomoc vnitrostátním orgánům dohledu, pokud jde o jejich úlohu sloužit jako primární kontaktní místo v případě podezření na porušení právních povinností a etických zásad, které byly stanoveny v regulačním rámci Unie pro umělou inteligenci, a to včetně zásady nediskriminace; pověřený subjekt by měl rovněž poskytnout vnitrostátním orgánům dohledu veškerou nezbytnou pomoc v případech, kdy tyto orgány provádějí posouzení souladu s cílem podpořit právo občanů vznést námitku a právo na nápravu, a to zejména tím, že podpoří případné konzultace s jinými příslušnými orgány v Unii, zejména se sítí pro spolupráci v oblasti ochrany spotřebitele a s vnitrostátními orgány na ochranu spotřebitele, organizacemi občanské společnosti a sociálními partnery se sídlem v jiných členských státech;

132.

uznává cenné výsledky práce skupiny odborníků na vysoké úrovni pro umělou inteligenci, kterou tvoří zástupci akademické obce, občanské společnosti a průmyslu a Evropská aliance pro umělou inteligenci, zejména „Etické pokyny pro důvěryhodnou umělou inteligenci“, a navrhuje, že by tato skupina mohla poskytovat odborné poradenství Komisi nebo jakýmkoli příslušným orgánům, institucím a jiným subjektům Unie, které mohou být tímto úkolem pověřeny;

133.

bere na vědomí začlenění projektů týkajících se umělé inteligence do Evropského programu rozvoje obranného průmyslu (EDIDP); je přesvědčen, že budoucí Evropský obranný fond (EDF) a stálá strukturovaná spolupráce (PESCO) mohou rovněž poskytovat rámce pro budoucí projekty související s umělou inteligencí, které by mohly pomoci zefektivnit úsilí Unie v této oblasti a zároveň podpořit cíl Unie, kterým je posílení lidských práv, mezinárodního práva a vícestranných řešení; zdůrazňuje, že projekty související s umělou inteligencí by měly být synchronizovány s širšími civilními programy Unie zaměřenými na umělou inteligenci; konstatuje, že v souladu s bílou knihou Evropské komise o umělé inteligenci ze dne 19. února 2020 by měla být zřízena střediska excelence a testovací střediska zaměřená na výzkum a vývoj umělé inteligence v oblasti bezpečnosti a obrany a měly by být stanoveny přísné specifikace podporující zapojení a investice soukromých zúčastněných stran;

134.

bere na vědomí bílou knihu Komise o umělé inteligenci ze dne 19. února 2020 a vyjadřuje politování nad tím, že nebyly zohledněny vojenské aspekty; vyzývá Komisi a místopředsedu Komise, vysokého představitele, aby také v rámci celkového přístupu předložili odvětvovou strategii v oblasti umělé inteligence pro činnosti související s obranou v rámci Unie, která zajistí dodržování práv občanů i strategické zájmy Unie a bude založena na jednotném přístupu, který se bude týkat fází od vzniku systémů na bázi umělé inteligence až po jejich vojenské využití, a aby v rámci odborné skupiny na vysoké úrovni pro umělou inteligenci vytvořili pracovní skupinu pro bezpečnost a obranu, která by se měla věnovat konkrétně politickým a investičním otázkám, ale i etickým aspektům umělé inteligence v oblasti bezpečnosti a obrany; vyzývá Radu, Komisi a místopředsedu Komise, vysokého představitele, aby za tímto účelem zahájili strukturovaný dialog s Parlamentem;

Evropské osvědčení o dodržování etických zásad

135.

navrhuje, aby byla v rámci koordinace na úrovni Unie vypracována společná kritéria a postup pro podávání žádostí o udělení evropského osvědčení o dodržování etických zásad, a to i po předložení žádosti jakýmkoli vývojářem, provozovatelem či uživatelem technologií, které nejsou považovány za vysoce rizikové, kteří chtějí získat pozitivní osvědčení o dodržování etických zásad na základě posouzení provedeného příslušným vnitrostátním orgánem dohledu;

136.

je přesvědčen, že zavedení tohoto evropského osvědčení o dodržování etických zásad by podpořilo uplatňování zásady „etika již od návrhu“ v celém dodavatelském řetězci ekosystémů umělé inteligence; navrhuje proto, aby vydání tohoto osvědčení bylo v případě vysoce rizikových technologií závaznou podmínkou způsobilosti pro účast v postupech zadávání veřejných zakázek na umělou inteligenci, robotiku a související technologie;

Mezinárodní spolupráce

137.

je toho názoru, že účinné přeshraniční spolupráce a etických norem lze dosáhnout pouze tehdy, pokud se všechny zúčastněné strany zavážou k zajištění lidského faktoru a dohledu, technické odolnosti a bezpečnosti, transparentnosti a odpovědnosti, rozmanitosti, nediskriminace a spravedlnosti, společenského a environmentálního blahobytu a dodržování zavedených zásad ochrany soukromí, správy dat a ochrany údajů, a to zejména zásad zakotvených v nařízení (EU) 2016/679;

138.

zdůrazňuje, že právní povinnosti a etické zásady Unie pro vývoj, zavádění a používání těchto technologií by z Evropy mohly učinit světového lídra v oblasti umělé inteligence, a proto by měly být prosazovány po celém světě prostřednictvím spolupráce s mezinárodními partnery, přičemž je třeba pokračovat také v kritickém a na etických zásadách založeném dialogu se třetími zeměmi, které mají alternativní modely regulace umělé inteligence, jejího vývoje a zavádění;

139.

připomíná, že příležitosti a rizika spojená s těmito technologiemi mají globální rozměr, neboť software a data, které používají, jsou často dováženy do Unie a vyváženy z ní, a proto je třeba uplatňovat soudržný přístup v rámci mezinárodní spolupráce; vyzývá Komisi, aby z vlastního podnětu posoudila, které dvoustranné a mnohostranné smlouvy a dohody by měly být přizpůsobeny s cílem zajistit soudržný přístup a podpořit dodržování evropského modelu etických zásad na celosvětové úrovni;

140.

v této souvislosti poukazuje také na přidanou hodnotu výše uvedené koordinace na úrovni Unie;

141.

vyzývá k součinnosti a vytváření sítí mezi jednotlivými evropskými výzkumnými středisky v oblasti umělé inteligence a dalšími mnohostrannými fóry, mezi něž patří Rada Evropy, Organizace OSN pro výchovu, vědu a kulturu (UNESCO), Organizace pro hospodářskou spolupráci a rozvoj (OECD), Světová obchodní organizace a Mezinárodní telekomunikační unie (ITU) s cílem sladit jejich úsilí a lépe koordinovat vývoj umělé inteligence, robotiky a souvisejících technologií;

142.

zdůrazňuje, že Unie musí hrát vedoucí úlohu v souvislosti s podporou mnohostranného úsilí diskutovat v rámci skupiny vládních odborníků fóra Úmluvy OSN o některých konvenčních zbraních i dalších relevantních fór o účinném mezinárodním regulačním rámci, který zajistí smysluplnou lidskou kontrolu nad autonomními systémy zbraní s cílem ovládat tyto technologie tím, že stanoví dobře definované postupy založené na referenčních hodnotách a přijme právní předpisy pro jejich etické používání po konzultaci se zúčastněnými stranami z řad armády, průmyslu, policie, akademické obce a občanské společnosti, pochopit související etické aspekty, zmírnit přirozená rizika těchto technologií a předcházet používání k nepřátelským účelům;

143.

uznává úlohu NATO při podpoře euroatlantické bezpečnosti a vyzývá k tomu, aby se v rámci NATO spolupracovalo na zavedení společných norem a interoperability systémů umělé inteligence v oblasti obrany; zdůrazňuje, že transatlantický vztah je důležitý pro zachování sdílených hodnot a pro boj proti budoucím a novým hrozbám;

144.

zdůrazňuje, že je důležité vytvořit etický kodex chování, který by byl základem pro zavádění zbraňových systémů na bázi umělé inteligence do vojenských operací a který by byl podobný stávajícímu regulačnímu rámci zakazujícímu nasazování chemických a biologických zbraní; je toho názoru, že Komise by měla iniciovat vytvoření norem pro používání zbraňových systémů založených na umělé inteligenci ve válce v souladu s mezinárodním humanitárním právem a že Unie by měla usilovat o mezinárodní přijetí takovýchto norem; domnívá se, že by se Unie měla zapojit do diplomacie v oblasti umělé inteligence na mezinárodních fórech s podobně smýšlejícími partnery, jako je skupina G7, G20 a OECD;

Závěrečná hlediska

145.

na základě výše uvedených úvah o aspektech souvisejících s etickým rozměrem umělé inteligence, robotiky a souvisejících technologií dochází k názoru, že právní a etický rozměr by měly být zakotveny v účinném, na budoucnost zaměřeném a komplexním právním rámci na úrovni Unie, který budou podporovat příslušné vnitrostátní orgány dohledu, který bude koordinovat a podporovat Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, který bude předmětem pravidelného přezkumu ze strany výše uvedeného odborného střediska a který bude v rámci vnitřního trhu řádně dodržován a certifikován;

146.

v souladu s postupem uvedeným v článku 225 Smlouvy o fungování Evropské unie žádá, aby Komise předložila návrh nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií na základě článku 114 Smlouvy o fungování Evropské unie a podrobných doporučení uvedených v příloze k tomuto návrhu usnesení; zdůrazňuje, že návrh by neměl podkopávat odvětvové právní předpisy, ale měl by pouze zaplnit zjištěné mezery;

147.

doporučuje, aby Evropská komise po konzultaci se všemi relevantními zúčastněnými stranami v případě potřeby přezkoumala stávající právo Unie použitelné na umělou inteligenci, robotiku a související technologie s cílem reagovat na rychlost jejich vývoje v souladu s doporučeními uvedenými v příloze k tomuto návrhu usnesení, přičemž je nutné předejít nadměrné regulaci, zejména v případě malých a středních podniků;

148.

je přesvědčen, že pro zajištění toho, aby byly platné právní předpisy stále aktuální a odpovídaly rychlému tempu technologického pokroku, bude klíčové pravidelně vyhodnocovat a případně přezkoumávat regulační rámec Unie pro umělou inteligenci, robotiku a související technologie;

149.

domnívá se, že požadovaný návrh by měl finanční dopady, pokud by byl výše uvedenými koordinačními funkcemi pověřen některý evropský subjekt, byly byposkytnuty nezbytné technické prostředky a lidské zdroje pro plnění úkolů, které byly tomuto subjektu nově svěřeny;

o

o o

150.

pověřuje svého předsedu, aby předal toto usnesení a připojená podrobná doporučení Komisi a Radě.

(1)  Úř. věst. L 252, 8.10.2018, s. 1.

(2)  Úř. věst. L 180, 19.7.2000, s. 22.

(3)  Úř. věst. L 303, 2.12.2000, s. 16.

(4)  Úř. věst. L 119, 4.5.2016, s. 1.

(5)  Úř. věst. L 119, 4.5.2016, s. 89.

(6)  Úř. věst. L 123, 12.5.2016, s. 1.

(7)  Úř. věst. C 252, 18.7.2018, s. 239.

(8)  Úř. věst. C 307, 30.8.2018, s. 163.

(9)  Úř. věst. C 433, 23.12.2019, s. 86.

(10)  Přijaté texty P8_TA(2018)0332.

(11)  Přijaté texty P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.

(13)  Směrnice Evropského parlamentu a Rady (EU) 2019/882 ze dne 17. dubna 2019 o požadavcích na přístupnost u výrobků a služeb (Úř. věst. L 151, 7.6.2019, s. 70).

(14)  Rozhodnutí Evropského parlamentu a Rady č. 768/2008/ES ze dne 9. července 2008 o společném rámci pro uvádění výrobků na trh a o zrušení rozhodnutí Rady 93/465/EHS (Úř. věst. L 218, 13.8.2008, s. 82).


PŘÍLOHA K USNESENÍ:

DOPORUČENÍ TÝKAJÍCÍ SE OBSAHU POŽADOVANÉHO NÁVRHU

A.   ZÁSADY A CÍLE POŽADOVANÉHO NÁVRHU

I.

Hlavní zásady a cíle návrhu jsou:

vytvořit důvěru na všech úrovních zúčastněných stran a společnosti v umělou inteligenci, robotiku a související technologie, zejména jsou-li považovány za vysoce rizikové;

podporovat vývoj umělé inteligence, robotiky a souvisejících technologií v Unii, mj. poskytováním pomoci podnikům, start-upům a malým a středním podnikům při posuzování a řešení stávajících a budoucích regulačních požadavků a rizik v procesu inovačního a podnikového rozvoje s dostatečnou jistotou, a to i v průběhu pozdější fáze, tj. využívání příslušné technologie profesionály a řadovými občany, a to omezením zátěže a byrokracie na minimum;

podporovat zavádění umělé inteligence, robotiky a souvisejících technologií v Unii poskytnutím vhodného a přiměřeného regulačního rámce, který by se měl uplatňovat tak, aby nebyly dotčeny stávající nebo budoucí odvětvové předpisy, s cílem podpořit regulační jistotu a inovace a současně zaručit základní práva a ochranu spotřebitele;

podporovat používání umělé inteligence, robotiky a souvisejících technologií v Unii zajištěním toho, aby byly vyvíjeny, zaváděny a používány způsobem, který bude v souladu s etickými zásadami;

požadovat transparentnost a lepší výměnu informací mezi občany a v rámci organizací, které vyvíjejí, zavádějí nebo používají umělou inteligenci, robotiku a související technologie, jako prostředek k zajištění toho, aby byly tyto technologie v souladu s právem Unie, základními právy a hodnotami a etickými zásadami požadovaného návrhu nařízení.

II.

Návrh zahrnuje tyto prvky:

„nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií“;

koordinační úloha na úrovni Unie, kterou bude hrát Komise nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, a evropské osvědčení o dodržování etických zásad;

podpůrná úloha Evropské komise;

úloha „orgánu dohledu“ v každém členském státě s cílem zajistit, aby byly na umělou inteligenci, robotiku a související technologie uplatňovány etické zásady;

zapojení zúčastněných stran, včetně start-upů, malých a středních podniků, podniků, sociálních partnerů a dalších zástupců občanské společnosti, a vedení konzultací s nimi, jakož i poskytování podpory na příslušné projekty výzkumu a vývoje;

příloha, která stanoví vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů.

III.

„Nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií“ vychází z těchto zásad:

umělá inteligence, robotika a související technologie vytvářené a kontrolované člověkem a zaměřené na člověka;

povinné posouzení souladu vysoce rizikové umělé inteligence, robotiky a souvisejících technologií;

bezpečnost, transparentnost a odpovědnost;

záruky a prostředky nápravy proti předsudkům a diskriminaci;

právo na nápravu;

sociální odpovědnost a rovnost žen a mužů v rámci umělé inteligence, robotiky a souvisejících technologií;

udržitelnost umělé inteligence, robotiky a souvisejících technologií z hlediska životního prostředí;

dodržování ochrany soukromí a omezené používání biometrického rozpoznávání;

řádné řízení umělé inteligence, robotiky a souvisejících technologií, včetně dat, která tyto technologie používají či produkují.

IV.

Pro účely koordinace na úrovni Unie vykonává Komise nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, následující hlavní úkoly:

spolupráce na monitorování uplatňování požadovaného návrhu nařízení a příslušného odvětvového práva Unie;

spolupráce na vydávání pokynů k důslednému uplatňování požadovaného návrhu nařízení, konkrétně k uplatňování kritérií pro umělou inteligenci, robotiku a související technologie, které by měly být považovány za vysoce rizikové, a seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů stanovených v příloze k tomuto nařízení;

spolupráce s „orgánem dohledu“ v každém členském státě, pokud jde o vytvoření evropského osvědčení o dodržování etických zásad a právních povinností, jak je stanoveno v požadovaném návrhu nařízení a v příslušném právu Unie, jakož i vytvoření postupu pro podávání žádostí pro všechny vývojáře, provozovatele nebo uživatele technologií, jež nejsou považovány za vysoce rizikové, kteří chtějí osvědčit jejich soulad s požadovaným návrhem nařízení;

spolupráce v souvislosti s podporou meziodvětvové a přeshraniční spolupráce prostřednictvím pravidelné výměny informací se zúčastněnými stranami a občanskou společností v EU i ve světě, zejména s podniky, sociálními partnery, výzkumnými pracovníky a příslušnými orgány, mj. v souvislosti s vývojem technických standardů na mezinárodní úrovni;

spolupráce s „orgánem dohledu“ v každém členském státě, pokud jde o vytvoření závazných pokynů k metodice, podle níž má každý „orgán dohledu“ provádět posouzení souladu;

spolupráce s „orgánem dohledu“ v každém členském státě a koordinace jejich mandátu a úkolů;

spolupráce na zvyšování povědomí, poskytování informací a zapojení se do komunikace s vývojáři, provozovateli a uživateli v celé Unii;

spolupráce na zvyšování povědomí, poskytování informací, prosazování digitální gramotnosti, odborné přípravy a dovedností a zapojení se do komunikace s návrháři, vývojáři, provozovateli, občany, uživateli a institucionálními orgány v celé Unii i na mezinárodní úrovni;

spolupráce na koordinaci společného rámce pro správu rozvoje, zavádění a využívání umělé inteligence, robotiky a souvisejících technologií, kterou má provádět „orgán dohledu“ v každém členském státě;

spolupráce týkající se toho, že bude působit jako odborné centrum, a to prosazováním výměny informací a podporou rozvoje společného porozumění v jednotnému trhu;

spolupráce na uspořádání pracovní skupiny pro bezpečnost a obranu.

V.

Komise by kromě toho měla vykonávat tyto úkoly:

prostřednictvím aktů v přenesené pravomoci vypracovávat společný seznam vysoce rizikových technologií identifikovaných v Unii a provádět následnou aktualizaci ve spolupráci s „orgánem dohledu“ v každém členském státě;

prostřednictvím aktů v přenesené pravomoci aktualizovat seznam uvedený v příloze tohoto nařízení.

VI.

„Orgán dohledu“ v každém členském státě by měl provádět tyto hlavní úkoly:

přispívat k důslednému uplatňování regulačního rámce stanoveného v požadovaném návrhu nařízení ve spolupráci s „orgánem dohledu“ v ostatních členských státech, jakož i s ostatními orgány odpovědnými za odvětvové právní předpisy, Komisí nebo příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, zejména pokud jde o uplatňování kritérií pro posuzování rizik stanovenými v požadovaném návrhu nařízení a seznamu vysoce rizikových odvětví a vysoce rizikových použití či účelů stanovených v jeho příloze, a následně dohlížet na provádění požadovaných a vhodných opatření, jsou-li vysoce rizikové technologie identifikovány v důsledku tohoto provádění;

posuzovat, zda umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, mají být považovány za vysoce rizikové technologie v souladu s kritérii pro posuzování rizik stanovenými v požadovaném návrhu nařízení a v seznamu stanoveném v jeho příloze;

vydávat evropské osvědčení souladu s etickými zásadami a právními povinnostmi, jak je stanoveno v požadovaném návrhu nařízení a příslušném právu Unie, a to i v případě, že vyplývá z postupu podávání žádostí pro veškeré vývojáře, provozovatele nebo uživatele technologií, jež nejsou považovány za vysoce rizikové, kteří chtějí osvědčit jejich shodu s požadovaným návrhem nařízení vytvořeným Komisí nebo orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny;

posuzovat a monitorovat jejich shodu s etickými zásadami a právními povinnostmi stanovenými v požadovaném návrhu nařízení a příslušném právu Unie;

odpovídat za stanovení a provádění norem pro řízení umělé inteligence, robotiky a souvisejících technologií, a to i prostřednictvím spolupráce a udržování pravidelného dialogu se všemi příslušnými zúčastněnými stranami a zástupci občanské společnosti; spolupracovat za tímto účelem s Komisí nebo s veškerými příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, pokud jde o koordinaci společného rámce na úrovni Unie;

zvyšovat povědomí, poskytovat informace o umělé inteligenci, robotice a souvisejících technologiích veřejnosti a podporovat odbornou přípravu příslušných pracovníků, a to i v oblasti soudnictví, a vybavit tak občany a pracovníky digitální gramotností, dovednostmi a nástroji nezbytnými pro spravedlivou transformaci;

působit jako první kontaktní místo v případech podezření na porušení právních povinností a etických zásad stanovených v požadovaném návrhu nařízení a provádět v těchto případech posuzování shody; v souvislosti s tímto posuzováním shody může vést konzultace s jinými příslušnými orgány v Unii, zejména se sítí pro spolupráci v oblasti ochrany spotřebitele, vnitrostátními orgány na ochranu spotřebitelů, organizacemi občanské společnosti a sociálními partnery, nebo je může informovat o svých zjištěních.

VII.

Klíčovou úlohou příslušných stran by mělo být spolupracovat s Komisí nebo veškerými příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, a s „orgánem dohledu“ v každém členském státě.

B.   ZNĚNÍ POŽADOVANÉHO LEGISLATIVNÍHO NÁVRHU

Návrh

NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY

o etických zásadách pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií

EVROPSKÝ PARLAMENT A RADA EVROPSKÉ UNIE,

s ohledem na Smlouvu o fungování Evropské unie, a zejména na článek 114 této smlouvy,

s ohledem na návrh Evropské komise,

po postoupení návrhu legislativního aktu vnitrostátním parlamentům,

s ohledem na stanovisko Evropského hospodářského a sociálního výboru,

v souladu s řádným legislativním postupem,

vzhledem k těmto důvodům:

(1)

Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly být založeny na přání sloužit společnosti. Tyto technologie mohou zahrnovat příležitosti a rizika, jež by se měly řešit a regulovat prostřednictvím souhrnného regulačního rámce na úrovni Unie odrážejícího etické zásady, jež se mají dodržovat od okamžiku vývoje takových technologií a při jejich zavádění a používání.

(2)

Soulad s takovým regulačním rámcem pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měl být na úrovni, která je rovnocenná ve všech členských státech, aby bylo možné účinně využít příležitostí, jež tyto technologie přinášejí, a jednotným způsobem řešit rizika s nimi spojená a zabránit roztříštěnosti předpisů. Mělo by být zajištěno homogenní používání pravidel stanovených v tomto nařízení v celé Unii.

(3)

V této souvislosti platí, že stávající rozdílnost pravidel a postupů v Unii představuje pro ochranu životních podmínek a prosperity jednotlivce i celé společnosti značná rizika fragmentace jednotného trhu, jež ohrožují i soustavné využívání plného potenciálu umělé inteligence, robotiky a souvisejících technologií při prosazování inovací a ochraně těchto cílů. Rozdíly v tom, jakým způsobem vývojáři, provozovatelé a uživatelé zohledňují etickou dimenzi nerozlučně spjatou s těmito technologiemi, mohou bránit v jejich svobodném rozvoji, zavádění a používání v Unii a tyto rozdíly mohou být na překážku rovným podmínkám, technologickému pokroku a hospodářským činnostem na úrovni Unie, narušovat hospodářskou soutěž a bránit příslušným orgánům v plnění jejich povinností v souladu s právem Unie. Neexistence společného regulačního rámce zohledňujícího etické zásady pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií také způsobuje právní nejistotu pro všechny zúčastněné, zejména vývojáře, provozovatele a uživatele.

(4)

Toto nařízení by mělo přispívat k soudržnému přístupu na úrovni Unie a v rámci omezení v něm stanovených, nicméně zároveň by mělo dávat členským státům manévrovací prostor, včetně toho, jakým způsobem mají příslušné vnitrostátní orgány dohledu vykonávat své pravomoci s ohledem na cíl, který sleduje, jak je v něm uvedeno.

(5)

Tímto nařízením nejsou dotčeny stávající nebo budoucí odvětvové právní předpisy. Mělo by být přiměřené s ohledem na svůj cíl, aby zbytečně nebrzdilo inovace v Unii, a být v souladu s přístupem založeném na posouzení rizik.

(6)

Zeměpisná působnost pro uplatňování takového rámce by měla zahrnovat všechny složky umělé inteligence, robotiky a souvisejících technologií během jejich celého vývoje, zavádění a používání v Unii, včetně případů, kdy může být část technologií umístěna mimo Unii nebo nemá zvláštní nebo jediné umístění, jako je tomu v případě cloudových počítačových služeb.

(7)

Je nutné v Unii dospět ke společnému chápání pojmů, jako je umělá inteligence, robotika, související technologie a biometrické rozpoznávání, aby byl umožněn jednotný regulační přístup a tudíž právní jistota pro občany i podniky. Měly by být technologicky neutrální a v případě potřeby by měly být přezkoumány.

(8)

Navíc je třeba zohlednit skutečnost, že existují technologie související s umělou inteligencí a robotikou, které softwaru umožňují kontrolovat fyzické nebo virtuální procesy, a to s různou mírou autonomie (1). Např. u automatizovaného řízení vozidel bylo navrženo šest úrovní automatizace řízení v rámci mezinárodní normy Společnosti automobilových inženýrů (SAE) č. J3016.

(9)

Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly doplňovat lidské schopnosti, neměly by je nahrazovat a jejich provádění by nemělo být v rozporu s nejlepším zájmem občanů, a měly by být v souladu s právem Unie, základními právy stanovenými v Listině základních práv Evropské unie (dále jen „Listina“), ustálené judikatuře Soudního dvora Evropské unie a v dalších evropských a mezinárodních nástrojích používaných v Unii.

(10)

Rozhodnutí přijímaná nebo vyvolaná umělou inteligencí, robotikou a souvisejícími technologiemi by měla nadále podléhat přiměřenému lidskému přezkumu, posouzení, zásahům a kontrole. Technická a provozní složitost takových technologií by nikdy neměla bránit jejich provozovateli nebo uživateli, aby na poslední chvíli umožnili nouzové odstavení, aby je změnili nebo zastavili jejich provoz nebo se vrátili k předchozímu stavu tím, že by obnovili bezpečné funkce, pokud by hrozilo porušení právních předpisů Unie a etických zásad a právních povinností uvedených v tomto nařízení.

(11)

Umělá inteligence, robotika a související technologie, jejichž vývoj, zavádění a používání obnášejí významné riziko způsobení újmy jednotlivcům nebo společnosti v rozporu se základními právy a bezpečnostními pravidly stanovenými v právu Unie, by měly být považovány za vysoce rizikové technologie. Aby mohly být takto posouzeny, mělo by se zvážit, v jakém odvětví jsou vyvíjeny, zaváděny nebo používány, jejich zvláštní použití či účel a závažnost újmy, kterou by mohly způsobit. Míra závažnosti by se měla stanovovat na základě míry potenciální újmy, počtu postižených osob, celkové hodnoty případné škody a újmy způsobené společnosti jako celku. K závažným druhům újmy patří například porušení práv dětí, spotřebitelů nebo pracovníků, které kvůli svému rozsahu, počtu postižených dětí, spotřebitelů nebo pracovníků nebo jejich dopadu na společnost jako celek obnáší závažné riziko porušení základních práv a bezpečnostních pravidel stanovených v právu Unie. Nařízení by mělo poskytovat vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů.

(12)

Povinnosti stanovené tímto nařízením, zejména ty, které se týkají vysoce rizikových technologií, by se měly vztahovat pouze na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, jež jsou vyvíjeny, zaváděny nebo používány v Unii a nejsou na základě posouzení rizik stanoveného v tomto nařízení považovány za vysoce rizikové. Tyto povinnosti se mají splnit, aniž by byla dotčena obecná povinnost, aby umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, byly vyvíjeny, zaváděny a používány v Unii způsobem zaměřeným na člověka a na základě zásad lidské autonomie a lidské bezpečnosti v souladu s právem Unie a za plného dodržení základních práv, jako je lidská důstojnost, právo na svobodu a bezpečnost a právo na nedotknutelnost lidské osobnosti.

(13)

Vysoce rizikové technologie by měly být v souladu se zásadami bezpečnosti, transparentnosti, odpovědnosti, nezaujatosti nebo nediskriminace, sociální odpovědnosti a rovnosti žen a mužů, právem na nápravu, udržitelnosti životního prostředí, soukromí a řádné správy věcí veřejných, na základě nestranného, objektivního a externího posouzení rizik vnitrostátním orgánem dohledu v souladu s kritérii stanovenými v tomto nařízení a v seznamu stanoveném v jeho příloze. Toto posouzení by mělo zohlednit názory jakéhokoli sebehodnocení vypracovaného vývojářem nebo provozovatelem.

(14)

Komise nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, by měly připravit pro vývojáře, provozovatele a uživatele nezávazné pokyny k provádění, pokud jde o metodiku pro shodu s tímto nařízením. Měly by při tom vést konzultace s příslušnými zúčastněnými stranami.

(15)

Při posuzování rizik těchto technologií by v Unii měla existovat soudržnost, zejména v případě, že jsou posuzovány jak s ohledem na toto nařízení, tak v souladu s jakýmikoli platnými odvětvovými právními předpisy. Vnitrostátní orgány dohledu by proto měly informovat ostatní orgány provádějící posuzování rizik v souladu s odvětvovými právními předpisy, pokud jsou tyto technologie podle posouzení rizik uvedeného v tomto nařízení posuzovány jako vysoce rizikové.

(16)

Aby byly vysoce riziková umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, důvěryhodné, měly by být vyvíjeny, zaváděny a používány bezpečně, transparentně a zodpovědně v souladu s bezpečnostními prvky týkajícími se robustnosti, odolnosti, bezpečnosti, přesnosti a identifikaci chyb, vysvětlitelnosti, interoperability, kontrolovatelnosti, transparentnosti a identifikovatelnosti tak, aby bylo možné vypnout jejich funkce nebo se vrátit k předchozímu stavu obnovou bezpečných funkcí v případě, že nejsou v souladu s těmito prvky. Měla by být zajištěna transparentnost tím, že veřejným orgánům bude v nezbytně nutných případech umožněn přístup k technologiím, datům, a počítačovým systémům, na nichž jsou tyto technologie založeny.

(17)

Vývojáři, provozovatelé a uživatelé umělé inteligence, robotiky a souvisejících technologií, zejména vysoce rizikových technologií, odpovídají různou měrou za dodržování zásad bezpečnosti, transparentnosti a odpovědnosti v míře, v níž pracují s dotyčnými technologiemi včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují. Vývojáři by měli zajistit, aby byly dotčené technologie koncipovány a vytvářeny v souladu s bezpečnostními prvky stanovenými v tomto nařízení, zatímco technici zavádějící dotčené technologie a jejich uživatelé by měli při jejich zavádění a používání tyto prvky plně dodržovat. Za tímto účelem by měli vývojáři vysoce rizikových technologií hodnotit a předvídat rizika zneužití, které lze důvodně očekávat, pokud jde o technologie, které vyvíjí. Musí rovněž zajistit, aby systémy, které vyvíjí, uváděly v co největší možné míře a prostřednictvím vhodných prostředků, jako jsou prohlášení o vyloučení odpovědnosti, pravděpodobnost chyb nebo nepřesností.

(18)

Vývojáři a provozovatelé by měli všem uživatelům zpřístupnit veškeré pozdější aktualizace dotyčných technologií, zejména pokud jde o software, jak je stanoveno ve smlouvě nebo v unijním či vnitrostátním právu. Pokud to vyplývá z posouzení rizik, měli by vývojáři a provozovatelé navíc poskytnout veřejným orgánům příslušnou dokumentaci o používání dotyčných technologií a bezpečnostní pokyny pro jejich používání, včetně, je-li to nezbytné nutné a v plném souladu s právem Unie týkajícími se ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, zdrojový kód, vývojové nástroje a data, která systém používá.

(19)

Jednotlivci mají právo očekávat, že technologie, již používají, funguje v rozumné míře a respektuje jejich důvěru. Důvěra občanů v umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, závisí na porozumění technickým procesům. Míra vysvětlitelnosti takových procesů by měla záviset na kontextu těchto technických procesů a na závažnosti důsledků chybného nebo nepřesného výstupu a musí být dostatečná pro řešení problémů a případnou nápravu. Pomocí kontrolovatelnosti, sledovatelnosti a transparentnosti by měla být řešena případná nečitelnost těchto technologií.

(20)

Důvěra společnosti v umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, závisí na míře, v níž dotyčné technologie umožňují provést posouzení a kontrolu a v níž jsou sledovatelné. Pokud to vyžaduje míra jejich zapojení, měli by vývojáři zajistit, aby byly takové technologie koncipovány a vytvořeny způsobem umožňujícím jejich posouzení, kontrolu a sledovatelnost. V limitech technických možností by vývojáři, provozovatelé a uživatelé měli zajistit, aby byly při zavádění a používání umělé inteligence, robotiky a souvisejících technologií plně dodržovány požadavky na transparentnost a byla umožněna jejich kontrola a sledovatelnost.

(21)

S cílem zajistit transparentnost a odpovědnost by měli být občané informováni, pokud systém používá umělou inteligenci, pokud systémy umělé inteligence personalizují výrobek nebo službu podle svých uživatelů, zda mohou personalizaci vypnout nebo omezit a kdy s nimi komunikuje technologie automatizovaného rozhodování. Mimoto, pokud je to technicky možné, měla by být opatření v oblasti transparentnosti doprovázena jasnými a pochopitelnými vysvětleními používaných dat a algoritmu, jeho záměru, jeho výsledku i potenciálních nebezpečí.

(22)

Předsudky a diskriminace prostřednictvím softwaru, algoritmů a dat jsou nezákonné a měly by být řešeny prostřednictvím regulace procesů sloužících k jejich vytváření a zavádění. Předsudky mohou pocházet z rozhodnutí na základě informací od automatizovaných systémů nebo přijatých těmito systémy a také z datových souborů, na nichž je takové rozhodování založeno nebo na nichž se systém trénuje.

(23)

Software, algoritmy a data, které umělá inteligence, robotika a související technologie používají či produkují, by měly být považovány za zaujaté například tehdy, zobrazují-li suboptimální výsledky ve vztahu k určité osobě nebo skupině osob na základě předpojatého osobního nebo sociálního vnímání a následného zpracování dat týkajících se jejich rysů.

(24)

V souladu s právem Unie by měly být software, algoritmy a data, které umělá inteligence, robotika a související technologie používají či produkují, považovány za diskriminační, vytvářejí-li výstupy, které mají nepřiměřený negativní dopad a vedou k rozdílnému zacházení s jednotlivými osobami nebo skupinami osob, včetně jejich znevýhodňování vůči druhým, na základě důvodů, jako jsou jejich osobní rysy, bez objektivního nebo rozumného zdůvodnění a bez ohledu na to, že jsou tyto technologie označovány za neutrální.

(25)

V souladu s právem Unie mohou být za oprávněné důvody podle tohoto nařízení, které objektivně odůvodňují odlišné zacházení s jednotlivými osobami nebo skupinami osob, považovány ochrana veřejného pořádku, bezpečnosti a zdraví, předcházení trestné činnosti, ochrana základních práv a svobod, spravedlivé zastoupení a objektivní požadavky pro výkon profesní činnosti.

(26)

Umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly přispívat k udržitelnému pokroku. Tyto technologie by neměly být v rozporu s cílem zachování životního prostředí a s ekologickou transformací. Mohly by hrát významnou úlohu při dosahování cílů udržitelného rozvoje OSN v zájmu budoucích generací. Mohou napomoci monitorování přiměřeného pokroku na základě ukazatelů udržitelnosti a sociální soudržnosti a měly by využívat nástroje odpovědného výzkumu a inovací vyžadující, aby Unie a její členské státy mobilizovaly zdroje na podporu projektů zabývajících se těmito cíli a na investování do nich.

(27)

Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by nikterak neměl záměrně působit nebo již od návrhu vědomě přijímat újmu jednotlivcům nebo společnosti. Zejména vysoce rizikové technologie by proto měly být vyvíjeny, zaváděny a používány sociálně odpovědným způsobem.

(28)

Vývojáři, provozovatelé a uživatelé by proto měli být v míře, v níž pracují s umělou inteligencí, robotikou a souvisejícími technologiemi, a v souladu s unijními a vnitrostátními pravidly týkajícími se odpovědnosti odpovídat za veškerou újmu způsobenou jednotlivcům nebo společnosti.

(29)

Zejména vývojáři, kteří přijímají rozhodnutí, jež stanoví a kontrolují průběh nebo způsob vývoje umělé inteligence, robotiky a souvisejících technologií, a provozovatelé s kontrolní nebo řídící funkcí podílející se na jejich zavádění tím, že přijímají rozhodnutí týkající se jejich zavádění a provádějí kontrolu souvisejících rizik nebo z tohoto zavádění mají prospěch, by měli odpovídat za to, že během procesu vývoje budou přijata odpovídající opatření k zamezení takovéto újmy a že tato opatření budou důsledně dodržována v průběhu fáze zavádění.

(30)

Sociálně odpovědnou umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, lze definovat jako technologie, jež pomáhají nalézt řešení, která mohou zachovat a podpořit různé cíle týkající se společnosti, zejména demokracii, zdraví a hospodářskou prosperitu, rovnost příležitostí, pracovní a sociální práva, pluralitní a nezávislé sdělovací prostředky a objektivní a volně dostupné informace, umožnit veřejnou diskusi, kvalitní vzdělávání, kulturní a jazykovou rozmanitost, genderovou vyváženost, digitální gramotnost, inovace a kreativitu. Rovněž jsou vyvíjeny, zaváděny a používány s řádným zohledněním jejich konečného dopadu na fyzickou a duševní pohodu občanů a tak, aby nepodporovaly nenávistné verbální projevy nebo násilí. Těchto cílů by mělo být dosaženo především prostřednictvím vysoce rizikových technologií.

(31)

Umělá inteligence, robotika a související technologie by měly být rovněž vyvíjeny, zaváděny a používány na podporu sociálního začleňování, demokracie, plurality, solidarity, spravedlnosti, rovnosti a spolupráce a jejich potenciál by v této souvislosti měl být maximalizován a prozkoumán prostřednictvím výzkumných a inovačních projektů. Unie a její členské státy by proto měly mobilizovat své komunikační, správní a finanční zdroje za účelem podpory těchto projektů a investic do nich.

(32)

Projekty vztahující se k potenciálu umělé inteligence, robotiky a souvisejících technologií a mající řešit otázku společenských podmínek by měly být prováděny pomocí odpovědných výzkumných a inovačních nástrojů, aby byl již od počátku zajištěn soulad těchto projektů s etickými zásadami.

(33)

Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly zohledňovat jejich environmentální stopu. V souladu s povinnostmi stanovenými v platném právu Unie by takové technologie neměly během své doby životnosti a v rámci celého dodavatelského řetězce poškozovat životní prostředí a měly by být vyvíjeny, zaváděny a používány způsobem, který zajišťuje ochranu životního prostředí, zmírňuje a napravuje environmentální stopu, přispívá k přechodu na zelenou ekonomiku a podporuje plnění cílů klimatické neutrality a oběhového hospodářství.

(34)

Pro účely tohoto nařízení by vývojáři, provozovatelé a uživatelé měli v míře, v níž jsou zapojeni do vývoje, zavádění nebo používání jakékoli umělé inteligence, robotiky a souvisejících technologií považovaných za vysoce rizikové odpovídat za veškeré související poškození životního prostředí v souladu s platnými pravidly pro odpovědnost za životní prostředí.

(35)

Tyto technologie by rovněž měly být vyvíjeny, zaváděny a používány s cílem podpořit dosažení environmentálních cílů v souladu s povinnostmi stanovenými platným právem Unie, jako je snížení produkce odpadu, zmenšení uhlíkové stopy, boj proti změně klimatu a zachování životního prostředí, a jejich potenciál by v této souvislosti měl být maximalizován a prozkoumán prostřednictvím výzkumných a inovačních projektů. Unie a členské státy by proto měly mobilizovat své komunikační, správní a finanční zdroje za účelem podpory těchto projektů a investování do nich.

(36)

Projekty vztahující se k potenciálu umělé inteligence, robotiky a souvisejících technologií by při řešení environmentálních problémů měly být prováděny pomocí odpovědných výzkumných a inovačních nástrojů tak, aby byl již od počátku zajištěn soulad těchto projektů s etickými zásadami.

(37)

Veškerá umělá inteligence a robotika a všechny související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, by měly plně respektovat práva občanů Unie na soukromí a ochranu osobních údajů. Zejména by měly být jejich vývoj, zavádění a používání v souladu s nařízením Evropského parlamentu a Rady (EU) 2016/679/ES (2) a směrnicí Evropského parlamentu a Rady 2002/58/ES (3).

(38)

Především by se měly pečlivě zvážit etické hranice pro používání umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, kdykoli jsou používány technologie na dálkové rozpoznávání, jako je rozpoznávání biometrických rysů, zejména rozpoznávání obličeje, pro automatické zjišťování totožnosti osob. Používají-li tyto technologie veřejné orgány z důvodu zásadního veřejného zájmu, zejména za účelem zajištění bezpečnosti jednotlivců a řešení vnitrostátních krizových situací a zabezpečení bezpečnosti majetku, měly by je používat vždy veřejně, přiměřeně a cíleně, pouze na konkrétní účely a po omezenou dobu a v souladu s právem Unie a řádně zohledňovat lidskou důstojnost a autonomii a základní práva zakotvená v Listině. Kritéria pro tato užití a jejich omezení by měla podléhat soudnímu přezkumu a demokratické kontrole a diskusi, do níž bude zapojena občanská společnost;

(39)

Řízení založené na příslušných normách zvyšuje bezpečnost a posiluje důvěru občanů ve vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují.

(40)

Veřejné orgány by měly před zavedením vysoce rizikových technologií vypracovat posouzení dopadu na základní práva, která podpoří rozhodnutí veřejných orgánů, jež mají přímý a významný dopad na práva a povinnosti občanů.

(41)

K současným relevantním správním normám patří například etické pokyny pro důvěryhodnou umělou inteligenci vypracované odbornou skupinou Komise na vysoké úrovni pro umělou inteligenci a veškeré další technické normy, například normy vydané na evropské úrovni Evropským výborem pro normalizaci (CEN), Evropským výborem pro normalizaci v elektrotechnice (CENELEC) a Evropským ústavem pro telekomunikační normy (ETSI) a na mezinárodní úrovni Mezinárodní organizací pro normalizaci (ISO) a Institutem pro elektrotechnické a elektronické inženýrství (IEEE).

(42)

Sdílení a využívání dat více účastníky je citlivou záležitostí, a proto by se měl vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií řídit příslušnými pravidly, normami a protokoly, které stanovují požadavky v oblasti kvality, integrity, bezpečnosti, spolehlivosti, soukromí a kontroly. Strategie správy údajů by se měla zaměřovat na zpracovávání a sdílení těchto údajů a přístup k nim, včetně jejich řádné správy, kontrolovatelnosti a dohledatelnosti, a měla by zaručovat přiměřenou ochranu údajů o zranitelných skupinách, včetně osob se zdravotním postižením, pacientů, dětí, menšin a migrantů nebo jiných skupin ohrožených vyloučením. Vývojáři, provozovatelé a uživatelé by se kromě toho měli při posuzování používaných datových souborů případně opírat o klíčové ukazatele výkonnosti, aby posílili důvěryhodnost technologií, které vyvíjejí, zavádějí a používají.

(43)

Členské státy by měly určit nezávislý správní orgán, který bude vykonávat funkci orgánu dohledu. Jednotlivé vnitrostátní orgány dohledu by měly zejména určovat, zda jsou umělá inteligence, robotika a související technologie považované s ohledem na kritéria pro posuzování rizik stanovená v tomto nařízení za vysoce rizikové, a posuzovat a sledovat, zda tyto technologie splňují povinnosti stanovené v tomto nařízení.

(44)

Každý vnitrostátní orgán dohledu by měl také odpovídat za řádné řízení těchto technologií za koordinace Komise nebo jiného příslušného orgánu, instituce nebo subjektu Unie, který může být pověřen tímto úkolem. Hrají proto významnou úlohu při zvyšování důvěry občanů Unie a jejich bezpečnosti a pomáhají zajistit fungování demokratické, pluralitní a spravedlivé společnosti.

(45)

Pro účely posouzení technologií, které jsou vysoce rizikové v souladu s tímto nařízením, a monitorování jejich souladu s ním by vnitrostátní orgány dohledu měly v případě potřeby spolupracovat s orgány odpovědnými za posuzování a monitorování těchto technologií a prosazování jejich souladu s odvětvovými právními předpisy.

(46)

Vnitrostátní orgány dohledu by měly rozvíjet rozsáhlou a pravidelnou spolupráci mezi sebou navzájem, jakož i s Evropskou komisí a dalšími příslušnými orgány, institucemi a dalšími subjekty Unie s cílem zaručit soudržný přeshraniční postup a umožnit jednotný vývoj, zavádění a používání těchto technologií v Unii v souladu s etickými zásadami a právními povinnostmi stanovenými tímto nařízením.

(47)

V rámci spolupráce a s ohledem na dosažení plné harmonizace na úrovni Unie by měly vnitrostátní orgány dohledu pomáhat Komisi při vypracování společného a vyčerpávajícího seznamu vysoce rizikové umělé inteligence, robotiky a souvisejících technologií v souladu s kritérii stanovenými v tomto nařízení a jeho příloze. Kromě toho by měl být vytvořen povolovací postup pro vydávání evropského osvědčení o dodržování etických zásad, včetně dobrovolného postupu pro podávání žádostí pro všechny vývojáře, provozovatele nebo uživatele technologií, jež nejsou považované za vysoce rizikové, kteří by chtěli osvědčit jejich soulad s tímto nařízením.

(48)

Vnitrostátní orgány dohledu by měly zajistit, aby vznikla pluralitní platforma za účasti co nejvyššího počtu zúčastněných stran, jako jsou zástupci průmyslu, obchodu, sociálních partnerů, vědy, spotřebitelů a organizací občanské společnosti, pro diskusi a výměnu názorů s cílem dospět k úplným a přesným závěrům, na základě nichž bude možné rozhodovat o regulaci řízení.

(49)

Příslušné orgány dohledu by měly zajistit, aby vznikla pluralitní platforma za účasti co nejvyššího počtu zúčastněných stran, jako jsou zástupci průmyslu, obchodu, sociálních partnerů, vědy, spotřebitelů a organizací občanské společnosti, pro diskusi, výměnu názorů a snazší spolupráci mezi zúčastněnými stranami, zejména z vědecké obce, výzkumu, průmyslu a občanské společnosti, a jednotlivými odborníky, s cílem dospět k úplným a přesným závěrům, na základě nichž bude možné rozhodovat o regulaci řízení.

(50)

Tyto vnitrostátní orgány dohledu by měly poskytovat odborné administrativní pokyny a podporu vývojářům, provozovatelům a uživatelům, zejména malým a středním podnikům a začínajícím podnikům, které mají obtíže s dodržováním etických zásad a právních povinností stanovených tímto nařízením.

(51)

Komise nebo jakýkoli příslušný orgán, instituce nebo jiný subjekt Unie, který může být pověřen tímto úkolem, by měl stanovit závazné pokyny pro metodiku, kterou budou vnitrostátní orgány dohledu při posuzování shody používat.

(52)

K tomu, aby se orgány dozvěděly o tom, že může být nebo skutečně bylo porušeno právo Unie, a mohly zamezit újmě či škodě, k níž by jinak došlo, je důležitá činnost oznamovatelů (whistleblowing). Důležité jsou rovněž oznamovací postupy v podnicích a organizacích, které zlepšují předávání informací a snižují riziko, že budou vyvíjeny nedokonalé či vadné výrobky a služby. Podniky a organizace, které vyvíjejí, zavádějí nebo používají umělou inteligenci, robotiku a související technologie, včetně dat používaných nebo produkovaných těmito technologiemi, by měly vytvořit oznamovací postupy a ochránit osoby oznamující porušení předpisů před odvetou.

(53)

Vývoj umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a vývoj strojového učení a logického uvažování a dalších technologií, na nichž tento vývoj závisí, je rychlý a nelze jej předvídat. Proto je přiměřené a nezbytné vytvořit revizní mechanismus, v jehož rámci bude Komise kromě zpráv o uplatňování o tohoto nařízení podávat také pravidelné zprávy o případných změnách jeho působnosti.

(54)

Jelikož cíle tohoto nařízení, kterým je vytvoření společného regulačního rámce pro etické zásady a právní povinnosti vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii, nemůže být dosaženo uspokojivě členskými státy, ale spíše jej, z důvodu rozsahu a účinků tohoto nařízení, může být lépe dosaženo na úrovni Unie, může Unie přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o Evropské unii. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení tohoto cíle.

(55)

Koordinace na úrovni Unie stanovená v tomto nařízení by mohlo být nejlépe dosaženo Komisí nebo jakýmkoli příslušným orgánem, institucí nebo jiným subjektem Unie, který by mohl být tímto úkolem pověřen, s cílem zabránit fragmentaci a zajistit důsledné uplatňování tohoto nařízení. Komise by proto měla být pověřena nalezením vhodného řešení pro vytvoření struktury pro tuto koordinaci na úrovni Unie s cílem koordinovat pravomoci a činnosti vnitrostátních orgánů dohledu v jednotlivých členských státech, zejména pokud jde o posuzování rizik umělé inteligence, robotiky a souvisejících technologií, vytvoření společného rámce pro řízení vývoje, zavádění a používání těchto technologií, vytvoření a vydávání osvědčení o souladu s etickými zásadami a právními povinnostmi stanovenými tímto nařízením, podporu pravidelných diskusí se zúčastněnými stranami a občanskou společností a vytvoření odborného střediska, v němž by se na úrovni Unie setkávali zástupci akademické obce, výzkumu a průmyslu a jednotliví odborníci a které by podporovalo výměnu vědomostí a odborných technických znalostí, propagaci přístupu Unie v rámci mezinárodní spolupráci a zajištění celosvětově jednotné reakce na příležitosti a rizika, které jsou s těmito technologiemi neodmyslitelně spojeny,

PŘIJALY TOTO NAŘÍZENÍ:

Hlava I

Obecná ustanovení

Článek 1

Účel

Účelem tohoto nařízení je vytvořit komplexní a perspektivní regulační rámec Unie pro etické zásady a právní povinnosti v oblasti vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii.

Článek 2

Oblast působnosti

Toto nařízení se vztahuje na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které používají nebo produkují tyto technologie, vyvíjené, zaváděné nebo používané v Unii.

Článek 3

Zeměpisná působnost

Toto nařízení se vztahuje na umělou inteligenci, robotiku a související technologie, pokud je kterákoli jejich část vyvíjena, zaváděna nebo používána v Unii, a to i v případě, že se software, algoritmy nebo data používané nebo produkované těmito technologiemi nacházejí mimo Unii, nebo nemají konkrétní zeměpisné umístění.

Článek 4

Definice

Pro účely tohoto nařízení se rozumí:

a)

„umělou inteligencí“ systém, který je buď založen na softwaru, nebo je součástí hardwarových zařízení a vykazuje inteligentní chování mimo jiné tím, že shromažďuje, zpracovává, analyzuje a interpretuje své okolí a podniká s určitým stupněm autonomie kroky k dosažení konkrétních cílů (4);

b)

„autonomií“ systém UI, který pracuje tak, že interpretuje určitá vstupní data a využívá soubor předem stanovených pokynů, aniž by byl těmito pokyny omezován, navzdory tomu, že jeho chování je omezeno cílem, který mu byl stanoven, a dalšími příslušnými rozhodnutími vývojáře ohledně jeho designu a je zaměřeno na splnění tohoto cíle;

c)

„robotikou“ technologie, které umožňují automaticky kontrolovaným, reprogramovatelným, víceúčelovým strojům (5) vykonávat činnosti ve fyzickém prostředí tradičně vykonávané nebo započaté člověkem, mimo jiné pomocí umělé inteligence nebo souvisejících technologií;

d)

„souvisejícími technologiemi“ technologie, které umožňují softwaru částečně nebo zcela autonomně ovládat fyzický nebo virtuální proces, technologie schopné zjišťovat biometrické, genetické nebo jiné údaje a technologie, které kopírují nebo jinak využívají lidské rysy;

e)

„vysokým rizikem“ závažné riziko, že jednotlivcům nebo společnosti bude způsobena újma nebo škoda v rozporu se základními právy a bezpečnostními pravidly stanovenými v právu Unie, které obnáší vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, s ohledem na jejich konkrétní použití či účel, odvětví, v němž jsou vyvíjeny, zaváděny nebo používány, a závažnost újmy nebo škody, které lze očekávat;

f)

„vývojem“ vytváření a projektování algoritmů, programování a design softwaru nebo shromažďování, ukládání a správa dat pro účely vytváření a trénování umělé inteligence, robotiky a souvisejících technologií nebo pro účely vytváření nové aplikace pro stávající umělou inteligenci, robotiku a související technologie;

g)

„vývojářem“ jakákoli fyzická nebo právnická osoba, která přijímá rozhodnutí, jež určují a řídí průběh nebo způsob vývoje umělé inteligence, robotiky a souvisejících technologií;

h)

„zaváděním“ provoz a řízení umělé inteligence, robotiky a souvisejících technologií a jejich uvádění na trh nebo jiné zpřístupňování uživatelům;

i)

„provozovatelem“ jakákoli fyzická nebo právnická osoba, která je zapojena do konkrétního zavádění umělé inteligence, robotiky a souvisejících technologií do praxe, má kontrolní nebo řídící funkci, v nichž přijímá rozhodnutí, kontroluje riziko a má z tohoto zavádění prospěch;

j)

„používáním“ jakákoli činnost týkající se umělé inteligence, robotiky a souvisejících technologií jiná než jejich vývoj nebo zavádění;

k)

„uživatelem“ jakákoli fyzická nebo právnická osoba, která používá umělou inteligenci, robotiku a související technologie k jiným účelům než k vývoji a zavádění;

l)

„předsudkem“ jakékoli zaujaté osobní nebo společenské vnímání určité osoby nebo skupiny osob na základě jejich osobních rysů;

m)

„diskriminací“ rozdílné zacházení s určitou osobou nebo skupinou osob, které není objektivně nebo přiměřeně odůvodněno, a je tudíž podle práva Unie zakázáno;

n)

„újmou nebo škodou“, včetně případů, kdy jsou způsobeny nenávistným projevem, předsudkem, diskriminací nebo stigmatizací, fyzická nebo psychická újma, materiální nebo nehmotná újma, jako je finanční nebo hospodářská ztráta, ztráta zaměstnání nebo příležitosti ke vzdělávání, neoprávněné omezení svobody volby nebo projevu, ztráta soukromí a jakékoli porušení práva Unie, které poškozuje určitou osobu;

o)

„řádnou správou“ způsob řízení zajišťující, že vývojáři, provozovatelé a uživatelé na základě formálního souboru pravidel, postupů a hodnot přijmou a budou dodržovat vhodné a přiměřené standardy a protokoly chování, které jim umožní náležitě řešit etické otázky v okamžiku, kdy vyvstanou, případně dříve, než se tak stane.

Článek 5

Etické aspekty umělé inteligence, robotiky a souvisejících technologií

1.   Veškerá umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjena, zaváděna a používána v Unii v souladu s právem Unie a za plného respektování lidské důstojnosti, autonomie a bezpečnosti a dalších základních práv stanovených v Listině.

2.   Jakékoli zpracovávání osobních údajů prováděné v rámci vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně osobních údajů odvozených od neosobních a biometrických údajů, se provádí v souladu s nařízením (EU) 2016/679 a směrnicí 2002/58/ES.

3.   Unie a její členské státy podporují výzkumné projekty, jejichž cílem je poskytovat na základě umělé inteligence, robotiky a souvisejících technologií řešení na podporu sociálního začleňování, demokracie, plurality, solidarity, spravedlnosti, rovnosti a spolupráce.

Hlava II

Podmínky, které musí splňovat vysoce rizikové technologie

Článek 6

Podmínky, které musí splňovat vysoce rizikové technologie

1.   Ustanovení této hlavy se použijí pouze na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, jež jsou vyvíjeny, zaváděny nebo používány v Unii a jsou považovány za vysoce rizikové.

2.   Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjena, zaváděna a používána způsobem, který zaručuje, že nebudou porušeny etické zásady uvedené v tomto nařízení.

Článek 7

Umělá inteligence zaměřená na člověka a vytvářená člověkem

1.   Veškeré umělé vysoce rizikové technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, musí být vyvíjeny, zaváděny a používány způsobem, který zaručuje trvalý lidský dohled.

2.   Technologie uvedené v odstavci 1 musí být vyvíjeny, zaváděny a používány způsobem, který – bude-li to nutné – člověku umožňuje převzít v jakémkoli okamžiku kontrolu, mimo jiné prostřednictvím změny nebo zastavení těchto technologií.

Článek 8

Bezpečnost, transparentnost a odpovědnost

1.   Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjeny, zaváděny a používány způsobem, který zaručuje, že budou:

a)

vyvíjeny, zaváděny a používány spolehlivým způsobem, který tím, že se v jeho rámci dodržují minimální zásady kybernetické bezpečnosti, které odpovídají zjištěnému riziku, zaručí přiměřenou úroveň bezpečnosti a zamezí využívání případných technických nedostatků k zlovolným nebo protiprávním účelům;

b)

vyvíjeny, zaváděny a používány bezpečným způsobem, který zaručí existenci pojistek zahrnujících nouzový plán a opatření pro případ, kdy hrozí porušení bezpečnosti nebo zabezpečení;

c)

vyvíjeny, zaváděny a používány způsobem zaručujícím spolehlivé fungování odpovídající přiměřenému očekávání uživatele, pokud jde o dosažení cílů a provádění činností, pro něž byly původně určeny, mimo jiné tím, že veškeré operace jsou reprodukovatelné;

d)

vyvíjeny, zaváděny a používány způsobem, který zaručuje, že konkrétní technologie přesně plní cíle a provádějí činnosti; není-li možné zabránit příležitostným nepřesnostem, systém pokud možno oznámí provozovatelům a uživatelům vhodným způsobem pravděpodobnost chyb a nepřesností;

e)

vyvíjeny, zaváděny a používány snadno vysvětlitelným způsobem s cílem zaručit, že technické procesy technologií lze podrobit přezkumu;

f)

vyvíjeny, zaváděny a používány způsobem, který uživatele upozorní na to, že je v interakci se systémy umělé inteligence, a poskytne vývojáři, provozovateli a uživateli náležité komplexní informace o schopnostech, přesnosti a omezeních těchto systémů;

g)

v souladu s článkem 6 vyvíjeny, zaváděny a používány způsobem, který v případě nedodržení bezpečnostních prvků uvedených v písmenech a) až g) umožňuje dočasně vyřadit dané funkce z činnosti a vrátit se k předchozímu stavu, kterým budou bezpečné funkce obnoveny.

2.   V souladu s čl. 6 odst. 1 musí být technologie uvedené v odstavci 1 tohoto článku, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, vyvíjeny, zaváděny a používány transparentním a dohledatelným způsobem, aby jejich prvky, procesy a fáze byly zdokumentovány podle nejvyšších možných a platných norem a aby vnitrostátní orgány dohledu uvedené v článku 148 mohly posuzovat soulad těchto technologií s povinnostmi stanovenými tímto nařízením. Vývojář, provozovatel nebo uživatel těchto technologií zejména odpovídá za dodržování bezpečnostních prvků uvedených v odstavci 1 a jejich dodržování musí být schopen prokázat.

3.   Vývojář, provozovatel nebo uživatel technologií uvedených v odstavci 1 zajistí, aby opatření k zajištění dodržování bezpečnostních prvků uvedených v odstavci 1 mohla být předmětem auditu vnitrostátních orgánů dohledu uvedených v článku 148, nebo případně jiných vnitrostátních nebo evropských odvětvových orgánů dohledu.

Článek 9

Nezaujatost a nediskriminace

1.   Software, algoritmus nebo data, které jsou používány nebo produkovány vysoce rizikovou umělou inteligencí, robotikou a souvisejícími technologiemi vyvíjenými, zaváděnými nebo používanými v Unii, nesmí pracovat s předsudky, a aniž je dotčen odstavec 2, nesmí nikoho diskriminovat na základě rasy, pohlaví, sexuální orientace, těhotenství, zdravotního postižení, tělesných nebo genetických znaků, věku, příslušnosti k národnostní menšině, etnického nebo sociálního původu, jazyka, náboženského vyznání nebo přesvědčení, politických názorů nebo občanské angažovanosti, státní příslušnosti, rodinného stavu, ekonomického postavení, vzdělání či trestní minulosti.

2.   Odchylně od odstavce 1, a aniž je dotčeno právo Unie týkající se zákazu diskriminace, může být rozdílné zacházení s osobami nebo skupinami osob odůvodněné pouze v případě, že je sledován objektivní, přiměřený a legitimní cíl, který je proporcionální a nezbytný do té míry, že neexistují alternativy, které zásadě rovného zacházení odporují v menší míře.

Článek 10

Sociální odpovědnost a rovnost žen a mužů

Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat, které používají či produkují tyto technologie vyvíjené, zaváděné a používané v Unii, musí být vyvíjeny, zaváděny a používány v souladu s příslušným právem, zásadami a hodnotami způsobem, který nezasahuje do voleb ani nepřispívá k šíření dezinformací, respektuje práva pracovníků, podporuje kvalitní vzdělávání a digitální gramotnost, neprohlubuje rozdíly mezi ženami a muži tím, že by bránil rovným příležitostem pro všechny, a neporušuje práva duševního vlastnictví ani žádná omezení nebo výjimky z těchto práv.

Článek 11

Udržitelnost z hlediska životního prostředí

Vnitrostátní orgány dohledu uvedené v článku 148, nebo případně jiné vnitrostátní nebo evropské odvětvové orgány dohledu posuzují veškerou vysoce rizikovou umělou inteligenci, robotiku a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, z hlediska udržitelnosti životního prostředí a zajišťují, aby byla přijímána opatření, která zmírní nebo napraví všeobecný dopad těchto technologií, pokud jde o přírodní zdroje, spotřebu energie, produkci odpadu, uhlíkovou stopu, změnu klimatu a zhoršování stavu životního prostředí, aby bylo zajištěno dodržování příslušného unijního a vnitrostátního práva, stejně jako všech dalších environmentálních závazků, které Unie přijala.

Článek 12

Respektování soukromí a ochrana osobních údajů

Používání a shromažďování biometrických údajů pro účely identifikace osob na dálku ve veřejných prostorech, jako je biometrické rozpoznávání nebo rozpoznávání obličeje, je spojeno se specifickými riziky, pokud jde o základní práva, a musí být zaváděno nebo používáno pouze veřejnými orgány členských států pro účely významného veřejného zájmu. Tyto orgány musí zajistit, aby takové zavádění nebo používání bylo zveřejněno, bylo přiměřené, cílené a omezené na konkrétní cíle a místo a časově omezeno v souladu s unijním a vnitrostátním právem, zejména s nařízením (EU) 2016/679 a směrnicí 2002/58/ES, a náležitě respektovalo lidskou důstojnost a autonomii a základní práva uvedená v Listině, konkrétně právo na respektování soukromí a ochranu osobních údajů.

Článek 13

Právo na nápravu

Každá fyzická nebo právnická osoba musí mít právo domáhat se nápravy za újmu nebo škodu, které jí způsobil vývoj, zavádění a používání vysoce rizikové umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, a to v rozporu s právem Unie a povinnostmi stanovenými v tomto nařízení.

Článek 14

Posouzení rizik

1.   Pro účely tohoto nařízení se umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, považují za vysoce rizikové technologie, pokud na základě posouzení rizik založeného na objektivních kritériích, jako je jejich specifické použití nebo účel, odvětví, v němž jsou vyvíjeny, zaváděny nebo používány, a závažnost případné újmy nebo škody, jejich vývoj, zavádění nebo používání představují významné riziko způsobení újmy nebo škody, jejichž vznik lze očekávat u jednotlivce nebo společnosti v rozporu se základními právy a bezpečnostními pravidly, které stanoví právem Unie.

2.   Aniž jsou dotčeny použitelné odvětvové právní předpisy, posouzení rizik v případě umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které používají nebo produkují tyto technologie, musí provádět v souladu s objektivními kritérii uvedenými v odstavci 1 tohoto článku a vyčerpávajícím a kumulativním seznamu uvedeném v příloze tohoto nařízení vnitrostátní orgány dohledu uvedené v článku 148, které koordinuje Komise nebo jiné příslušné instituce, orgány a subjekty Unie, které mohou být pro tento účel určené v rámci jejich spolupráce.

3.   Ve spolupráci s vnitrostátními orgány dohledu uvedenými v odstavci 2 Komise prostřednictvím aktů v přenesené pravomoci v souladu s článkem 20 vypracuje a následně aktualizuje společný seznam vysoce rizikových technologií zjištěných v Unii.

4.   Komise rovněž prostřednictvím aktů v přenesené pravomoci v souladu s článkem 20 pravidelně aktualizuje seznam uvedený v příloze tohoto nařízení.

Článek 15

Posuzování dodržování povinností

1.   Vysoce riziková umělá inteligence, robotika a související technologie podléhají postupu posouzení dodržování povinností stanovených v článcích 6 až 12 tohoto nařízení a následnému sledování; posouzení i sledování provádějí vnitrostátní orgány dohledu uvedené v článku 18 v koordinaci s Komisí nebo jinými příslušnými orgány, institucemi nebo jinými subjekty Unie, které mohou být pro tento účel určeny.

2.   Pokud se vnitrostátní orgán dohledu nerozhodne provést dané posouzení z vlastního podnětu nebo na žádost vývojáře, provozovatele nebo uživatele, má se za to, že software, algoritmy a data, které používají či produkují vysoce rizikové technologie, jež byly posouzeny a jsou v souladu s povinnostmi stanovenými v tomto nařízení podle odstavce 1, rovněž splňuje tyto povinnosti.

3.   Aniž jsou dotčeny odvětvové právní předpisy, připraví Komise nebo jakýkoli příslušný orgán, instituce nebo jiný subjekt Unie, který může být pověřen tímto úkolem, do data vstupu tohoto nařízení v platnost závazné pokyny pro metodiku, kterou budou vnitrostátní orgány dohledu používat při posuzování shody uvedeném v odstavci 1.

Článek 16

Evropské osvědčení o dodržování etických zásad

1.   Pokud bylo v souladu s článkem 15 provedeno posouzení dodržování etických zásad vysoce rizikovou umělou inteligencí, robotikou a souvisejícími technologiemi, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, a jeho výsledek je kladný, vydá příslušný vnitrostátní orgán dohledu evropské osvědčení o dodržování etických zásad.

2.   Každý vývojář, provozovatel nebo uživatel umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které používají nebo produkují takové technologie, které nejsou považovány za vysoce rizikové, a proto se na ně nevztahují povinnosti stanovené v článcích 6 až 12 ani posouzení rizik a posouzení dodržování povinností a zásad stanovené v článcích 14 a 15, může rovněž požádat o osvědčení dodržování povinností stanovených v tomto nařízení nebo části těchto povinností, pokud je to odůvodněno povahou dotčené technologie, podle rozhodnutí vnitrostátních orgánů dohledu. Osvědčení se vydá, pouze pokud bylo provedeno posouzení dodržování povinností a zásad příslušným vnitrostátním orgánem dohledu a jeho výsledek je kladný.

3.   Pro účely vydání osvědčení uvedeného v odstavci 2 zavede Komise nebo jakékoli jiné příslušné orgány, instituce nebo subjekty Unie, které mohou být tímto úkolem pověřeny, postup pro podávání žádostí.

Hlava III

Institucionální dohled

Článek 17

Správní normy a pokyny týkající se uplatňování nařízení

1.   Umělá inteligence, robotika a související technologie, jež jsou vyvíjeny, zaváděny nebo používány v Unii musí být v souladu s příslušnými správními normami, které v souladu s právem, zásadami a hodnotami Unie stanoví vnitrostátní orgány dohledu uvedené v článku 18 v souladu s právem, zásadami a hodnotami Unie, za koordinace Komise nebo jakýchkoliv příslušných orgánů, institucí a jiných subjektů Unie, které mohou být pro tento účel určeny, a po konzultaci s příslušnými zúčastněnými stranami.

2.   Normy uvedené v odstavci 1 musí zahrnovat nezávazné pokyny pro metodiku posuzování souladu s tímto nařízením vývojáři, provozovateli a uživateli a musí být zveřejněny do data vstupu tohoto nařízení v platnost.

3.   Data, která používají nebo produkují umělá inteligence, robotika a související technologie vyvíjené, zaváděné nebo používané v Unii, spravují vývojáři, provozovatelé a uživatelé v souladu s příslušnými vnitrostátními, unijními a mezinárodními předpisy a normami a s předpisy a normami jiných evropských organizací a s příslušnými protokoly pro odvětvové a obchodní procesy. Pokud je to možné, vývojáři a provozovatelé provádějí zejména kvalitativní kontroly vnějších zdrojů dat, které umělá inteligence, robotika a související technologie používají, a zavádějí mechanismy pro dohled nad jejich shromažďováním, ukládáním, zpracováním a použitím.

4.   Aniž by byla dotčena práva na přenositelnost údajů a práva osob, jejichž používání umělé inteligence, robotiky a souvisejících technologií vedlo ke vzniku dat, musí shromažďování, ukládání, zpracování a sdílení dat používaných nebo vyprodukovaných umělou inteligencí, robotikou a souvisejícími technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, a přístup k takovým datům, splňovat příslušné vnitrostátní, unijní a mezinárodní předpisy a normy, předpisy a normy jiných evropských organizací, jakož i příslušné protokoly pro odvětvové a obchodní procesy. Vývojáři a provozovatelé především zajistí dodržování těchto protokolů během vývoje a zavádění umělé inteligence, robotiky a souvisejících technologií tím, že jasně formulují požadavky na zpracování dat používaných nebo produkovaných těmito technologiemi a na udělování přístupu k nim, jakož i požadavky týkající se účelu, rozsahu a adresátů zpracování a zpřístupnění takových dat, přičemž všechny tyto prvky bude možné kdykoli zkontrolovat a vysledovat.

Článek 18

Orgány dohledu

1.   Každý členský stát určí nezávislý veřejný orgán, který bude odpovídat za sledování uplatňování tohoto nařízení („orgán dohledu“) a za provádění posouzení rizik a dodržování povinností a zásad a za vydávání osvědčení stanovené v článcích 14, 15 a 16, aniž jsou dotčeny odvětvové právní předpisy.

2.   Každý vnitrostátní orgán dohledu přispívá k jednotnému uplatňování tohoto nařízení v celé Unii. Za tímto účelem spolupracují orgány dohledu každého členského státu mezi sebou, s Komisí nebo dalšími příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny.

3.   Každý vnitrostátní orgán dohledu slouží jako první kontaktní místo v případech podezření na porušení etických zásad a právních povinností stanovených v tomto nařízení, včetně diskriminačního zacházení nebo porušení jiných práv v důsledku vývoje, zavádění nebo používání umělé inteligence, robotiky a souvisejících technologií. V takových případech provede příslušný vnitrostátní orgán dohledu posouzení souladu s cílem podpořit právo občanů ohradit se a požadovat náhradu.

4.   Každý vnitrostátní orgán dohledu odpovídá za dohled nad uplatňováním příslušných vnitrostátních, evropských a mezinárodních správních předpisů a norem uvedených v článku 17 v souvislosti s umělou inteligencí, robotikou a souvisejícími technologiemi, a to i spoluprací s co největším počtem zúčastněných stran. Pro tento účel zřídí orgány dohledu v každém členském státě fórum pro pravidelnou výměnu informací se zúčastněnými stranami z akademických kruhů, výzkumné oblasti, průmyslu, občanské společnosti a mezi nimi navzájem.

5.   Každý vnitrostátní orgán dohledu poskytne odborné a správní pokyny a podporu v oblasti obecného uplatňování práva Unie týkajících se umělé inteligence, robotiky a souvisejících technologií a etických zásad uvedených v tomto nařízení, zejména příslušným organizacím působícím v oblasti výzkumu a vývoje a malým a středním podnikům nebo začínajícím podnikům.

6.   Každý členský stát informuje Evropskou komisi do … [Úř. věst.: uveďte datum, rok po vstupu v platnost] o zákonných ustanoveních, která přijme na základě tohoto článku, a bezodkladně ji uvědomí o jakékoli následné změně, která se do těchto ustanovení promítne.

7.   Členské státy přijmou veškerá opatření, která jsou nezbytná k zajištění uplatňování etických zásad a právních povinností uvedených v tomto nařízení. Členské státy podporují snahy příslušných zúčastněných stran a občanské společnosti, a to jak na úrovni Unie, tak na vnitrostátní úrovni, o včasnou, etickou a informovanou reakci na nové příležitosti a výzvy, které přináší technický rozvoj spjatý s umělou inteligencí, robotikou a souvisejícími technologiemi, zejména na příležitosti a výzvy přeshraniční povahy.

Článek 19

Oznamování porušení nařízení a ochrana osob oznamujících porušení

Oznamování porušení tohoto nařízení a ochrana osob oznamujících taková porušení se řídí směrnicí Evropského parlamentu a Rady (EU) 2019/1937 (6).

Článek 20

Koordinace na úrovni Unie

1.   Komise nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být v této souvislosti určeny, vykonávají následující hlavní úkoly:

zajišťují jednotné posouzení rizika v případě umělé inteligence, robotiky a souvisejících technologií podle článku 14, které provádějí vnitrostátní orgány dohledu uvedené v článku 18 na základě společných objektivních kritérií stanovených v čl. 8 odst. 1 a v seznamu vysoce rizikových odvětví a vysoce rizikových použití nebo účelů uvedených v příloze tohoto nařízení;

berou na vědomí posouzení souladu a následné sledování vysoce rizikové umělé inteligence, robotiky a souvisejících technologií uvedených v článku 15 prováděných vnitrostátními orgány dohledu uvedenými v článku 18;

vytvářejí postup pro podávání žádostí podle článku 16 pro osvědčení vydávaná vnitrostátními orgány dohledu uvedenými v článku 18;

aniž jsou dotčeny odvětvové právní předpisy, připravují závazné pokyny uvedené v čl. 17 odst. 4 týkající se metodiky, kterou budou používat vnitrostátní orgány dohledu uvedené v článku 18;

koordinují stanovení příslušných správních norem uvedených v článku 17 vnitrostátními orgány dohledu uvedenými v článku18, včetně nezávazných prováděcích pokynů pro vývojáře, provozovatele a uživatele týkajících se metodiky posuzování souladu s tímto nařízením;

spolupracují s vnitrostátními orgány dohledu uvedenými v článku8, pokud jde o jejich přínos k jednotnému uplatňování tohoto nařízení v celé Unii podle čl. 18 odst. 2;

slouží jako odborné centrum a napomáhají výměně informací o umělé inteligenci, robotice a souvisejících technologiích a podporují vzájemné porozumění v rámci jednotného trhu, a to tím, že poskytují další pokyny, stanoviska a odborné posudky vnitrostátním orgánům dohledu uvedeným v článku 18, sledují uplatňování příslušného práva Unie, určují normy pro osvědčené postupy a případně vydávají doporučení pro regulační opatření; přitom by měly spolupracovat s co nejvyšším počtem příslušných zúčastněných stran a zajistit, aby složení jejich rozhodovacích úrovní bylo různorodé a zajišťovalo rovnost žen a mužů;

uspořádají pracovní skupinu pro bezpečnost a obranu zabývající se politickými a investičními otázkami konkrétně souvisejícími s etickým využíváním umělé inteligence, robotiky a souvisejících technologií v oblasti bezpečnosti a obrany.

Článek 21

Výkon přenesené pravomoci

1.   Pravomoc přijímat akty v přenesené pravomoci je svěřena Komisi za podmínek stanovených v tomto článku.

2.   Pravomoc přijímat akty v přenesené pravomoci uvedená v čl. 14 odst. 3 a 4 je svěřena Komisi na dobu pěti let ode dne (datum vstupu tohoto nařízení v platnost).

3.   Evropský parlament nebo Rada mohou přenesení pravomoci uvedené v čl. 14 odst. 3 a 4 kdykoli zrušit. Rozhodnutím o zrušení se ukončuje přenesení pravomoci v něm určené. Rozhodnutí nabývá účinku prvním dnem po zveřejnění v Úředním věstníku Evropské unie nebo k pozdějšímu dni, který je v něm upřesněn. Nedotýká se platnosti již platných aktů v přenesené pravomoci.

4.   Před přijetím aktu v přenesené pravomoci Komise vede konzultace s odborníky jmenovanými jednotlivými členskými státy v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů.

5.   Přijetí aktu v přenesené pravomoci Komise neprodleně oznámí současně Evropskému parlamentu a Radě.

6.   Akt v přenesené pravomoci přijatý podle čl. 14 odst. 3 a 4 vstoupí v platnost, pouze pokud proti němu Evropský parlament nebo Rada nevysloví námitky ve lhůtě tří měsíců ode dne, kdy byl tento akt Evropskému parlamentu a Radě oznámen, nebo pokud Evropský parlament i Rada před uplynutím této lhůty informují Komisi o tom, že námitky nevysloví. Z podnětu Evropského parlamentu nebo Rady se tato lhůta prodlouží o tři měsíce.

Článek 22

Změna směrnice (EU) 2019/1937

Směrnice (EU) 2019/1937 se mění takto:

(1)

V čl. 2 odst. 1 se doplňuje nový bod, který zní:

„xi)

vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií;“

(2)

V části I přílohy se doplňuje nové písmeno, které zní:

„K.

Ustanovení čl. 2 odst. 1 písm. a) bodu xi) – vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií.

‚xxi)

nařízení Evropského parlamentu a Rady [XXX] o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií‘.“

Článek 23

Přezkum

Komise průběžně přezkoumává vývoj umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a do … [Úř. věst.: uveďte prosím datum tři roky po vstupu v platnost] a poté každé tři roky předkládá Evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru zprávu o uplatňování tohoto nařízení, včetně posouzení možných změn v oblasti působnosti tohoto nařízení.

Článek 24

Vstup v platnost

Toto nařízení vstupuje v platnost dvacátým dnem po vyhlášení v Úředním věstníku Evropské unie.

Použije se ode dne XX.

Toto nařízení je závazné v celém rozsahu a přímo použitelné ve všech členských státech.

V … dne

Za Evropský parlament

předseda nebo předsedkyně

Za Radu

předseda nebo předsedkyně

PŘÍLOHA

Vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití nebo účelů, které s sebou nesou možné porušení základních práv a bezpečnostních pravidel.

Vysoce riziková odvětví

zaměstnanost

vzdělávání

zdravotní péče

doprava

energetika

veřejný sektor (azyl, migrace, hraniční kontroly, soudnictví a služby sociálního zabezpečení)

obrana a bezpečnost

finance, bankovnictví, pojišťovnictví

Vysoce riziková použití nebo účely

nábor zaměstnanců

klasifikace a hodnocení studentů

přidělování veřejných prostředků

udělování půjček

obchodování, zprostředkování, zdanění atd.

lékařská péče a léčebné postupy

volební procesy a politické kampaně

rozhodnutí veřejného sektoru, která mají významný a přímý dopad na práva a povinnosti fyzických nebo právnických osob

automatizované řízení

řízení dopravy

autonomní vojenské systémy

výroba a distribuce energie

nakládání s odpady

kontrola emisí


(1)  U automatizovaného řízení vozidel bylo navrženo šest úrovní automatizace řízení v rámci mezinárodní normy Společnosti automobilových inženýrů (SAE) č. J3016, naposledy aktualizované v roce 2018 na J3016_201806. https://www.sae.org/standards/content/j3016_201806/

(2)  Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů) (Úř. věst. L 119, 4.5.2016, s. 1).

(3)  Směrnice Evropského parlamentu a Rady 2002/58/ES ze dne 12. července 2002 o zpracování osobních údajů a ochraně soukromí v odvětví elektronických komunikací (směrnice o soukromí a elektronických komunikacích) (Úř. věst. L 201, 31.7.2002, s. 37).

(4)  Upravená definice ze sdělení Evropské komise COM(2018)0237 final, 25.4.2018, s. 1.

(5)  Z definice průmyslových robotů podle normy ISO 8373.

(6)  Směrnice Evropského parlamentu a Rady (EU) 2019/1937 ze dne 23. října 2019 o ochraně osob, které oznamují porušení práva Unie (Úř. věst. L 305, 26.11.2019, s. 17).