EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020IP0275

Uznesenie Európskeho parlamentu z 20. októbra 2020 s odporúčaniami pre Komisiu k rámcu etických aspektov umelej inteligencie, robotiky a súvisiacich technológií (2020/2012(INL))

Ú. v. EÚ C 404, 6.10.2021, p. 63–106 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

SK

Úradný vestník Európskej únie

C 404/63


P9_TA(2020)0275

Rámec pre etické aspekty umelej inteligencie, robotiky a súvisiacich technológií

Uznesenie Európskeho parlamentu z 20. októbra 2020 s odporúčaniami pre Komisiu k rámcu etických aspektov umelej inteligencie, robotiky a súvisiacich technológií (2020/2012(INL))

(2021/C 404/04)

Európsky parlament,

so zreteľom na článok 225 Zmluvy o fungovaní Európskej únie,

so zreteľom na článok 114 Zmluvy o fungovaní Európskej únie,

so zreteľom na Chartu základných práv Európskej únie,

so zreteľom na nariadenie Rady (EÚ) 2018/1488 z 28. septembra 2018, ktorým sa zriaďuje spoločný podnik pre európsku vysokovýkonnú výpočtovú techniku (1),

so zreteľom na smernicu Rady 2000/43/ES z 29. júna 2000, ktorou sa zavádza zásada rovnakého zaobchádzania s osobami bez ohľadu na rasový alebo etnický pôvod (2) (smernica o rasovej rovnosti),

so zreteľom na smernicu Rady 2000/78/ES z 27. novembra 2000, ktorá ustanovuje všeobecný rámec pre rovnaké zaobchádzanie v zamestnaní a povolaní (3) (smernica o rovnakom zaobchádzaní v zamestnaní),

so zreteľom na nariadenie Európskeho parlamentu a Rady (EÚ) 2016/679 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov a o voľnom pohybe takýchto údajov, ktorým sa zrušuje smernica 95/46/ES (všeobecné nariadenie o ochrane údajov) (4), a smernicu Európskeho parlamentu a Rady (EÚ) 2016/680 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov príslušnými orgánmi na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo na účely výkonu trestných sankcií a o voľnom pohybe takýchto údajov a o zrušení rámcového rozhodnutia Rady 2008/977/SVV (5),

so zreteľom na Medziinštitucionálnu dohodu z 13. apríla 2016 o lepšej tvorbe práva (6),

so zreteľom na návrh nariadenia Európskeho parlamentu a Rady zo 6. júna 2018, ktorým sa stanovuje program Digitálna Európa na obdobie 2021 – 2027 (COM(2018)0434),

so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 11. decembra 2019 o európskej zelenej dohode (COM(2019)0640),

so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 19. februára 2020 o umelej inteligencii – európsky prístup k excelentnosti a dôvere (COM(2020)0065),

so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 19. februára 2020 s názvom Európska dátová stratégia (COM(2020)0066),

so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 19. februára 2020 s názvom Formovanie digitálnej budúcnosti Európy (COM(2020)0067),

so zreteľom na závery Rady o formovaní digitálnej budúcnosti Európy z júna 2020,

so zreteľom na svoje uznesenie zo 16. februára 2017 s odporúčaniami pre Komisiu k normám občianskeho práva v oblasti robotiky (7),

so zreteľom na svoje uznesenie z 1. júna 2017 o digitalizácii európskeho priemyslu (8),

so zreteľom na svoje uznesenie z 12. septembra 2018 o autonómnych zbraňových systémoch (9),

so zreteľom na svoje uznesenie z 11. septembra 2018 o rovnosti jazykov v digitálnom veku (10),

so zreteľom na svoje uznesenie z 12. februára 2019 o komplexnej európskej priemyselnej politike v oblasti umelej inteligencie a robotiky (11),

so zreteľom na správu expertnej skupiny na vysokej úrovni pre umelú inteligenciu, ktorú zriadila Komisia, z 8. apríla 2019 s názvom Etické usmernenia pre dôveryhodnú umelú inteligenciu,

so zreteľom na štúdiu o posúdení európskej pridanej hodnoty, ktorú vypracovala výskumná služba Európskeho parlamentu s názvom Európsky rámec pre etické aspekty umelej inteligencie, robotiky a súvisiacich technológií: Posúdenie európskej pridanej hodnoty (12),

so zreteľom na briefingy a štúdie vypracované na žiadosť Panelu pre budúcnosť vedy a techniky (STOA), ktorý riadi oddelenie vedeckej predikcie v rámci výskumnej služby Európskeho parlamentu, nazvané Čo keby by sa algoritmy riadili etickými zásadami?, Umelá inteligencia ante portas: Právne a etické úvahy, Rámec riadenia pre zodpovednosť a transparentnosť algoritmov, Mali by sme sa obávať umelej inteligencie? a Etika umelej inteligencie: Otázky a iniciatívy,

so zreteľom na Rámcový dohovor Rady Európy na ochranu národnostných menšín, Protokol č. 12 k Dohovoru o ochrane ľudských práv a základných slobôd a Európsku chartu regionálnych alebo menšinových jazykov,

so zreteľom na odporúčanie Rady OECD o umelej inteligencii prijaté 22. mája 2019,

so zreteľom na články 47 a 54 rokovacieho poriadku,

so zreteľom na stanoviská Výboru pre zahraničné veci, Výboru pre vnútorný trh a ochranu spotrebiteľa, Výboru pre dopravu a cestovný ruch, Výboru pre občianske slobody, spravodlivosť a vnútorné veci, Výboru pre zamestnanosť a sociálne veci, Výboru pre životné prostredie, verejné zdravie a bezpečnosť potravín a Výboru pre kultúru a vzdelávanie,

so zreteľom na správu Výboru pre právne veci (A9-0186/2020),

Úvod

A.

keďže vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií uskutočňujú ľudia a ich voľby predurčujú potenciál takýchto technológií prospievať spoločnosti;

B.

keďže umelá inteligencia, robotika a súvisiace technológie, ktoré majú potenciál vytvárať príležitosti pre podniky a výhody pre občanov a ktoré môžu priamo ovplyvniť všetky aspekty našej spoločnosti vrátane základných práv a sociálnych a hospodárskych zásad a hodnôt, ako aj trvalý vplyv na všetky oblasti činnosti, sa rýchlo propagujú a rozvíjajú;

C.

keďže umelá inteligencia, robotika a súvisiace technológie povedú k podstatným zmenám na trhu práce a na pracovisku; keďže môžu potenciálne nahradiť pracovníkov vykonávajúcich opakujúce sa činnosti, umožniť systémy spolupráce medzi človekom a strojmi, zvýšiť konkurencieschopnosť a prosperitu a vytvoriť nové pracovné príležitosti pre kvalifikovaných pracovníkov, pričom zároveň predstavujú vážnu výzvu z hľadiska reorganizácie pracovnej sily;

D.

keďže rozvoj umelej inteligencie, robotiky a súvisiacich technológií môže prispieť aj k dosiahnutiu cieľov európskej zelenej dohody týkajúcich sa udržateľnosti v mnohých rôznych odvetviach; keďže digitálne technológie môžu zvýšiť vplyv politík, čo sa týka ochrany životného prostredia; keďže môžu tiež prispieť k zníženiu dopravného preťaženia a emisií skleníkových plynov a látok znečisťujúcich ovzdušie;

E.

keďže v odvetviach, ako je verejná doprava, môžu byť inteligentné dopravné systémy podporované umelou inteligenciou použité na minimalizovanie čakania v radoch, optimalizáciu trás, umožnenie väčšej nezávislosti osôb so zdravotným postihnutím a zvýšenie energetickej účinnosti, čím sa zvýši úsilie v oblasti dekarbonizácie a zníži sa environmentálna stopa;

F.

keďže tieto technológie prinášajú nové podnikateľské príležitosti, ktoré môžu prispieť k obnove priemyslu Únie po súčasnej zdravotnej a hospodárskej kríze, ak sa budú využívať viac, napríklad v dopravnom priemysle; keďže takéto príležitosti môžu vytvoriť nové pracovné miesta, pretože využívanie umelej inteligencie a súvisiacich technológií má potenciál zvýšiť produktivitu podnikov a prispieť k nárastu efektívnosti; keďže inovačné programy v tejto oblasti môžu umožniť regionálnym klastrom prosperovať;

G.

keďže Únia a jej členské štáty majú osobitnú zodpovednosť za využívanie, podporu a zvyšovanie pridanej hodnoty umelej inteligencie a zabezpečenie toho, aby technológie umelej inteligencie boli bezpečné a prispievali ku kvalite života a všeobecnému záujmu ich občanov, keďže môžu výrazne prispieť k dosiahnutiu spoločného cieľa, ktorým je zlepšenie života občanov a podpora prosperity v Únii tým, že prispejú k rozvoju lepších stratégií a inovácií vo viacerých oblastiach a odvetviach; keďže s cieľom plne využiť potenciál umelej inteligencie a upovedomiť používateľov o výhodách a výzvach, ktoré technológie umelej inteligencie prinášajú, je potrebné zahrnúť umelú inteligenciu alebo digitálnu gramotnosť do vzdelávania a odbornej prípravy, a to aj pokiaľ ide o podporu digitálneho začleňovania, a uskutočňovať informačné kampane na úrovni Únie, ktoré poskytujú presný obraz o všetkých aspektoch rozvoja umelej inteligencie;

H.

keďže spoločný regulačný rámec Únie pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií (ďalej len „regulačný rámec pre umelú inteligenciu“) by mal občanom umožniť zdieľať výhody plynúce z ich potenciálu a zároveň chrániť občanov pred potenciálnymi rizikami týchto technológií a podporovať dôveryhodnosť týchto technológií v Únii a inde; keďže tento rámec by mal byť založený na práve Únie a hodnotách a mal by sa riadiť zásadami transparentnosti, vysvetliteľnosti, spravodlivosti a zodpovednosti;

I.

keďže takýto regulačný rámec má kľúčový význam pri predchádzaní fragmentácii vnútorného trhu vyplývajúcej z rozdielnych vnútroštátnych právnych predpisov a pomôže podporiť veľmi potrebné investície, rozvíjať dátovú infraštruktúru a podporiť výskum; keďže by mal pozostávať zo spoločných právnych záväzkov a etických zásad, ako sa stanovuje v návrhu nariadenia požadovaného v prílohe k tomuto uzneseniu; keďže by sa mal vytvoriť v súlade s usmerneniami o lepšej právnej regulácii;

J.

keďže Únia má zavedený prísny právny rámec na zabezpečenie, okrem iného, ochrany osobných údajov a súkromia a nediskriminácie, na podporu rodovej rovnosti, ochrany životného prostredia a práv spotrebiteľov; keďže takýto právny rámec pozostávajúci z rozsiahleho súboru horizontálnych a odvetvových právnych predpisov vrátane existujúcich pravidiel týkajúcich sa bezpečnosti výrobkov a zodpovednosti sa v súvislosti s umelou inteligenciou, robotikou a súvisiacimi technológiami bude uplatňovať aj naďalej, hoci môžu byť potrebné určité úpravy osobitných právnych nástrojov na zohľadnenie digitálnej transformácie a riešenie nových výziev, ktoré predstavuje používanie umelej inteligencie;

K.

keďže existujú obavy, že súčasný právny rámec Únie vrátane spotrebiteľského práva a acquis v oblasti zamestnanosti a sociálnych vecí, právnych predpisov o ochrane údajov, právnych predpisov o bezpečnosti výrobkov a dohľade nad trhom, ako aj antidiskriminačných právnych predpisov už nemusí byť vhodný na účel účinného riešenia rizík vyplývajúcich z umelej inteligencie, robotiky a súvisiacich technológií;

L.

keďže okrem úprav existujúcich právnych predpisov by sa právne a etické otázky týkajúce sa technológií umelej inteligencie mali riešiť prostredníctvom účinného, komplexného a nadčasového regulačného rámca práva Únie, ktorý by odrážal zásady a hodnoty Únie zakotvené v zmluvách a Charte základných práv Európskej únie (ďalej len „charta“), ktoré by sa mali vyhýbať nadmernej regulácii, a to len odstránením existujúcich právnych medzier a zvýšením právnej istoty pre podniky aj občanov, konkrétne zahrnutím povinných opatrení na predchádzanie praktikám, ktoré by nepochybne ohrozili základné práva;

M.

keďže je potrebné, aby akýkoľvek nový regulačný rámec zohľadňoval všetky dotknuté záujmy; keďže predpokladom pre ďalšie legislatívne opatrenia by malo byť dôkladné preskúmanie dôsledkov akéhokoľvek nového regulačného rámca pre všetkých aktérov v posúdení vplyvu; keďže rozhodujúca úloha malých a stredných podnikov (MSP) a startupov, najmä v hospodárstve Únie, opodstatňuje striktne proporčný prístup, aby sa im umožnilo rozvíjať sa a inovovať;

N.

keďže umelá inteligencia, robotika a súvisiace technológie môžu mať vážne dôsledky na materiálnu a nehmotnú integritu jednotlivcov, skupín a spoločnosti ako celku a že potenciálne škody na jednotlivcovi alebo komunite sa musia riešiť prostredníctvom právnych predpisov;

O.

keďže v záujme dodržiavania regulačného rámca Únie pre umelú inteligenciu bude možno potrebné prijať osobitné pravidlá pre odvetvie dopravy Únie;

P.

keďže technológie umelej inteligencie majú strategický význam pre odvetvie dopravy, a to aj preto, že zvyšujú bezpečnosť a prístupnosť všetkých druhov dopravy a vytvárajú nové pracovné príležitosti a udržateľnejšie obchodné modely; keďže prístup Únie k rozvoju umelej inteligencie, robotiky a súvisiacich technológií v doprave má potenciál zvýšiť globálnu konkurencieschopnosť a strategickú autonómiu hospodárstva Únie;

Q.

keďže približne 95 % všetkých dopravných nehôd v Únii je spôsobených ľudským pochybením; keďže Únia mala za cieľ znížiť do roku 2020 počet smrteľných nehôd v cestnej doprave v EÚ o 50 % v porovnaní s rokom 2010, ale vzhľadom na stagnáciu pokroku obnovila svoje úsilie v rámci svojho politického rámca EÚ pre bezpečnosť cestnej premávky na roky 2021 – 2030 – ďalšie kroky smerom k „vízii nulovej úmrtnosti na cestách“; keďže umelá inteligencia, automatizácia a ďalšie nové technológie majú v tejto súvislosti veľký potenciál a rozhodujúci význam pre zvyšovanie bezpečnosti cestnej premávky tým, že sa zníži možnosť ľudských chýb;

R.

keďže regulačný rámec Únie pre umelú inteligenciu by mal odrážať aj potrebu zabezpečiť dodržiavanie práv pracovníkov; keďže by sa mala zohľadniť rámcová dohoda európskych sociálnych partnerov o digitalizácii z júna 2020;

S.

keďže rozsah pôsobnosti regulačného rámca Únie pre umelú inteligenciu by mal byť adekvátny, primeraný a dôkladne vyhodnotený; keďže by sa mal vzťahovať na širokú škálu technológií a ich komponentov vrátane algoritmov, softvéru a údajov, ktoré používajú alebo vytvárajú, je potrebný cielený prístup založený na riziku, aby sa zabránilo obmedzovaniu budúcich inovácií a vytváraniu zbytočnej záťaže, najmä pre MSP; keďže rozmanitosť aplikácií poháňaných umelou inteligenciou, robotikou a súvisiacimi technológiami komplikuje hľadanie jediného riešenia vhodného pre celé spektrum rizík;

T.

keďže analýza údajov a umelá inteligencia majú čoraz väčší vplyv na informácie sprístupňované občanom; keďže takéto technológie môžu v prípade zneužitia ohroziť slobodu prejavu a právo na informácie, ako aj slobodu a pluralitu médií;

U.

keďže geografický rozsah uplatňovania rámca Únie pre umelú inteligenciu by mal zahŕňať všetky zložky umelej inteligencie, robotiky a súvisiacich technológií, ktoré sa vyvíjajú, nasadzujú alebo používajú v Únii, a to aj v prípadoch, keď môže byť časť technológií umiestnená mimo Únie alebo nemá konkrétne umiestnenie;

V.

keďže regulačný rámec Únie pre umelú inteligenciu by mal zahŕňať všetky príslušné etapy, konkrétne vývoj, nasadzovanie a používanie príslušných technológií a ich komponentov, čo si vyžaduje náležité zohľadnenie príslušných právnych povinností a etických zásad, a mal by stanoviť podmienky na zabezpečenie toho, aby vývojári, nasadzujúce subjekty a používatelia v plnej miere dodržiavali takéto povinnosti a zásady;

W.

keďže harmonizovaný prístup k etickým zásadám týkajúcim sa umelej inteligencie, robotiky a súvisiacich technológií si v Únii vyžaduje jednotné chápanie týchto koncepcií, ktoré tvoria základ technológií, ako sú algoritmy, softvér, údaje alebo biometrické rozpoznávanie;

X.

keďže činnosť na úrovni Únie je odôvodnená potrebou zabrániť fragmentácii právnych predpisov alebo súborom vnútroštátnych regulačných ustanovení bez spoločného menovateľa a zabezpečiť jednotné uplatňovanie spoločných etických zásad zakotvených v právnych predpisoch pri vývoji, nasadzovaní a používaní umelej inteligencie, robotiky a súvisiacich technológií; keďže sú potrebné jasné pravidlá tam, kde sú riziká značné;

Y.

keďže spoločné etické zásady sú efektívne len vtedy, keď sú zároveň zakotvené v právnych predpisoch a keď sú určené osoby zodpovedné za zabezpečenie, posudzovanie a monitorovanie súladu;

Z.

keďže etické usmernenia, ako sú zásady prijaté expertnou skupinou na vysokej úrovni pre umelú inteligenciu, sú dobrým východiskovým bodom, ale nemôžu zaistiť, aby vývojári, nasadzujúce subjekty a používatelia konali spravodlivo a zaručili účinnú ochranu jednotlivcov; keďže takéto usmernenia sú o to dôležitejšie, pokiaľ ide o vysokorizikovú umelú inteligenciu, robotiku a súvisiace technológie;

AA.

keďže každý členský štát by mal určiť vnútroštátny orgán dohľadu zodpovedný za zabezpečenie, posudzovanie a monitorovanie súladu vývoja, nasadzovania a používania vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií s regulačným rámcom Únie pre umelú inteligenciu, a umožniť diskusie a výmenu názorov v úzkej spolupráci s príslušnými zainteresovanými stranami a občianskou spoločnosťou; keďže vnútroštátne orgány dohľadu by mali navzájom spolupracovať;

AB.

keďže s cieľom zabezpečiť harmonizovaný prístup v celej Únii a optimálne fungovanie jednotného digitálneho trhu by sa koordinácia na úrovni Únie zo strany Komisie a/alebo akýchkoľvek príslušných inštitúcií, orgánov, úradov a agentúr Únie, ktoré môžu byť v tejto súvislosti určené, mala posúdiť z hľadiska nových príležitostí a výziev, najmä tých, ktoré majú cezhraničný charakter a ktoré vyplývajú z prebiehajúceho technologického vývoja; keďže na tento účel by Komisia mala byť poverená hľadaním vhodného riešenia štruktúry takejto koordinácie na úrovni Únie;

Umelá inteligencia sústredená na človeka a vytvorená človekom

1.

zastáva názor, že bez toho, aby boli dotknuté odvetvové právne predpisy, je účinný a harmonizovaný regulačný rámec založený na práve Únie, charte a medzinárodnom práve v oblasti ľudských práv, ktorý sa uplatňuje najmä na vysokorizikové technológie, potrebný na vytvorenie rovnakých noriem v celej Únii a účinnú ochranu hodnôt Únie;

2.

je presvedčený, že akýkoľvek nový regulačný rámec pre umelú inteligenciu pozostávajúci z právnych záväzkov a etických zásad pre vývoj, nasadenie a používanie umelej inteligencie, robotiky a súvisiacich technológií by mal plne rešpektovať Chartu, a tým rešpektovať ľudskú dôstojnosť, autonómiu a sebaurčenie jednotlivca, mal by predchádzať škodám, podporovať spravodlivosť, začleňovanie a transparentnosť, odstraňovať predsudky a diskrimináciu, a to aj pokiaľ ide o menšinové skupiny, a rešpektovať a dodržiavať zásady obmedzenia negatívnych externalít použitej technológie, zabezpečenia vysvetliteľnosti technológií a zaručenia, aby technológie slúžili ľuďom, a nie ich nahrádzali alebo rozhodovali za nich, a to v záujme neustáleho zlepšovania kvality života všetkých ľudí;

3.

zdôrazňuje asymetriu medzi tými, ktorí využívajú technológie umelej inteligencie, a tými, ktorí s nimi interagujú a podliehajú im; v tejto súvislosti zdôrazňuje, že dôveru občanov v umelú inteligenciu možno vybudovať iba na základe regulačného rámca, ktorý bude už od návrhu štandardne dodržiavať etické postupy a ktorý zabezpečí, že akákoľvek používaná umelá inteligencia bude plne rešpektovať zmluvy, Chartu a sekundárne právo Únie; domnieva sa, že rozvíjanie tohto prístupu by malo byť v súlade so zásadou predbežnej opatrnosti, ktorou sa riadia právne predpisy Únie, a malo by byť jadrom každého rámca upravujúceho umelú inteligenciu; v tejto súvislosti požaduje jasný a ucelený model riadenia, ktorý umožní spoločnostiam a inovátorom ďalej rozvíjať umelú inteligenciu, robotiku a súvisiace technológie;

4.

domnieva sa, že akékoľvek legislatívne opatrenie týkajúce sa umelej inteligencie, robotiky a súvisiacich technológií by malo byť v súlade so zásadami nevyhnutnosti a proporcionality;

5.

domnieva sa, že takýto prístup umožní spoločnostiam uvádzať na trh inovatívne produkty a vytvárať nové príležitosti pri súčasnom zabezpečení ochrany hodnôt Únie tým, že povedie k vývoju systémov umelej inteligencie, ktoré už v štádiu návrhu začleňujú etické zásady Únie; domnieva sa, že takýto regulačný rámec založený na hodnotách by predstavoval pridanú hodnotu tým, že by Únii poskytol jedinečnú konkurenčnú výhodu a významne by prispel k blahobytu a prosperite občanov a podnikov Únie tým, že by posilnil vnútorný trh; zdôrazňuje, že takýto regulačný rámec pre umelú inteligenciu bude tiež predstavovať pridanú hodnotu, pokiaľ ide o podporu inovácií na vnútornom trhu; domnieva sa, že napríklad v odvetví dopravy tento prístup poskytuje podnikom z Únie príležitosť stať sa svetovými lídrami v tejto oblasti;

6.

konštatuje, že právny rámec Únie by sa mal vzťahovať na umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo vyrobených týmito technológiami;

7.

konštatuje, že príležitosti založené na umelej inteligencii, robotike a súvisiacich technológiách sa opierajú o veľké dáta, pričom pre nastavenie algoritmov a vyladenie výsledkov je potrebné kritické množstvo dát; v tejto súvislosti víta návrh Komisie vytvoriť v EÚ spoločný dátový priestor s cieľom posilniť výmenu údajov a podporiť výskum pri plnom rešpektovaní európskych pravidiel ochrany údajov.

8.

domnieva sa, že bude potrebné, aby sa súčasný právny rámec Únie, najmä pokiaľ ide o ochranu súkromia a osobných údajov, v plnej miere uplatňoval na umelú inteligenciu, robotiku a súvisiace technológie a aby sa pravidelne preskúmaval a posudzoval a v prípade potreby aktualizoval s cieľom účinne riešiť riziká spojené s týmito technológiami, a preto by bolo prospešné ho v tejto súvislosti doplniť o dôrazné usmerňujúce etické zásady; poukazuje na to, že v prípadoch, keď by bolo predčasné prijať právne predpisy, by sa mal použiť rámec tzv. soft law;

9.

očakáva, že Komisia začlení pevný etický rámec do legislatívneho návrhu požadovaného v prílohe k tomuto uzneseniu v nadväznosti na bielu knihu o umelej inteligencii, ktorý sa bude týkať aj bezpečnosti, zodpovednosti a základných práv a bude maximalizovať príležitosti a minimalizovať riziká technológií umelej inteligencie; očakáva, že požadovaný legislatívny návrh bude obsahovať politické riešenia hlavných uznaných rizík umelej inteligencie, a to aj vrátane etického získavania a využívania veľkých dát, otázok algoritmickej transparentnosti a algoritmickej zaujatosti; vyzýva Komisiu, aby vypracovala kritériá a ukazovatele na označovanie technológií umelej inteligencie s cieľom podnietiť transparentnosť, vysvetliteľnosť a zodpovednosť a stimulovať dodatočné opatrenia zo strany vývojárov; zdôrazňuje potrebu investovať do integrácie netechnických disciplín do štúdia a výskumu umelej inteligencie s prihliadnutím na sociálny kontext;

10.

domnieva sa, že umelá inteligencia, robotika a súvisiace technológie musia byť prispôsobené ľudským potrebám v súlade so zásadou, podľa ktorej by ich vývoj, nasadzovanie a využívanie mali vždy slúžiť ľuďom, a nie naopak, a mali by sa usilovať o zlepšenie kvality života a osobnej slobody, ako aj o zachovanie mieru, predchádzanie konfliktom a posilnenie medzinárodnej bezpečnosti, a zároveň maximalizovať ponúkané prínosy a predchádzať jej rizikám a znižovať ich;

11.

vyhlasuje, že vývoj, nasadzovanie a používanie vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií, a to nielen výlučne ľuďmi, by mali byť vždy založené na etických princípoch a mali by umožňovať zapojenie ľudského faktora, demokratický dohľad a v prípade potreby aj prevzatie kontroly človekom prostredníctvom vhodných kontrolných opatrení;

Posúdenie rizík

12.

zdôrazňuje, že každé budúce nariadenie by sa malo riadiť diferencovaným, na rizikách založeným a na budúcnosť zameraným prístupom k regulácii umelej inteligencie, robotiky a súvisiacich technológií vrátane technologicky neutrálnych noriem vo všetkých odvetviach a v prípade potreby odvetvových noriem; konštatuje, že v záujme zabezpečenia jednotného uplatňovania systému posudzovania rizík a dosiahnutia súladu s príslušnými právnymi povinnosťami s cieľom zabezpečiť rovnaké podmienky v členských štátoch a zabrániť fragmentácii vnútorného trhu je potrebný úplný a súhrnný zoznam vysokorizikových odvetví a vysokorizikových spôsobov použitia a účelov; zdôrazňuje, že takýto zoznam sa musí pravidelne prehodnocovať, a konštatuje, že vzhľadom na vyvíjajúci sa charakter týchto technológií môže byť v budúcnosti potrebné prehodnotiť spôsob, akým sa vykonáva hodnotenie rizika;

13.

domnieva sa, že určenie toho, či by sa umelá inteligencia, robotika a súvisiace technológie mali považovať za vysokorizikové, a teda podliehať povinnému dodržiavaniu právnych povinností a etických zásad stanovených v regulačnom rámci pre umelú inteligenciu, by malo vždy vyplývať z nestranného, regulovaného a externého hodnotenia ex ante založeného na konkrétnych a vymedzených kritériách;

14.

v tejto súvislosti sa domnieva, že umelá inteligencia, robotika a súvisiace technológie by sa mali považovať za vysokorizikové, ak ich vývoj, nasadenie a používanie predstavuje značné riziko spôsobenia ujmy alebo škody jednotlivcom alebo spoločnosti, čo je v rozpore so základnými právami a bezpečnostnými pravidlami stanovenými v práve Únie; domnieva sa, že na účely posúdenia, či technológie umelej inteligencie predstavujú takéto riziko, by sa malo zohľadniť odvetvie, v ktorom sa vyvíjajú, nasadzujú alebo používajú, ich konkrétne použitie alebo účel a závažnosť ujmy alebo škody, ktorú možno očakávať; prvé a druhé kritériá, konkrétne odvetvie a špecifické použitie alebo účel, by sa mali posudzovať kumulatívne;

15.

zdôrazňuje, že hodnotenie rizika týchto technológií by sa malo vykonať na základe úplného a kumulatívneho zoznamu vysokorizikových odvetví a vysokorizikových použití a účelov; je pevne presvedčený, že v rámci Únie by mala existovať súdržnosť, pokiaľ ide o posudzovanie rizika týchto technológií, najmä ak sa posudzujú z hľadiska ich súladu s regulačným rámcom pre umelú inteligenciu a v súlade s akýmikoľvek inými uplatniteľnými odvetvovými právnymi predpismi;

16.

domnieva sa, že tento prístup založený na riziku by sa mal vypracovať tak, aby sa v čo najväčšej miere obmedzila administratívna záťaž pre spoločnosti, a najmä MSP, a to s využitím existujúcich nástrojov; takéto nástroje zahŕňajú okrem iného zoznam posúdení vplyvu na ochranu údajov, ako sa stanovuje v nariadení (EÚ) 2016/679;

Bezpečnostné prvky, transparentnosť a zodpovednosť

17.

pripomína, že právo spotrebiteľov na informácie je zakotvené ako kľúčová zásada v práve Únie, a zdôrazňuje, že by sa preto malo v plnej miere uplatňovať v súvislosti s umelou inteligenciou, robotikou a súvisiacimi technológiami; domnieva sa, že by malo zahŕňať najmä transparentnosť, pokiaľ ide o interakciu so systémami umelej inteligencie vrátane procesov automatizácie a pokiaľ ide o spôsob ich fungovania, schopnosti, napríklad spôsob filtrovania a prezentácie informácií, presnosť a obmedzenia; domnieva sa, že takéto informácie by sa mali poskytovať vnútroštátnym orgánom dohľadu a vnútroštátnym orgánom na ochranu spotrebiteľa;

18.

zdôrazňuje, že dôvera spotrebiteľov má zásadný význam pre vývoj a zavádzanie týchto technológií, s ktorými môžu byť spojené riziká, ak sú založené na nepriehľadných algoritmoch a neobjektívnych dátových súboroch; domnieva sa, že spotrebitelia by mali mať právo byť adekvátne, zrozumiteľne a včas informovaní štandardizovaným, presným a prístupným spôsobom o existencii a odôvodnení algoritmických systémov a o ich možných výsledkoch a vplyvoch na spotrebiteľov, ako aj o tom, ako sa obrátiť na človeka s rozhodovacími právomocami a ako možno rozhodnutia systému kontrolovať, rozumným spôsobom spochybniť a opraviť; v tejto súvislosti zdôrazňuje potrebu zvážiť a rešpektovať zásady informovania a zverejňovania, na ktorých je založené acquis v oblasti spotrebiteľského práva; považuje za potrebné poskytnúť koncovým používateľom podrobné informácie týkajúce sa prevádzky dopravných systémov a vozidiel podporovaných umelou inteligenciou;

19.

konštatuje, že je nevyhnutné, aby algoritmy a dátové súbory používané alebo produkované umelou inteligenciou, robotikou a súvisiacimi technológiami boli vysvetliteľné a v prípade potreby a pri plnom dodržiavaní právnych predpisov Únie v oblasti ochrany údajov, súkromia a práv duševného vlastníctva a obchodného tajomstva prístupné verejným orgánom, ako sú vnútroštátne orgány dohľadu a orgány dohľadu nad trhom; ďalej poznamenáva, že v súlade s najvyššími možnými a platnými priemyselnými normami by takúto dokumentáciu by mali uchovávať osoby, ktoré sú zapojené do rôznych fáz vývoja algoritmických systémov; berie na vedomie možnosť, že orgány dohľadu nad trhom môžu mať v tejto súvislosti ďalšie výsady; v tejto súvislosti zdôrazňuje úlohu zákonného reverzného inžinierstva; domnieva sa, že by mohlo byť potrebné preskúmať súčasné právne predpisy v oblasti dohľadu nad trhom, aby sa zabezpečilo, že budú eticky reagovať na vznik umelej inteligencie, robotiky a súvisiacich technológií;

20.

vyzýva na zavedenie požiadavky, aby vývojári vysokorizikových technológií a ich nasadzujúce subjekty poskytli orgánom verejnej moci príslušnú dokumentáciu o používaní a dizajne a bezpečnostné pokyny a, ak je to nevyhnutne potrebné a v plnom súlade s právnymi predpismi Únie v oblasti ochrany údajov, súkromia a práv duševného vlastníctva a obchodných tajomstiev, tiež zdrojový kód, vývojové nástroje a dáta, ktoré systém používa; konštatuje, že takáto povinnosť by umožnila posúdiť ich súlad s právom Únie a etickými zásadami, a v tejto súvislosti berie na vedomie príklad, ktorý poskytuje zákonná archivácia publikácií národnej knižnice; pripomína, že je dôležité rozlišovať medzi transparentnosťou algoritmov a transparentnosťou používania algoritmov;

21.

ďalej poznamenáva, že v záujme rešpektovania ľudskej dôstojnosti, autonómie a bezpečnosti by sa mala venovať náležitá pozornosť životne dôležitým a pokrokovým zdravotníckym pomôckam a že je potrebné, aby si nezávislé, dôveryhodné orgány zachovali prostriedky potrebné na poskytovanie služieb osobám používajúcim tieto zariadenia, ak ich pôvodný vývojár alebo nasadzujúci subjekt už viac neposkytuje; napríklad by takéto služby zahŕňali údržbu, opravy a zlepšenia vrátane softvérových aktualizácií, ktorými sa odstraňujú poruchy a slabé miesta;

22.

trvá na tom, aby sa vysokoriziková umelá inteligencia, robotika a súvisiace technológie, vrátane softvéru, algoritmov a dát, ktoré tieto technológie používajú alebo produktmi, bez ohľadu na oblasť v ktorej sa vyvíjajú, nasadzujú a používajú, už od návrhu vyvíjali bezpečným, sledovateľným, technicky prepracovaným, spoľahlivým a právne záväzným spôsobom a aby podliehali nezávislej kontrole a dohľadu; domnieva sa najmä, že všetci aktéri v rámci vývoja a dodávateľských reťazcov produktov a služieb umelej inteligencie by mali niesť právnu zodpovednosť, a zdôrazňuje potrebu mechanizmov na zabezpečenie zodpovednosti;

23.

zdôrazňuje, že nariadenie a usmernenia týkajúce sa vysvetliteľnosti, auditovateľnosti, vysledovateľnosti a transparentnosti, ako aj v prípadoch, keď sa to vyžaduje na základe posúdenia rizika a keď je to nevyhnutne potrebné a v plnom súlade s právnymi predpismi Únie, ako napríklad tými v oblasti ochrany údajov, súkromia, práv duševného vlastníctva a obchodných tajomstiev, tiež prístup verejných orgánov k technológiám, dátam a počítačovým systémom, na ktorých sú tieto technológie založené, sú zásadné pre zabezpečenie dôvery občanov v tieto technológie, hoci miera vysvetliteľnosti závisí od zložitosti týchto technológií; poukazuje na to, že nie vždy je možné vysvetliť, prečo model viedol k určitému výsledku alebo rozhodnutiu, ako napríklad v prípade algoritmov čiernej skrinky; domnieva sa preto, že predpokladom na zaručenie zodpovednosti je dodržiavanie týchto zásad;

24.

domnieva sa, že občania, vrátane spotrebiteľov, by mali byť informovaní o tom, či pri interakcii so systémom využívajúcim umelú inteligenciu najmä na personalizáciu produktov alebo služieb pre svojich užívateľov môžu takúto personalizáciu vypnúť alebo ju obmedziť a ako to urobiť;

25.

v tejto súvislosti zdôrazňuje, že umelá inteligencia, robotika a s nimi súvisiace technológie musia byť technicky spoľahlivé a presné, ak majú byť dôveryhodné;

26.

zdôrazňuje, že ochrana sietí prepojenej umelej inteligencie a robotiky je dôležitá a že treba prijať dôrazné opatrenia s cieľom zabrániť narušeniu bezpečnosti, úniku údajov, otrave údajov (tzv. data poisoning), kybernetickým útokom a zneužívaniu osobných údajov, čo si vyžaduje spoluprácu príslušných agentúr, orgánov a inštitúcií na úrovni Únie, ako aj na vnútroštátnej úrovni a spoluprácu s koncovými používateľmi týchto technológií; vyzýva Komisiu a členské štáty, aby pri vývoji a zavádzaní technológií umelej inteligencie vždy zabezpečili dodržiavanie hodnôt Únie a základných práv s cieľom zaistiť bezpečnosť a odolnosť digitálnej infraštruktúry Únie;

Nezaujatosť a nediskriminácia

27.

pripomína, že umelá inteligencia má v závislosti od spôsobu vývoja a používania potenciál vytvárať a posilňovať zaujatosť, a to aj prostredníctvom vnútornej zaujatosti základných súborov údajov, a preto môže vytvárať rôzne formy automatizovanej diskriminácie vrátane nepriamej diskriminácie, najmä pokiaľ ide o skupiny osôb s podobnými vlastnosťami; vyzýva Komisiu a členské štáty, aby prijali všetky možné opatrenia s cieľom zabrániť vzniku takejto zaujatosti a zabezpečiť plnú ochranu základných práv;

28.

je znepokojený, že pri vývoji, nasadzovaní a používaní vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných týmito technológiami existuje riziko predsudkov a diskriminácie; pripomína, že za každých okolností by mali rešpektovať právo Únie, ako aj ľudské práva a dôstojnosť, autonómiu a sebaurčenie jednotlivca a zabezpečiť rovnaké zaobchádzanie a nediskrimináciu pre všetkých;

29.

zdôrazňuje, že technológie umelej inteligencie by mali byť navrhnuté tak, aby rešpektovali a chránili hodnoty Únie a telesnú a duševnú integritu a aby im slúžili, aby podporovali kultúrnu a jazykovú rozmanitosť Únie a pomáhali uspokojovať základné potreby; zdôrazňuje, že je potrebné vyhnúť sa akémukoľvek použitiu, ktoré by mohlo viesť k neprípustnému priamemu alebo nepriamemu nátlaku, ohroziť psychickú autonómiu a duševné zdravie alebo viesť k neoprávnenému sledovaniu, podvodnému konaniu alebo neprípustnému manipulovaniu;

30.

je presvedčený, že základné ľudské práva zakotvené v charte by sa mali prísne dodržiavať, aby sa zabezpečilo, aby tieto vznikajúce technológie nevytvárali medzery z hľadiska ochrany;

31.

potvrdzuje, že možná zaujatosť a diskriminácia prostredníctvom softvéru, algoritmov a údajov môžu jednotlivcom a spoločnosti spôsobiť zjavnú škodu, a preto by sa mali riešiť podporovaním rozvoja a spoločného využívania stratégií určených na boj proti nim, ako je zabezpečenie objektívnosti dátových súborov vo výskume a vývoji, a vytvorením pravidiel spracúvania údajov; domnieva sa, že tento prístup má potenciál premeniť softvér, algoritmy a údaje na výhodu v boji proti predsudkom a diskriminácii v určitých situáciách a na silu pri presadzovaní rovnakých práv a pozitívnych sociálnych zmien;

32.

domnieva sa, že základom týchto technológií by mali byť etické hodnoty spravodlivosti, presnosti, dôvernosti a transparentnosti, čo v tejto súvislosti znamená, že by mali fungovať tak, aby negenerovali neobjektívne výstupy;

33.

zdôrazňuje význam kvality dátových súborov používaných na umelú inteligenciu, robotiku a súvisiace technológie v závislosti od ich kontextu, najmä pokiaľ ide o reprezentatívnosť testovacích dát, od odstraňovania predpojatosti súborov údajov, od použitých algoritmov a od dát a noriem pre ich agregáciu; zdôrazňuje, že tieto dátové súbory by mali byť na požiadanie kedykoľvek kontrolovateľné vnútroštátnymi orgánmi dohľadu, aby sa zabezpečil ich súlad s uvedenými zásadami;

34.

zdôrazňuje, že v súvislosti s rozšírenou dezinformačnou vojnou, ktorú vedú najmä neeurópske subjekty, by technológie umelej inteligencie mohli mať eticky nepriaznivé účinky prostredníctvom skreslenia údajov a algoritmov alebo zámerným využitím testovacích dát zo strany tretej krajiny a mohli by byť tiež vystavené ďalším formám nebezpečnej škodlivej manipulácie nepredvídateľnými spôsobmi a s nedozernými následkami; preto je potrebné, aby Únia naďalej investovala do výskumu, analýzy, inovácií a cezhraničného a medziodvetvového prenosu poznatkov s cieľom rozvíjať technológie umelej inteligencie, ktoré by boli jednoznačne zbavené akýchkoľvek profilov, predsudkov a diskriminácie a mohli by účinne prispievať k boju proti falošným správam a dezinformáciám pri súčasnom rešpektovaní ochrany osobných údajov a právneho rámca Únie;

35.

pripomína, že je dôležité zabezpečiť, aby mali jednotlivci k dispozícii účinné nápravné prostriedky, a vyzýva členské štáty, aby zabezpečili prístupné, cenovo dostupné, nezávislé a účinné postupy a mechanizmy preskúmania, ktoré by zaručovali nestranné ľudské posúdenie všetkých prípadov údajného porušenia práv, ako sú práva spotrebiteľov alebo občianske práva, prostredníctvom využívania algoritmických systémov, či už pochádzajú od subjektov verejného alebo súkromného sektora; zdôrazňuje význam návrhu smernice Európskeho parlamentu a Rady o žalobách v zastúpení na ochranu kolektívnych záujmov spotrebiteľov a o zrušení smernice 2009/22/ES, o ktorej bola dosiahnutá politická dohoda 22. júna 2020, pokiaľ ide o budúce prípady spochybňujúce zavedenie alebo trvalé používanie systému umelej inteligencie, ktoré znamenajú riziko porušenia práv spotrebiteľa, alebo o hľadanie nápravných opatrení v prípade porušenia práv; žiada Komisiu a členské štáty, aby zabezpečili, aby vnútroštátne spotrebiteľské organizácie a spotrebiteľské organizácie Únie mali dostatočné financovanie na pomoc spotrebiteľom pri uplatňovaní ich práva na nápravu v prípade porušenia ich práv;

36.

domnieva sa preto, že každá fyzická alebo právnická osoba by mala mať možnosť požadovať nápravu rozhodnutia prijatého umelou inteligenciou, robotikou alebo súvisiacou technológiou v jej neprospech v rozpore s právom Únie alebo vnútroštátnym právom;

37.

domnieva sa, že ako prvé kontaktné miesto v prípadoch podozrenia z porušenia regulačného rámca Únie v tejto súvislosti by prvým kontaktným miestom pre spotrebiteľov žiadajúci nápravu mohli byť vnútroštátne orgány dohľadu, s cieľom zabezpečiť účinné uplatňovanie uvedeného rámca;

Sociálna zodpovednosť a rodová rovnováha

38.

zdôrazňuje, že sociálne zodpovedná umelá inteligencia, robotika a súvisiace technológie musia zohrávať úlohu pri hľadaní riešení, ktoré chránia a podporujú základné práva a hodnoty našej spoločnosti, ako sú demokracia, právny štát, rozmanité a nezávislé médiá a objektívne a voľne dostupné informácie, zdravie a hospodárska prosperita, rovnosť príležitostí, pracovné a sociálne práva, kvalitné vzdelávanie, ochrana detí, kultúrna a jazyková rozmanitosť, rodová rovnosť, digitálna gramotnosť, inovácie a tvorivosť; pripomína, že je potrebné zabezpečiť, aby boli primerane zohľadnené a zastúpené záujmy všetkých občanov vrátane tých, ktorí sú na okraji spoločnosti alebo sú v zraniteľnej situácii, napríklad osôb so zdravotným postihnutím;

39.

zdôrazňuje význam dosiahnutia vysokej úrovne všeobecnej digitálnej gramotnosti a odbornej prípravy vysokokvalifikovaných odborníkov v tejto oblasti, ako aj zabezpečenia vzájomného uznávania týchto kvalifikácií v celej Únii; zdôrazňuje, že je potrebné, aby rôzne tímy vývojárov a inžinierov spolupracovali s hlavnými spoločenskými aktérmi s cieľom zabrániť nechcenému zahrnutiu rodových a kultúrnych predsudkov do algoritmov, systémov a aplikácií umelej inteligencie; podporuje vytváranie vzdelávacích osnov a činností zameraných na zvyšovanie povedomia verejnosti v oblasti spoločenského, právneho a etického vplyvu umelej inteligencie;

40.

zdôrazňuje zásadný význam zaručenia slobody myslenia a prejavu, čím sa zabezpečí, aby tieto technológie nepodporovali nenávistné prejavy alebo násilie; preto považuje zabránenie digitálnej slobode prejavu alebo jej obmedzovanie za nezákonné podľa základných zásad Únie, okrem prípadov, keď výkon tejto základnej slobody zahŕňa nezákonné činy;

41.

zdôrazňuje, že umelá inteligencia, robotika a súvisiace technológie môžu prispieť k zníženiu sociálnych nerovností, a tvrdí, že európsky model ich rozvoja musí byť založený na dôvere občanov a väčšej sociálnej súdržnosti;

42.

zdôrazňuje, že nasadenie akéhokoľvek systému umelej inteligencie by nemalo neprimerane obmedzovať prístup používateľov k verejným službám, ako je sociálne zabezpečenie; vyzýva preto Komisiu, aby posúdila, ako možno tento cieľ dosiahnuť;

43.

zdôrazňuje význam zodpovedného výskumu a vývoja zameraných na maximalizáciu plného potenciálu umelej inteligencie, robotiky a súvisiacich technológií pre občanov a verejné blaho; vyzýva na mobilizáciu zdrojov zo strany Únie a jej členských štátov s cieľom rozvíjať a podporovať zodpovedné inovácie;

44.

zdôrazňuje, že technologická expertíza bude čoraz dôležitejšia, a preto bude potrebné neustále aktualizovať kurzy odbornej prípravy, najmä pre budúce generácie, a podporovať odbornú rekvalifikáciu tých, ktorí sú už na trhu práce; v tejto súvislosti trvá na tom, že inovácie a odborná príprava by sa mali podporovať nielen v súkromnom, ale aj vo verejnom sektore;

45.

zastáva názor, že vývoj, nasadenie a používanie týchto technológií by nemali spôsobovať jednotlivcom ani spoločnosti, ani životnému prostrediu žiadnu ujmu alebo škodu, a že vývojári, nasadzujúce subjekty a používatelia týchto technológií by preto mali niesť zodpovednosť za takúto ujmu alebo škodu v súlade s príslušnými pravidlami Únie a vnútroštátnymi pravidlami zodpovednosti;

46.

vyzýva členské štáty, aby posúdili, či by strata pracovných miest v dôsledku nasadzovania týchto technológií mala viesť k vhodným verejným politikám, ako je skrátenie pracovného času;

47.

trvá na tom, že dizajnový prístup založený na hodnotách a etických zásadách Únie je veľmi potrebný na vytvorenie podmienok pre širokú sociálnu akceptáciu umelej inteligencie, robotiky a súvisiacich technológií; považuje tento prístup zameraný na rozvoj dôveryhodnej, eticky zodpovednej a technicky prepracovanej umelej inteligencie za dôležitý faktor umožňujúci udržateľnú a inteligentnú mobilitu, ktorá je bezpečná a prístupná;

48.

upriamuje pozornosť na vysokú pridanú hodnotu autonómnych vozidiel pre osoby so zníženou pohyblivosťou, pretože takéto vozidlá umožňujú takýmto osobám účinnejšie sa podieľať na individuálnej cestnej doprave, a tým im uľahčujú každodenný život; zdôrazňuje význam prístupnosti, najmä pri vytváraní systémov MaaS (mobilita ako služba);

49.

vyzýva Komisiu, aby ďalej podporovala rozvoj dôveryhodných systémov umelej inteligencie s cieľom zabezpečiť, aby bola doprava bezpečnejšia, efektívnejšia, prístupnejšia, cenovo dostupná a inkluzívna, a to aj pre osoby so zníženou pohyblivosťou, najmä pre osoby so zdravotným postihnutím, a to so zreteľom na smernicu Európskeho parlamentu a Rady (EÚ) 2019/882 (13) a právo Únie týkajúce sa práv cestujúcich;

50.

domnieva sa, že umelá inteligencia môže pomôcť lepšie využívať zručnosti a schopnosti ľudí so zdravotným postihnutím a že uplatňovanie umelej inteligencie na pracovisku môže prispieť k inkluzívnym trhom práce a vyšším mieram zamestnanosti osôb so zdravotným postihnutím;

Životné prostredie a udržateľnosť

51.

vyhlasuje, že vlády a podniky by mali využívať umelú inteligenciu, robotiku a súvisiace technológie v prospech ľudí a planéty tak, aby boli prínosné pre ľudí i pre planétu, prispievali k dosahovaniu cieľov udržateľného rozvoja, ochrany životného prostredia, klimatickej neutrality a obehového hospodárstva; vývoj, nasadzovanie a používanie týchto technológií by v súlade s právnymi predpismi Únie mali prispievať k zelenej transformácii, chrániť životné prostredie a minimalizovať a naprávať všetky škody spôsobené na životnom prostredí počas ich životného cyklu a v celom ich dodávateľskom reťazci v súlade s právnymi predpismi Únie;

52.

vzhľadom na ich významný vplyv na životné prostredie na účely predchádzajúceho odseku by orgány špecifické pre dané odvetvie mohli v prípade potreby a vhodnosti vyhodnocovať vplyv vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií na životné prostredie počas celej ich životnosti; takéto hodnotenie by mohlo zahŕňať odhad vplyvu ťažby potrebných materiálov, spotreby energie a emisií skleníkových plynov spôsobených ich vývojom, nasadením a využívaním;

53.

navrhuje, aby sa na účely vývoja zodpovedných najmodernejších riešení umelej inteligencie preskúmal, stimuloval a maximalizoval potenciál umelej inteligencie, robotiky a súvisiacich technológií prostredníctvom zodpovedného výskumu a vývoja, ktorý si vyžaduje mobilizáciu zdrojov zo strany Únie a jej členských štátov;

54.

zdôrazňuje, že vývoj, nasadzovanie a používanie týchto technológií poskytujú príležitosti na presadzovanie cieľov udržateľného rozvoja, ktoré určila Organizácia Spojených národov, globálnej energetickej transformácie a dekarbonizácie;

55.

domnieva sa, že ciele sociálnej zodpovednosti, rodovej rovnosti, ochrany životného prostredia a udržateľnosti by nemali mať vplyv na existujúce všeobecné a odvetvové povinnosti v týchto oblastiach; domnieva sa, že by sa mali stanoviť nezáväzné vykonávacie usmernenia pre vývojárov, nasadzujúce subjekty a používateľov, najmä vysokorizikových technológií, pokiaľ ide o metodiku posudzovania ich súladu s týmto nariadením a dosiahnutie týchto cieľov;

56.

vyzýva Úniu, aby podporovala a financovala vývoj umelej inteligencie, robotiky a súvisiacich technológií zameraných na človeka, ktoré budú riešiť výzvy v oblasti životného prostredia a klímy a zabezpečia dodržiavanie základných práv prostredníctvom využívania daňových, obstarávacích alebo iných stimulov;

57.

zdôrazňuje, že napriek súčasnej vysokej uhlíkovej stope vývoja, nasadzovania a využívania umelej inteligencie, robotiky a súvisiacich technológií vrátane automatizovaných rozhodnutí a strojového učenia môžu tieto technológie prispieť k zníženiu súčasnej environmentálnej stopy odvetvia IKT; kladie dôraz na to, že tieto a ďalšie náležite regulované súvisiace technológie by mali byť kľúčovými faktormi, ktoré umožnia dosiahnutie cieľov zelenej dohody, cieľov OSN v oblasti udržateľného rozvoja a Parížskej dohody v mnohých rôznych odvetviach, a mali by posilniť vplyv politík zabezpečujúcich ochranu životného prostredia, napríklad politík týkajúcich sa znižovania odpadu a zhoršovania stavu životného prostredia;

58.

vyzýva Komisiu, aby vypracovala štúdiu o vplyve uhlíkovej stopy technológie umelej inteligencie a o pozitívnych a negatívnych vplyvoch prechodu na používanie technológie umelej inteligencie spotrebiteľmi;

59.

konštatuje, že vzhľadom na narastajúci vývoj aplikácií umelej inteligencie, ktoré si vyžadujú výpočtové, skladovacie a energetické zdroje, by sa počas celého ich životného cyklu mal posudzovať vplyv systémov umelej inteligencie na životné prostredie;

60.

domnieva sa, že v oblastiach ako zdravie musí zodpovednosť niesť v konečnom dôsledku fyzická alebo právnická osoba; zdôrazňuje potrebu vysledovateľných a verejne dostupných trénovacích množín pre algoritmy;

61.

dôrazne podporuje vytvorenie európskeho priestoru pre údaje týkajúce sa zdravia, ktorý navrhla Komisia vo svojom oznámení o Európskej dátovej stratégii a ktorý by bol zameraný na podporu výmeny údajov týkajúcich sa zdravia a na podporu výskumu pri plnom rešpektovaní ochrany údajov vrátane spracúvania údajov technológiou umelej inteligencie a posilňoval a rozširoval by využívanie a opätovné využívanie zdravotníckych dát; nabáda na rozšírenie cezhraničnej výmeny údajov týkajúcich sa zdravia, ich prepojenie a využívanie prostredníctvom bezpečných a zjednotených registrov, osobitných druhov informácií o zdraví, ako sú európske zdravotné záznamy, genomické informácie a digitálne zdravotné snímky, s cieľom uľahčiť interoperabilné registre alebo databázy v celej Únii v oblastiach, ako sú výskum, veda a zdravotníctvo;

62.

zdôrazňuje prínos umelej inteligencie pre prevenciu, liečbu a kontrolu chorôb, čoho príkladom je skutočnosť, že umelá inteligencia predvídala epidémiu COVID-19 skôr ako WHO; naliehavo vyzýva Komisiu, aby ECDC primerane vybavila regulačným rámcom a zdrojmi na nezávislý zber nevyhnutných anonymizovaných globálnych údajov o zdraví v reálnom čase v spolupráci s členskými štátmi s cieľom riešiť okrem iného problémy odhalené krízou spôsobenou ochorením COVID-19;

Ochrana súkromia a biometrické rozpoznávanie

63.

poznamenáva, že produkovanie a používanie údajov vrátane osobných údajov, ako sú biometrické údaje, ktoré sú výsledkom vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií, rýchlo rastie, čo zdôrazňuje potrebu rešpektovať a presadzovať práva občanov na súkromie a ochranu osobných údajov v súlade s právom Únie;

64.

poukazuje na to, že možnosť, ktorú tieto technológie ponúkajú pri používaní osobných a iných ako osobných údajov na kategorizáciu a mikrozacielenie ľudí, identifikáciu zraniteľných miest jednotlivcov alebo využívanie presných prediktívnych poznatkov, musí byť vyvážená účinne presadzovanou ochranou údajov a zásadami súkromia, ako je minimalizácia údajov, právo namietať proti profilovaniu a právo na správu vlastných údajov, právo na získanie vysvetlenia rozhodnutia založeného na automatizovanom spracúvaní údajov a ochranu súkromia už v štádiu návrhu, ako aj zásadami proporcionality, nevyhnutnosti a obmedzenia na základe prísne vymedzených účelov v súlade s GDPR;

65.

zdôrazňuje, že keď orgány verejnej moci používajú technológie rozpoznávania na diaľku, ako je rozpoznávanie biometrických znakov, najmä rozpoznávanie tváre, na podstatné účely verejného záujmu, ich používanie by sa malo vždy zverejniť, malo by byť primerané, cielené a obmedzené na konkrétne ciele, malo by byť časovo obmedzené v súlade s právom Únie a malo by náležite zohľadňovať ľudskú dôstojnosť, autonómiu a základné práva stanovené v charte. Kritériá a obmedzenia tohto používania by mali podliehať súdnemu preskúmaniu a demokratickej kontrole a mali by zohľadňovať jeho psychologický a sociálno-kultúrny vplyv na občiansku spoločnosť;

66.

zdôrazňuje, že hoci nasadzovanie umelej inteligencie, robotiky a súvisiacich technológií v rámci rozhodnutí o verejnej moci má prínos, môže to viesť k vážnemu zneužitiu, ako je hromadné sledovanie, prediktívna policajná činnosť a porušovanie riadnych procesných práv;

67.

domnieva sa, že k technológiám, ktoré môžu generovať automatizované rozhodnutia, a tým nahradiť rozhodnutia prijaté verejnými orgánmi, by sa malo pristupovať čo najobozretnejšie, najmä v oblasti spravodlivosti a presadzovania práva;

68.

domnieva sa, že členské štáty by mali využívať takéto technológie len vtedy, ak existujú pádne dôkazy o ich dôveryhodnosti a ak je možný alebo systematicky uplatniteľný zmysluplný ľudský zásah a preskúmanie v prípadoch, keď ide o základné slobody; zdôrazňuje, že je dôležité, aby vnútroštátne orgány vykonávali prísne posúdenie vplyvu systémov umelej inteligencie nasadzovaných v týchto prípadoch na základné práva, najmä v nadväznosti na posúdenie týchto technológií ako vysokorizikových;

69.

zastáva názor, že každé rozhodnutie prijaté umelou inteligenciou, robotikou alebo súvisiacimi technológiami v rámci výsad verejnej moci by malo podliehať zmysluplnému ľudskému zásahu a riadnemu procesu, najmä po posúdení týchto technológií ako vysoko rizikových;

70.

domnieva sa, že technologický pokrok by nemal viesť k využívaniu umelej inteligencie, robotiky a súvisiacich technológií na samostatné prijímanie rozhodnutí verejného sektora, ktoré majú priamy a významný vplyv na práva a povinnosti občanov;

71.

konštatuje, že umelá inteligencia, robotika a súvisiace technológie v oblasti presadzovania práva a kontroly hraníc by mohli zvýšiť bezpečnosť a ochranu verejnosti, ale že si zároveň vyžadujú rozsiahlu a dôkladnú verejnú kontrolu a najvyššiu možnú úroveň transparentnosti, pokiaľ ide o posudzovanie rizika jednotlivých aplikácií, ako aj všeobecný prehľad o využívaní umelej inteligencie, robotiky a súvisiacich technológií v oblasti presadzovania práva a kontroly hraníc; domnieva sa, že tieto technológie sú spojené so značnými etickými rizikami, ktoré sa musia primerane riešiť vzhľadom na možné nepriaznivé účinky na jednotlivcov, najmä pokiaľ ide o ich právo na súkromie, ochranu údajov a nediskrimináciu; zdôrazňuje, že zneužívanie týchto technológií sa môže stať priamou hrozbou pre demokraciu a že ich nasadzovanie a používanie musí byť v súlade so zásadami primeranosti a nevyhnutnosti, chartou, ako aj príslušnými sekundárnymi právnymi predpismi Únie, ako sú pravidlá v oblasti ochrany údajov; zdôrazňuje, že umelá inteligencia by nikdy nemala nahradiť ľudí pri vydávaní rozsudkov; domnieva sa, že rozhodnutia, ako je napríklad uloženie kaucie alebo podmienečného trestu súdom, alebo rozhodnutia založené výlučne na automatizovanom spracúvaní údajov, ktoré majú právny účinok na jednotlivcov alebo ktoré sa ich významným spôsobom týkajú, musia vždy zahŕňať zmysluplné posúdenie a uváženie zo strany človeka;

Dobré riadenie

72.

zdôrazňuje, že primerané riadenie vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií, najmä vysoko rizikových technológií prostredníctvom zavedenia opatrení zameraných na zodpovednosť a riešenie potenciálnych rizík zaujatosti a diskriminácie, môže zvýšiť bezpečnosť občanov a ich dôveru v tieto technológie;

73.

domnieva sa, že spoločný rámec pre riadenie týchto technológií koordinovaný Komisiou a/alebo akýmikoľvek príslušnými inštitúciami, orgánmi, úradmi alebo agentúrami Únie, ktoré môžu byť v tejto súvislosti určené na túto úlohu, ktorý majú vykonávať vnútroštátne orgány dohľadu v každom členskom štáte, by zabezpečil súdržný únijný prístup a zabránil fragmentácii jednotného trhu;

74.

poznamenáva, že pri vývoji umelej inteligencie, robotiky a súvisiacich technológií sa používa veľký objem údajov a že spracovanie a výmena týchto údajov a prístup k nim musia byť riadené v súlade s právnymi predpismi a požiadavkami na kvalitu, integritu, interoperabilitu, bezpečnosť, súkromie a kontrolu, ktoré sú v nich stanovené;

75.

pripomína, že prístup k údajom je základnou zložkou rastu digitálneho hospodárstva; v tejto súvislosti poukazuje na to, že interoperabilita údajov obmedzením efektov odkázanosti zohráva kľúčovú úlohu pri zabezpečovaní spravodlivých trhových podmienok a presadzovaní rovnakých podmienok na jednotnom digitálnom trhu;

76.

zdôrazňuje, že je potrebné zabezpečiť primeranú ochranu osobných údajov, najmä údajov o ľuďoch zo zraniteľných skupín alebo pochádzajúcich zo zraniteľných skupín, ako sú osoby so zdravotným postihnutím, pacienti, deti, staršie osoby, menšiny, migranti a iné skupiny, ktorým hrozí vylúčenie;

77.

konštatuje, že vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií verejnými orgánmi sú často zadávané súkromným subjektom; domnieva sa, že by to nemalo žiadnym spôsobom ohroziť ochranu verejných hodnôt a základných práv; domnieva sa, že podmienky verejného obstarávania by mali odrážať etické normy uložené verejným orgánom, ak sú uplatniteľné;

Spotrebitelia a vnútorný trh

78.

zdôrazňuje význam uplatňovania regulačného rámca pre umelú inteligenciu v prípadoch, keď sú spotrebitelia v Únii používateľmi alebo cieľmi algoritmického systému alebo sú naň navádzaní, a to bez ohľadu na miesto usadenia subjektov, ktoré tento systém vyvíjajú, predávajú alebo využívajú; okrem toho sa domnieva, že v záujme právnej istoty by sa pravidlá stanovené v takomto rámci mali vzťahovať na všetkých vývojárov a uplatňovať v celom hodnotovom reťazci, konkrétne vo vývoji, nasadzovaní a používaní príslušných technológií a ich zložiek, a mali by zaručovať vysokú úroveň ochrany spotrebiteľa;

79.

konštatuje že umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ako aj oblasti, ako sú internet vecí, strojové učenie, systémy založené na pravidlách alebo automatizované či asistované rozhodovanie, sú neodmysliteľne prepojené; ďalej konštatuje, že by sa mohli vyvinúť štandardizované ikony, ktoré by pomohli vysvetliť takéto systémy spotrebiteľom, pokiaľ by sa tieto systémy vyznačovali zložitosťou alebo mohli prijímať rozhodnutia, ktoré majú výrazný vplyv na životy spotrebiteľov;

80.

pripomína, že Komisia by mala preskúmať existujúci právny rámec a jeho uplatňovanie vrátane acquis v oblasti spotrebiteľského práva, právnych predpisov o zodpovednosti za výrobky, o bezpečnosti výrobkov a o dohľade nad trhom s cieľom identifikovať medzery v práve, ako aj existujúce regulačné povinnosti; domnieva sa, že je to potrebné s cieľom preveriť, či je schopný reagovať na nové výzvy súvisiace s príchodom umelej inteligencie, robotiky a súvisiacich technológií a zabezpečiť vysokú úroveň ochrany spotrebiteľa;

81.

zdôrazňuje, že treba účinne riešiť výzvy, ktoré prinášajú umelá inteligencia, robotika a súvisiace technológie a zabezpečiť, aby mali spotrebitelia silné postavenie a aby boli náležite chránení; zdôrazňuje potrebu hľadieť nad rámec tradičných zásad informovania a zverejňovania, na ktorých sa zakladá acquis v oblasti spotrebiteľského práva, pretože silnejšie práva spotrebiteľov a jasné obmedzenia týkajúce sa vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií budú potrebné na zabezpečenie toho, aby technológia prispievala k lepšiemu životu spotrebiteľov a aby sa vyvíjala spôsobom, ktorý rešpektuje základné práva, práva spotrebiteľov a hodnoty Únie;

82.

poukazuje na to, že legislatívny rámec zavedený rozhodnutím č. 768/2008/ES (14) stanovuje harmonizovaný zoznam povinností výrobcov, dovozcov a distribútorov, podnecuje k používaniu noriem a určuje niekoľko úrovní kontroly v závislosti od nebezpečnosti výrobku; domnieva sa, že tento rámec by sa mal vzťahovať aj na produkty so zabudovanou umelou inteligenciou;

83.

konštatuje, že na účely analýzy vplyvov umelej inteligencie, robotiky a súvisiacich technológií na spotrebiteľov by sa prístup k údajom mohol pri plnom dodržiavaní práva Únie, napríklad práva týkajúceho sa ochrany údajov, súkromia a obchodného tajomstva, rozšíriť na príslušné vnútroštátne orgány; pripomína, že je dôležité vzdelávať spotrebiteľov, aby boli pri práci s umelou inteligenciou, robotikou a súvisiacimi technológiami informovanejší a mali v tejto oblasti viac zručností, s cieľom chrániť ich pred potenciálnymi rizikami a zachovať ich práva;

84.

vyzýva Komisiu, aby navrhla opatrenia na vysledovateľnosť údajov so zreteľom na zákonnosť získavania údajov, ako aj na ochranu práv spotrebiteľov a základných práv pri plnom rešpektovaní práva Únie, ako je právo týkajúce sa ochrany údajov, súkromia, práv duševného vlastníctva a obchodného tajomstva;

85.

konštatuje, že tieto technológie by mali byť zamerané na používateľov a navrhnuté tak, aby umožnili používať produkty alebo služby umelej inteligencie všetkým osobám bez ohľadu na ich vek, pohlavie, schopnosti alebo vlastnosti; konštatuje, že mimoriadne dôležitá je ich prístupnosť pre osoby so zdravotným postihnutím; poznamenáva, že by nemal existovať jeden univerzálny prístup a mali by sa zvážiť zásady dizajnu pre všetkých zamerané na čo najširšie spektrum používateľov, a to podľa príslušných noriem v oblasti prístupnosti; zdôrazňuje, že to jednotlivcom umožní spravodlivý prístup k existujúcim a vznikajúcim ľudským činnostiam sprostredkovaným počítačom a k podporným technológiám, ako aj aktívnu účasť na nich.

86.

zdôrazňuje, že v prípadoch, keď k vývoju, nasadzovaniu alebo používaniu umelej inteligencie, robotiky a súvisiacich technológií popri otvorenom obstarávaní a otvorených normách udeľovania zmlúv výrazne prispievajú finančné prostriedky z verejných zdrojov, mala by sa zvážiť možnosť zabezpečiť, aby boli kód, vygenerované údaje – pokiaľ nejde o osobné údaje – a model vytvorený na základe trénovania po dohode s vývojárom štandardne verejné, aby sa zaručila ich transparentnosť, posilnila kybernetická bezpečnosť a umožnilo sa ich opätovné použitie s cieľom podnietiť inovácie; zdôrazňuje, že týmto spôsobom možno plne využiť potenciál jednotného trhu a predísť tak jeho roztrieštenosti;

87.

domnieva sa, že umelá inteligencia, robotika a súvisiace technológie majú obrovský potenciál priniesť spotrebiteľom príležitosť na zlepšenie mnohých aspektov života spolu s lepšími výrobkami a službami, a môžu priniesť úžitok z lepšieho dohľadu nad trhom, a to za predpokladu, že sa budú naďalej uplatňovať všetky platné zásady, podmienky vrátane transparentnosti a auditovateľnosti a právne predpisy;

Bezpečnosť a obrana

88.

zdôrazňuje, že bezpečnostné a obranné politiky Európskej únie a jej členských štátov sa riadia zásadami zakotvenými v charte a zásadami Charty Organizácie Spojených národov a spoločným chápaním všeobecných hodnôt dodržiavania nedotknuteľných a neodňateľných práv človeka, ľudskej dôstojnosti, slobody, demokracie, rovnosti a právneho štátu; zdôrazňuje, že všetko úsilie súvisiace s obranou v rámci Únie musí rešpektovať tieto všeobecné hodnoty a zároveň podporovať mier, bezpečnosť a pokrok v Európe a vo svete;

89.

víta 11 hlavných zásad rozvoja a používania autonómnych zbraňových systémov, ktoré vysoké zmluvné strany dohovoru Organizácie Spojených národov o používaní určitých konvenčných zbraní (CCW) prijali na zasadnutí v roku 2019; vyjadruje však poľutovanie nad tým, že sa nedosiahla dohoda o právne záväznom nástroji, ktorý by upravoval smrtiace autonómne zbraňové systémy (LAWS) a zahŕňal by účinný mechanizmus presadzovania; víta a podporuje správu expertnej skupiny Komisie na vysokej úrovni pre umelú inteligenciu s názvom Etické usmernenia pre dôveryhodnú umelú inteligenciu, ktorá bola uverejnená 9. apríla 2019, ako aj jej stanovisko k smrtiacim autonómnym zbraňovým systémom; naliehavo vyzýva členské štáty, aby vypracovali vnútroštátne stratégie na vymedzenie a určenie statusu smrtiacich autonómnych zbraňových systémov s cieľom vytvoriť komplexnú stratégiu na úrovni EÚ a aby spolu s vysokým predstaviteľom Únie/podpredsedom Komisie (VP/PK) a Radou presadzovali rokovania o LAWS v rámci CCW OSN a iných príslušných fór a zavedenie medzinárodných noriem týkajúcich sa etických a právnych parametrov vývoja a využívania plne autonómnych, poloautonómnych a diaľkovo ovládaných smrtiacich zbraňových systémov; v tejto súvislosti pripomína svoje uznesenie o autonómnych zbraňových systémoch z 12. septembra 2018 a opätovne vyzýva na urýchlené vypracovanie a prijatie spoločnej pozície k smrtiacim autonómnym zbraňovým systémom a na medzinárodný zákaz vývoja, výroby a používania smrtiacich autonómnych zbraňových systémov, ktoré by umožnili vykonávať útoky bez zmysluplnej ľudskej kontroly a bez dodržiavania zásady human-in-the-loop, v súlade s vyhlásením najvýznamnejších svetových výskumných pracovníkov v oblasti umelej inteligencie v otvorenom liste z roku 2015; víta dohodu Rady a Parlamentu o vylúčení smrtiacich autonómnych zbraní „bez možnosti reálnej ľudskej kontroly nad rozhodnutiami o výbere cieľa a použití pri vykonávaní útokov“ z opatrení financovaných z Európskeho obranného fondu; domnieva sa, že etické aspekty ďalších uplatnení umelej inteligencie v obrane, ako sú spravodajstvo, sledovanie a prieskum alebo kybernetické operácie, sa nesmú prehliadať a osobitnú pozornosť treba venovať vývoju a nasadzovaniu bezpilotných lietadiel do vojenských operácií;

90.

zdôrazňuje, že vznikajúce technológie v odvetví obrany a bezpečnosti, na ktoré sa nevzťahuje medzinárodné právo, by sa mali posudzovať s prihliadnutím na zásadu rešpektovania ľudskosti a zásadných princípov verejného svedomia;

91.

odporúča, aby akýkoľvek európsky rámec upravujúci používanie systémov založených na umelej inteligencii v oblasti obrany, a to v bojových, ako aj v nebojových situáciách, rešpektoval všetky príslušné právne režimy, najmä medzinárodné humanitárne právo a medzinárodné právo v oblasti ľudských práv, a bol v súlade s právom, zásadami a hodnotami Únie majúc na zreteli nerovnosti v zmysle technickej a bezpečnostnej infraštruktúry v celej Únii;

92.

uznáva, že na rozdiel od obranných priemyselných základní by kľúčové inovácie v oblasti umelej inteligencie mohli pochádzať z malých členských štátov, a preto by štandardizovaný prístup SBOP mal zabezpečiť, aby menšie členské štáty a MSP neboli vytláčané; zdôrazňuje, že súbor spoločných kapacít EÚ v oblasti umelej inteligencie zladený s operačnými koncepciami členských štátov môže preklenúť technické medzery, ktoré by mohli zatláčať do úzadia štáty bez príslušných technológií, odvetvovej odbornosti alebo schopnosti zavádzať systémy umelej inteligencie v rámci svojich ministerstiev obrany;

93.

domnieva sa, že súčasné a budúce činnosti súvisiace s bezpečnosťou a obranou v rámci Únie budú vychádzať z umelej inteligencie, robotiky a autonómie, ako aj zo súvisiacich technológií a že spoľahlivá, stabilná a dôveryhodná umelá inteligencia by mohla prispieť k moderným a účinným ozbrojeným silám; Únia preto musí prevziať vedúcu úlohu vo výskume a vývoji systémov umelej inteligencie v oblasti bezpečnosti a obrany; domnieva sa, že používanie aplikácií s podporou umelej inteligencie v oblasti bezpečnosti a obrany by mohlo veliteľovi operácie priniesť množstvo priamych výhod, ako sú kvalitnejšie zozbierané údaje, lepšie situačné povedomie, vyššia rýchlosť rozhodovania, nižšie riziko vzniku vedľajších škôd vďaka lepšej kabeláži, ochrana pozemných síl, ako aj väčšia spoľahlivosť vojenského vybavenia, a tým aj menšie riziko pre ľudí a nižší počet ľudských obetí; zdôrazňuje, že pre zabezpečenie európskej strategickej autonómie v oblasti spôsobilostí a operácií je nevyhnutný rozvoj spoľahlivej umelej inteligencie v oblasti obrany; pripomína, že systémy umelej inteligencie sa stávajú kľúčovými prvkami v boji proti novým bezpečnostným hrozbám, ako sú kybernetické a hybridné vojny, v online i offline priestore; zároveň zdôrazňuje všetky riziká a výzvy spojené s neregulovaným používaním umelej inteligencie; konštatuje, že umelá inteligencia by mohla byť vystavená manipulácii, chybám a nepresnostiam;

94.

zdôrazňuje, že technológie založené na umelej inteligencii majú v podstate dvojaké využitie a rozvoj umelej inteligencie používanej pri činnostiach súvisiacich s obranou ťaží z výmen medzi vojenskými a civilnými technológiami; zdôrazňuje, že umelá inteligencia používaná pri činnostiach súvisiacich s obranou je prierezovou a prelomovou technológiou, ktorej rozvoj môže poskytnúť príležitosti pre konkurencieschopnosť a strategickú autonómiu Únie;

95.

uznáva, že v súčasnom kontexte hybridného a pokročilého vedenia vojny môžu byť objem a rýchlosť informácií počas počiatočných fáz krízy pre ľudských analytikov obrovské a že systém umelej inteligencie by mohol tieto informácie spracúvať, aby sa zabezpečilo, že osoby s rozhodovacou právomocou získavajú celé spektrum informácií v primeranom časovom rámci umožňujúcom rýchlu reakciu;

96.

zdôrazňuje význam investovania do rozvoja ľudského kapitálu pre umelú inteligenciu a podporovania potrebných zručností a vzdelávania v oblasti bezpečnostných a obranných technológií založených na umelej inteligencii s osobitným zameraním na etiku poloautonómnych a autonómnych operačných systémov na základe ľudskej zodpovednosti vo svete využívajúcom umelú inteligenciu; zdôrazňuje najmä, že je dôležité zabezpečiť, aby etici v tejto oblasti mali primerané zručnosti a aby absolvovali primeranú odbornú prípravu; vyzýva Komisiu, aby čo najskôr predstavila svoj program v oblasti zručností, ktorý bol oznámený v Bielej knihe o umelej inteligencii 19. februára 2020;

97.

zdôrazňuje, že kvantová výpočtová technika by mohla predstavovať najrevolučnejšiu zmenu v konflikte od čias vzniku atómových zbraní, a preto naliehavo žiada, aby sa ďalší rozvoj v tejto oblasti stal prioritou Únie a členských štátov; uznáva, že akty agresie vrátane útokov na kritickú infraštruktúru, ktoré sú podporované kvantovou výpočtovou technikou, vytvoria prostredie konfliktu, v ktorom sa čas na prijatie rozhodnutí dramaticky skráti z dní a hodín na minúty a sekundy, čo členské štáty prinúti rozvíjať spôsobilosti na svoju ochranu a školiť subjekty s rozhodovacou právomocou a vojenský personál, pokiaľ ide o účinnú reakciu v takomto časovom rámci;

98.

vyzýva na zvýšenie investícií do európskej umelej inteligencie v oblasti obrany a do kritickej infraštruktúry, o ktorú sa opiera;

99.

pripomína, že väčšina súčasných svetových vojenských mocností sa už zapojila do významného úsilia v oblasti výskumu a vývoja súvisiaceho s vojenským rozmerom umelej inteligencie; domnieva sa, že Únia musí zabezpečiť, aby v tomto ohľade nezaostávala;

100.

vyzýva Komisiu, aby začlenila budovanie kapacít v oblasti kybernetickej bezpečnosti do svojej priemyselnej politiky s cieľom zabezpečiť vývoj a nasadzovanie bezpečných, odolných a spoľahlivých systémov založených na umelej inteligencii a robotických systémov; vyzýva Komisiu, aby preskúmala používanie protokolov a aplikácií v oblasti kybernetickej bezpečnosti založených na technológii blockchain s cieľom zvýšiť odolnosť, dôveryhodnosť a spoľahlivosť infraštruktúry umelej inteligencie prostredníctvom modelov šifrovania údajov bez sprostredkovateľov; vyzýva európske zainteresované strany, aby preskúmali a navrhli pokročilé funkcie, ktoré by uľahčili odhaľovanie poruchových a škodlivých systémov založených na umelej inteligencii a robotických systémov, ktoré by mohli ohroziť bezpečnosť Únie a občanov;

101.

zdôrazňuje, že všetky systémy umelej inteligencie v oblasti obrany musia mať konkrétny a presne vymedzený rámec misie, v rámci ktorého si ľudia ponechajú možnosť odhaliť a vypnúť alebo deaktivovať nasadené systémy, ak prekročia rámec misie vymedzený a zadaný ľudským veliteľom alebo ak podniknú akékoľvek eskalačné alebo neplánované kroky; domnieva sa, že systémy, výrobky a technológie založené na umelej inteligencii, ktoré sú určené na vojenské účely, by mali byť vybavené „čiernou skrinkou“ na zaznamenávanie všetkých dátových transakcií vykonaných strojom;

102.

zdôrazňuje, že celkovú zodpovednosť za rozhodnutie navrhnúť, vyvinúť, nasadiť a používať systémy umelej inteligencie musia niesť ľudskí prevádzkovatelia, pretože pri výkone akéhokoľvek rozhodnutia zbraňových systémov založených na umelej inteligencii, ktoré by mohlo mať smrtiace následky, musí byť zabezpečené zmysluplné ľudské monitorovanie a kontrola nad každým zbraňovým systémom a v rozhodnutí o použití sily musí byť ľudský zámer; kladie dôraz na to, že by sa mala zachovať ľudská kontrola nad velením a kontrolou systémov založených na umelej inteligencii v súlade so zásadami „human-in-the loop“, „human-on-the-loop“ a „human-in-command“ na úrovni vojenského vedenia; zdôrazňuje, že systémy založené na umelej inteligencii musia vojenskému vedeniu ozbrojených síl umožniť prevziať plnú zodpovednosť za použitie smrtiacej sily a uplatňovať potrebnú úroveň úsudku, ktorým stroje nemôžu byť poverené, pretože takýto úsudok musí byť založený na rozlišovaní, primeranosti a obozretnosti, pri uskutočňovaní smrtiacich alebo rozsiahlych ničivých opatrení prostredníctvom takýchto systémov; kladie dôraz na potrebu stanoviť jasné a vysledovateľné rámce udeľovania povolení a zodpovednosti pri nasadzovaní inteligentných zbraní a iných systémov založených na umelej inteligencii, a to používaním jedinečných charakteristík používateľa, ako sú biometrické údaje, aby nasadenie mohol povoliť výlučne oprávnený personál;

Doprava

103.

zdôrazňuje potenciál využívania umelej inteligencie, robotiky a súvisiacich technológií pre všetky autonómne prostriedky cestnej, železničnej, vodnej a leteckej dopravy, ako aj pre posilnenie modálneho prechodu a intermodality, keďže takéto technológie môžu prispieť k nájdeniu optimálnej kombinácie druhov dopravy na účely prepravy tovaru a cestujúcich; okrem toho zdôrazňuje ich potenciál zefektívniť dopravné, logistické a dopravné toky a zabezpečiť, aby boli všetky spôsoby dopravy bezpečnejšie, inteligentnejšie a ekologickejšie; poukazuje na to, že etický prístup k umelej inteligencii možno vnímať aj ako systém včasného varovania, najmä pokiaľ ide o bezpečnosť a efektívnosť dopravy;

104.

zdôrazňuje skutočnosť, že celosvetová hospodárska súťaž medzi podnikmi a hospodárskymi regiónmi znamená, že Únia potrebuje podporovať investície a posilniť medzinárodnú konkurencieschopnosť spoločností pôsobiacich v odvetví dopravy, a to vytvorením priaznivého prostredia pre vývoj a uplatňovanie riešení v oblasti umelej inteligencie a ďalších inovácií, v ktorých sa podniky so sídlom v Únii môžu stať svetovými lídrami v rozvoji technológií umelej inteligencie;

105.

zdôrazňuje, že odvetvie dopravy v Únii potrebuje aktualizáciu regulačného rámca, pokiaľ ide o takéto vznikajúce technológie a ich využívanie v odvetví dopravy, a jasný etický rámec na dosiahnutie dôveryhodnej umelej inteligencie vrátane bezpečnosti, bezpečnostnej ochrany, rešpektovania aspektov týkajúcich sa ľudskej autonómie, dohľadu a zodpovednosti, čo zvýši prínosy, ktoré sú spoločné pre všetkých a ktoré budú mať zásadný význam pre podporu investícií do výskumu a inovácií, rozvoja zručností a využívania umelej inteligencie verejnými službami, malými a strednými podnikmi, začínajúcimi podnikmi a spoločnosťami, a zároveň zabezpečí ochranu údajov, ako aj interoperabilitu bez zbytočnej administratívnej záťaže pre podniky a spotrebiteľov;

106.

poznamenáva, že rozvoj a zavádzanie umelej inteligencie v odvetví dopravy nebude možné bez modernej infraštruktúry, ktorá je základnou súčasťou inteligentných dopravných systémov; zdôrazňuje, že pretrvávajúce rozdiely v úrovni rozvoja medzi členskými štátmi vytvárajú riziko, že najmenej rozvinuté regióny a ich obyvatelia prídu o výhody, ktoré plynú z rozvoja autonómnej mobility; vyzýva na primerané financovanie modernizácie dopravnej infraštruktúry v Únii vrátane jej začlenenia do siete 5G;

107.

odporúča vypracovanie celoeurópskych dôveryhodných noriem umelej inteligencie pre všetky druhy dopravy vrátane automobilového priemyslu a pre testovanie vozidiel využívajúcich umelú inteligenciu a súvisiace produkty a služby;

108.

poznamenáva, že systémy umelej inteligencie by mohli pomôcť znížiť počet smrteľných dopravných nehôd, napríklad prostredníctvom lepších časov reakcie a lepšieho dodržiavania pravidiel; domnieva sa však, že používanie autonómnych vozidiel nebude mať za následok odstránenie všetkých nehôd, a zdôrazňuje, že to znamená, že vysvetliteľnosť rozhodnutí umelej inteligencie sa stáva čoraz dôležitejšia, aby sa mohli odôvodniť nedostatky a neúmyselné dôsledky rozhodnutí umelej inteligencie;

Zamestnanosť, práva pracovníkov, digitálne zručnosti a pracovisko

109.

konštatuje, že uplatňovanie umelej inteligencie, robotiky a súvisiacich technológií na pracovisku môže prispievať k inkluzívnym trhom práce a mať dosah na zdravie a bezpečnosť pri práci, pričom sa môže použiť aj na monitorovanie, hodnotenie, predvídanie a riadenie výkonnosti pracovníkov s priamymi a nepriamymi dôsledkami pre ich kariéru; keďže umelá inteligencia by mala mať pozitívny vplyv na pracovné podmienky a mala by sa riadiť dodržiavaním ľudských práv, ako aj základných práv a hodnôt Únie; keďže umelá inteligencia by mala byť zameraná na človeka, zlepšovať blahobyt ľudí a spoločnosti a prispievať k spravodlivej a spravodlivej transformácii; takéto technológie by preto mali mať pozitívny vplyv na pracovné podmienky a riadiť sa dodržiavaním ľudských práv, ako aj základných práv a hodnôt Únie;

110.

zdôrazňuje potrebu rozvoja kompetencií prostredníctvom odbornej prípravy a vzdelávania pracovníkov a ich zástupcov, pokiaľ ide o umelú inteligenciu na pracovisku s cieľom lepšie pochopiť dôsledky riešení v oblasti umelej inteligencie; zdôrazňuje, že uchádzači a pracovníci by mali byť riadne písomne informovaní o tom, že sa v priebehu postupov náboru do zamestnania používa umelá inteligencia, a ako je v tomto prípade možné požiadať o preskúmanie človekom s cieľom zmeniť automatizované rozhodnutie;

111.

zdôrazňuje, že je potrebné zabezpečiť, aby prírastky produktivity v dôsledku rozvoja a využívania umelej inteligencie a robotiky slúžili nielen vlastníkom a akcionárom spoločnosti, ale aj prinášali výhody spoločnostiam a pracovnej sile prostredníctvom lepších pracovných podmienok a podmienok zamestnania vrátane miezd, hospodárskeho rastu a rozvoja, a slúžili aj spoločnosti vo všeobecnosti, najmä tam, kde takéto zisky vznikajú na úkor pracovných miest; vyzýva členské štáty, aby dôkladne preskúmali potenciálny vplyv umelej inteligencie na trh práce a systémy sociálneho zabezpečenia a aby vypracovali stratégie na zabezpečenie dlhodobej stability reformou daní a príspevkov, ako aj iných opatrení v prípade nižších verejných príjmov;

112.

zdôrazňuje význam podnikových investícií do formálnej a neformálnej odbornej prípravy a celoživotného vzdelávania s cieľom podporiť spravodlivý prechod na digitálne hospodárstvo; v tejto súvislosti zdôrazňuje, že spoločnosti, ktoré nasadzujú umelú inteligenciu, sú zodpovedné za poskytovanie primeranej rekvalifikácie a zvyšovania kvalifikácie všetkým dotknutým zamestnancom, aby sa naučili používať digitálne nástroje a vedeli spolupracovať s kolaboratívnymi robotmi a inými novými technológiami, a tak sa prispôsobili meniacim sa potrebám trhu práce a udržali si zamestnanie;

113.

domnieva sa, že osobitná pozornosť by sa mala venovať novým formám práce, ako sú príležitostné služby a práca pre platformy, ktoré sú výsledkom uplatňovania nových technológií v tejto súvislosti; zdôrazňuje, že aj regulácia podmienok práce na diaľku v celej Únii a zabezpečenie dôstojných pracovných podmienok a podmienok zamestnávania v digitálnom hospodárstve, musia zohľadňovať vplyv umelej inteligencie; vyzýva Komisiu, aby v tejto súvislosti konzultovala so sociálnymi partnermi, vývojármi umelej inteligencie, výskumníkmi a inými zainteresovanými stranami;

114.

zdôrazňuje, že umelá inteligencia, robotika a súvisiace technológie nesmú žiadnym spôsobom ovplyvniť výkon základných práv uznaných v členských štátoch a na úrovni Únie vrátane práva alebo slobody štrajkovať alebo prijímať iné opatrenia, na ktoré sa vzťahujú osobitné systémy pracovnoprávnych vzťahov v členských štátoch v súlade s vnútroštátnymi právnymi predpismi a/alebo praxou, ani ovplyvňovať právo vyjednávať, uzatvárať a presadzovať kolektívne zmluvy alebo podniknúť kolektívne opatrenie v súlade s vnútroštátnym právom a/alebo praxou;

115.

zdôrazňuje význam vzdelávania a kontinuálneho vzdelávania z hľadiska rozvoja kvalifikácií potrebných v digitálnom veku a boja proti digitálnemu vylúčeniu; vyzýva členské štáty, aby investovali do vysokokvalitného, citlivého a inkluzívneho vzdelávania, odbornej prípravy a systémov celoživotného vzdelávania, ako aj do politík v oblasti rekvalifikácie a zvyšovania kvalifikácie pracovníkov v odvetviach, ktoré sú potenciálne vážne postihnuté umelou inteligenciou; zdôrazňuje potrebu poskytnúť súčasnej a budúcej pracovnej sile potrebné zručnosti v oblasti čítania, počítania a digitálnych zručností, ako aj kompetencie v oblasti vedy, technológie, inžinierstva a matematiky (STEM) a prierezové mäkké zručnosti, ako sú kritické myslenie, tvorivosť a podnikavosť; zdôrazňuje, že v tejto súvislosti treba venovať osobitnú pozornosť začleneniu znevýhodnených skupín;

116.

pripomína, že umelá inteligencia, robotika a súvisiace technológie používané na pracovisku musia byť prístupné pre všetkých na základe zásady dizajnu pre všetkých;

Vzdelávanie a kultúra

117.

zdôrazňuje, že treba vypracovať kritériá na vývoj, nasadzovanie a používanie umelej inteligencie s prihliadnutím na ich vplyv vo vzdelávaní, v médiách, v oblasti mládeže, výskumu, športu a v kultúrnom a tvorivom sektore, a to stanovením noriem a vymedzením zásad eticky zodpovedného a prijateľného používania technológií umelej inteligencie, ktoré možno primerane uplatniť v týchto oblastiach vrátane jasného režimu zodpovednosti za produkty súvisiace s využívaním umelej inteligencie;

118.

konštatuje, že každé dieťa má právo na kvalitné verejné vzdelávanie na všetkých úrovniach; preto vyzýva na vývoj, nasadzovanie a používanie kvalitných systémov umelej inteligencie, ktoré by uľahčovali a zabezpečovali kvalitné vzdelávacie nástroje pre všetkých na všetkých úrovniach, a zdôrazňuje, že zavádzanie nových systémov umelej inteligencie do škôl by nemalo viesť k vytvoreniu väčšej digitálnej priepasti v spoločnosti; uznáva obrovský potenciálny prínos umelej inteligencie a robotiky pre vzdelávanie; konštatuje, že personalizované vzdelávacie systémy založené na umelej inteligencii by nemali nahrádzať vzdelávacie vzťahy zahŕňajúce učiteľov a nemalo by sa zabúdať na tradičné formy vzdelávania, pričom zároveň poukazuje na to, že učiteľom, ktorí sa snažia získať primerané zručnosti, sa musí poskytnúť finančná, technologická a vzdelávacia podpora vrátane špecializovanej odbornej prípravy v oblasti informačných a komunikačných technológií, aby sa dokázali prispôsobiť technologickým zmenám a aby nielen že mohli využívať potenciál umelej inteligencie, ale aby aj pochopili jej obmedzenia; vyzýva na vytvorenie stratégie na úrovni Únie s cieľom transformovať a aktualizovať naše vzdelávacie systémy, pripraviť naše vzdelávacie inštitúcie na všetkých úrovniach a vybaviť učiteľov a žiakov potrebnými zručnosťami a schopnosťami;

119.

zdôrazňuje, že vzdelávacie inštitúcie by sa mali zamerať na využívanie systémov umelej inteligencie na vzdelávacie účely, ktoré získali európske osvedčenie o dodržiavaní etických noriem;

120.

zdôrazňuje, že príležitosti, ktoré ponúka digitalizácia a nové technológie, nesmú viesť k celkovej strate pracovných miest v kultúrnom a kreatívnom priemysle, k zanedbávaniu ochrany originálov alebo k znižovaniu tradičného prístupu ku kultúrnemu dedičstvu, čo by sa malo rovnako podporovať; konštatuje, že systémy umelej inteligencie vyvinuté, nasadené a používané v Únii by mali zohľadňovať jej kultúrnu rozmanitosť a mnohojazyčnosť;

121.

uznáva rastúci potenciál umelej inteligencie v oblasti informácií, médií a online platforiem, a to aj ako nástroja na boj proti dezinformáciám v súlade s právnymi predpismi Únie; zdôrazňuje, že bez regulácie by mohla mať eticky nepriaznivé účinky spočívajúce v zaujatosti údajov a algoritmov, ktoré môžu viesť k šíreniu dezinformácií a vytváraniu informačných bublín; zdôrazňuje, že je dôležité, aby sa pri algoritmoch používaných spoločnosťami, ktoré ponúkajú platformy na zdieľanie videí, ako aj streamingové platformy, uplatňovali zásady transparentnosti a zodpovednosti, aby sa zabezpečil prístup ku kultúrne a jazykovo rozmanitému obsahu;

Vnútroštátne orgány dohľadu

122.

berie na vedomie pridanú hodnotu existencie vnútroštátnych orgánov dohľadu v každom členskom štáte, ktoré sú zodpovedné za zabezpečenie, posudzovanie a monitorovanie dodržiavania zákonných povinností a etických zásad pre vývoj, nasadzovanie a používanie vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií, a tak za prispievanie k zabezpečovaniu súladu týchto technológií s právnymi a etickými normami;

123.

domnieva sa, že od týchto orgánov sa musí vyžadovať, aby bez duplicity svojich úloh spolupracovali s orgánmi zodpovednými za vykonávanie odvetvových právnych predpisov s cieľom identifikovať technológie, ktoré sú z etického hľadiska vysoko rizikové, a s cieľom dohliadať na vykonávanie požadovaných a vhodných opatrení tam, kde sú takéto technológie identifikované;

124.

uvádza, že tieto orgány by mali byť v kontakte nielen medzi sebou, ale aj s Európskou komisiou a inými príslušnými inštitúciami, orgánmi, úradmi a agentúrami Únie s cieľom zabezpečiť jednotné cezhraničné opatrenia;

125.

navrhuje, aby sa v kontexte takejto spolupráce vypracovali spoločné kritériá a postup podávania žiadostí v súvislosti s udeľovaním európskeho osvedčenie o dodržiavaní etických noriem, a to aj po predložení žiadosti vývojárov, nasadzujúcich subjektov alebo používateľov technológií nepovažovaných za vysoko rizikové, ktorí chcú získať osvedčenie o kladnom posúdení súladu, ktoré vykonal príslušný vnútroštátny orgán dohľadu;

126.

žiada, aby tieto orgány boli poverené úlohou podporovať pravidelnú komunikáciu s občianskou spoločnosťou a inovácie v rámci Únie tým, že budú poskytovať pomoc výskumníkom, vývojárom a iným relevantným zainteresovaným stranám, ako aj menej digitálne rozvinutým spoločnostiam, najmä malým a stredným podnikom alebo startupom, najmä pokiaľ ide o zvyšovanie informovanosti a podporu vývoja, nasadzovania, odbornej prípravy a získavania talentov s cieľom zabezpečiť účinný transfer technológií a prístup k technológiám, projektom, výsledkom a sieťam;

127.

žiada, aby každý členský štát dostatočne financoval svoje určené vnútroštátne orgány dohľadu, a zdôrazňuje, že treba posilniť vnútroštátne orgány dohľadu nad trhom, pokiaľ ide o kapacity, zručnosti a kompetencie, ako aj znalosti o osobitných rizikách umelej inteligencie, robotiky a súvisiacich technológií;

Koordinácia na úrovni Únie

128.

zdôrazňuje význam koordinácie na úrovni Únie vykonávanej Komisiou a/alebo akýmikoľvek príslušnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť v tejto súvislosti určené, aby sa zabránilo fragmentácii a aby sa zabezpečil harmonizovaný prístup v celej Únii; domnieva sa, že koordinácia by sa mala zameriavať na mandáty a opatrenia vnútroštátnych orgánov dohľadu v každom členskom štáte, ako sa uvádza v predchádzajúcom pododdiele, ako aj na výmenu najlepších postupov medzi týmito orgánmi a prispievanie k spolupráci, pokiaľ ide o výskum a vývoj v tejto oblasti v celej Únii; vyzýva Komisiu, aby posúdila a našla najvhodnejšie riešenie na štruktúrovanie takejto koordinácie; príkladmi príslušných existujúcich inštitúcií, orgánov, úradov a agentúr Únie sú ENISA, EDPS a európsky ombudsman;

129.

domnieva sa, že takáto koordinácia, ako aj európske osvedčenie o etickom súlade, by boli nielen prínosom pre rozvoj výrobného odvetvia Únie a inovácií v tejto súvislosti, ale rovnako by prispeli k väčšej informovanosti občanov o príležitostiach a rizikách spojených s týmito technológiami;

130.

navrhuje, aby sa vytvorilo odborné centrum, ktoré by spájalo akademickú obec, výskum, priemysel a jednotlivých odborníkov na úrovni Únie, s cieľom podporiť výmenu poznatkov a technických odborných znalostí a uľahčiť spoluprácu v celej Únii a mimo nej; ďalej žiada, aby toto odborné centrum zahŕňalo zainteresované organizácie, napríklad organizácie na ochranu spotrebiteľov, s cieľom zabezpečiť široké zastúpenie spotrebiteľov; domnieva sa, že vzhľadom na možný neprimeraný vplyv algoritmických systémov na ženy a menšiny by mali byť rozhodovacie úrovne takejto štruktúry rôznorodé a mali by zaručiť rodovú rovnosť; zdôrazňuje, že členské štáty musia v rámci svojich stratégií dohľadu nad trhom vypracovať stratégie riadenia rizík spojených s umelou inteligenciou;

131.

navrhuje, aby Komisia a/alebo akékoľvek relevantné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť v tejto súvislosti poverené, poskytli vnútroštátnym orgánom dohľadu všetku potrebnú pomoc, pokiaľ ide o ich úlohu ako prvých kontaktných miest v prípadoch podozrenia z porušenia zákonných povinností a etických zásad stanovených v regulačnom rámci Únie pre umelú inteligenciu vrátane zásady nediskriminácie; mala by tiež poskytovať potrebnú pomoc vnútroštátnym orgánom dohľadu v prípadoch, keď tieto orgány vykonávajú posúdenia súladu s cieľom podporiť právo občanov brániť sa a na nápravu, a to prípadnou podporou konzultácií s inými príslušnými orgánmi v Únii, najmä so sieťou spolupráce v oblasti ochrany spotrebiteľa a vnútroštátnymi orgánmi na ochranu spotrebiteľa, organizáciami občianskej spoločnosti a sociálnymi partnermi so sídlom v iných členských štátoch;

132.

uznáva cenné výsledky expertnej skupiny na vysokej úrovni pre umelú inteligenciu, ktorá pozostáva zo zástupcov akademickej obce, občianskej spoločnosti a priemyslu, ako aj Európskej aliancie pre umelú inteligenciu, najmä Etické usmernenia pre dôveryhodnú umelú inteligenciu, a navrhuje, aby Komisia a/alebo akékoľvek príslušné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť v tejto súvislosti určené, mohli poskytovať odborné znalosti;

133.

berie na vedomie začlenenie projektov súvisiacich s umelou inteligenciou do Programu rozvoja európskeho priemyslu (EDIDP); domnieva sa, že budúci Európsky obranný fond a stála štruktúrovaná spolupráca (PESCO) tiež môžu ponúkať rámce pre budúce projekty súvisiace s umelou inteligenciou, ktoré by mohli pomôcť viac zefektívniť úsilie Únie v tejto oblasti a zároveň podporiť cieľ Únie spočívajúci v posilnení ľudských práv, medzinárodného práva a mnohostranných riešení; zdôrazňuje, že projekty súvisiace s umelou inteligenciou by sa mali zosynchronizovať so širšími civilnými programami Únie zameranými na umelú inteligenciu; konštatuje, že v súlade s bielou knihou Európskej komisie o umelej inteligencii z 19. februára 2020 by sa mali vytvoriť centrá excelentnosti a skúšobné centrá zamerané na výskum a vývoj umelej inteligencie v oblasti bezpečnosti a obrany vrátane dôsledných špecifikácií, ktoré by podporovali účasť a investície súkromných zainteresovaných strán;

134.

berie na vedomie bielu knihu Európskej komisie o umelej inteligencii z 19. februára 2020 a vyjadruje poľutovanie nad tým, že sa v nej nezohľadnili vojenské aspekty; vyzýva Komisiu a VP/PK, aby tiež ako súčasť celkového prístupu predložili sektorovú stratégiu v oblasti umelej inteligencie pre činnosti súvisiace s obranou v rámci Únie, ktorá zabezpečí dodržiavanie práv občanov, ako aj strategické záujmy Únie a bude založená na jednotnom prístupe siahajúcom od vzniku systémov založených na umelej inteligencii až po ich vojenské použitie, a aby v rámci expertnej skupiny na vysokej úrovni pre umelú inteligenciu vytvorili pracovnú skupinu pre bezpečnosť a obranu, ktorá by sa mala osobitne zaoberať politickými a investičnými otázkami, ako aj etickými aspektmi umelej inteligencie v oblasti bezpečnosti a obrany; vyzýva Radu, Komisiu a VP/PK, aby na tento účel nadviazali štruktúrovaný dialóg s Európskym parlamentom;

Európske osvedčenie o dodržiavaní etických zásad

135.

navrhuje, aby sa spoločné kritériá a postup podávania žiadostí týkajúce sa udelenia európskeho osvedčenia o dodržiavaní etických noriem vypracovali v kontexte koordinácie na úrovni Únie, a to aj na žiadosť akéhokoľvek vývojára, nasadzujúceho subjektu alebo používateľa technológií, ktoré sa nepovažujú za vysokorizikové, s cieľom certifikovať pozitívne hodnotenie súladu, ktoré vykonal príslušný vnútroštátny orgán dohľadu;

136.

domnieva sa, že takéto európske osvedčenie o dodržiavaní etických noriem by posilnilo etiku už v štádiu návrhu v celom dodávateľskom reťazci ekosystémov umelej inteligencie; navrhuje preto, aby táto certifikácia bola v prípade vysokorizikových technológií nevyhnutným predpokladom oprávnenosti na postupy verejného obstarávania v oblasti umelej inteligencie, robotiky a súvisiacich technológií;

Medzinárodná spolupráca

137.

zastáva názor, že účinnú cezhraničnú spoluprácu a etické normy možno dosiahnuť len vtedy, ak sa všetky zainteresované strany budú snažiť o zaistenie ľudského faktora a dohľadu, technickej odolnosti a bezpečnosti, transparentnosti a zodpovednosti, rozmanitosti, nediskriminácie a spravodlivosti, dobrých spoločenských podmienok a dobrého stavu životného prostredia, ako aj o dodržiavanie zavedených zásad súkromia, správy a ochrany údajov, konkrétne tých, ktoré sú zakotvené v nariadení (EÚ) 2016/679;

138.

zdôrazňuje, že právne záväzky a etické zásady Únie týkajúce sa vývoja, nasadzovania a používania týchto technológií by mohli urobiť z Európy svetového lídra v odvetví umelej inteligencie, a preto by sa mali podporovať na celom svete prostredníctvom spolupráce s medzinárodnými partnermi a zároveň by sa malo pokračovať v kritickom a etickom dialógu s tretími krajinami, ktoré majú alternatívne modely regulácie umelej inteligencie, jej vývoja a nasadzovania;

139.

pripomína, že príležitosti a riziká spojené s týmito technológiami majú globálny rozmer, keďže softvér a údaje, ktoré používajú, sa často dovážajú do Únie a vyvážajú z nej, a preto je potrebný konzistentný prístup k spolupráci na medzinárodnej úrovni; vyzýva Komisiu, aby prevzala iniciatívu s cieľom posúdiť, ktoré dvojstranné a mnohostranné zmluvy a dohody by sa mali upraviť tak, aby sa zabezpečil konzistentný prístup a podporil európsky model dodržiavania etických noriem na celosvetovej úrovni;

140.

v tejto súvislosti poukazuje aj na pridanú hodnotu koordinácie na úrovni Únie, ako sa uvádza aj v texte vyššie;

141.

vyzýva na vytvorenie synergií a sietí medzi rôznymi európskymi výskumnými centrami v oblasti umelej inteligencie, ako aj ďalšími multilaterálnymi fórami, ako je Rada Európy, Organizácia Spojených národov pre vzdelávanie, vedu a kultúru (UNESCO), Organizácia pre hospodársku spoluprácu a rozvoj (OECD), Svetová obchodná organizácia a Medzinárodná telekomunikačná únia (ITU) s cieľom zosúladiť ich úsilie a lepšie koordinovať vývoj umelej inteligencie, robotiky a súvisiacich technológií;

142.

zdôrazňuje, že Únia musí byť v popredí, pokiaľ ide o podporu mnohostranného úsilia o diskusiu v rámci skupiny vládnych expertov CCW OSN a iných príslušných fór o účinnom medzinárodnom regulačnom rámci, ktorý zabezpečí zmysluplnú ľudskú kontrolu nad autonómnymi zbraňovými systémami s cieľom ovládnuť tieto technológie tým, že stanoví riadne definované postupy založené na referenčných hodnotách a prijme právne predpisy na ich etické využívanie po konzultácii so zúčastnenými stranami z radov armády, priemyslu, presadzovania práva, akademickej obce a občianskej spoločnosti, pochopiť súvisiace etické aspekty, zmierňovať riziká vyplývajúce z týchto technológií a predchádzať používaniu na škodlivé účely;

143.

uznáva úlohu NATO pri presadzovaní euroatlantickej bezpečnosti a vyzýva na spoluprácu s NATO s cieľom zaviesť spoločné normy a interoperabilitu systémov založených na umelej inteligencii v oblasti obrany; zdôrazňuje, že transatlantický vzťah je dôležitý pre zachovanie spoločných hodnôt a boj proti budúcim a vznikajúcim hrozbám;

144.

zdôrazňuje význam vytvorenia etického kódexu správania, ktorý by bol základom pre nasadzovanie systémov založených na umelej inteligencii a prispôsobených na vojnové použitie do vojenských operácií a bol by podobný existujúcemu regulačnému rámcu, ktorým sa zakazuje nasadzovanie chemických a biologických zbraní; zastáva názor, že Komisia by mala iniciovať vytvorenie noriem pre používanie zbraňových systémov založených na umelej inteligencii vo vojnách v súlade s medzinárodným humanitárnym právom a Únia by sa mala usilovať o medzinárodné prijatie týchto noriem; domnieva sa, že Únia by sa mala zapájať do diplomacie v oblasti umelej inteligencie na medzinárodných fórach s podobne zmýšľajúcimi partnermi, ako sú G7, G20 a OECD;

Záverečné aspekty

145.

na základe uvedených úvah o aspektoch súvisiacich s etickým rozmerom umelej inteligencie, robotiky a súvisiacich technológií sa domnieva, že právny a etický rozmer by mal byť zakotvený v účinnom, perspektívnom a komplexnom regulačnom rámci na úrovni Únie s podporou príslušných vnútroštátnych orgánov, koordinovaných a posilnených Komisiou a/alebo akýmikoľvek relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť v tomto kontexte určené, pravidelne podporovaný uvedeným centrom odborných znalostí a riadne rešpektovaný a certifikovaný na vnútornom trhu;

146.

v súlade s postupom uvedeným v článku 225 Zmluvy o fungovaní Európskej únie žiada Komisiu, aby predložila návrh nariadenia o etických zásadách pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií na základe článku 114 Zmluvy o fungovaní Európskej únie a podrobných odporúčaní uvedených v prílohe k tomuto uzneseniu; poukazuje na to, že návrh by nemal oslabovať odvetvové právne predpisy, ale mal by sa vzťahovať len na zistené medzery;

147.

odporúča, aby Európska komisia po konzultácii so všetkými relevantnými zainteresovanými stranami v prípade potreby preskúmala existujúce právo Únie týkajúce sa umelej inteligencie, robotiky a súvisiacich technológií s cieľom riešiť rýchlosť ich vývoja v súlade s odporúčaniami uvedenými v prílohe k tomuto uzneseniu a zamedziť nadmernej regulácii, aj pokiaľ ide o MSP;

148.

domnieva sa, že pravidelné posudzovanie a v prípade potreby preskúmanie regulačného rámca Únie týkajúceho sa umelej inteligencie, robotiky a súvisiacich technológií bude nevyhnutné na zabezpečenie toho, aby platné právne predpisy boli aktuálne a zodpovedali rýchlemu tempu technologického pokroku;

149.

domnieva sa, že ak by bol uvedenými koordinačnými funkciami poverený nejaký európsky orgán, požadovaný legislatívny návrh by mal finančné dôsledky a poskytli by sa potrebné technické prostriedky a ľudské zdroje na plnenie novo pridelených úloh tomuto orgánu;

o

o o

150.

poveruje svojho predsedu, aby postúpil toto uznesenie a sprievodné podrobné odporúčania Komisii a Rade.

(1)  Ú. v. EÚ L 252, 8.10.2018, s. 1.

(2)  Ú. v. EÚ L 180, 19.7.2000, s. 22.

(3)  Ú. v. ES L 303, 2.12.2000, s. 16.

(4)  Ú. v. EÚ L 119, 4.5.2016, s. 1.

(5)  Ú. v. EÚ L 119, 4.5.2016, s. 89.

(6)  Ú. v. EÚ L 123, 12.5.2016, s. 1.

(7)  Ú. v. EÚ C 252, 18.7.2018, s. 239.

(8)  Ú. v. EÚ C 307, 30.8.2018, s. 163.

(9)  Ú. v. EÚ C 433, 23.12.2019, s. 86.

(10)  Prijaté texty, P8_TA(2018)0332.

(11)  Prijaté texty, P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179

(13)  Smernica Európskeho parlamentu a Rady (EÚ) 2019/882 zo 17. apríla 2019 o požiadavkách na prístupnosť výrobkov a služieb (Ú. v. EÚ L 151, 7.6.2019, s. 70).

(14)  Rozhodnutie Európskeho parlamentu a Rady č. 768/2008/ES z 9. júla 2008 o spoločnom rámci na uvádzanie výrobkov na trh a o zrušení rozhodnutia 93/465/EHS (Ú. v. EÚ L 218, 13.8.2008, s. 82).


PRÍLOHA K UZNESENIU:

PODROBNÉ ODPORÚČANIA K OBSAHU POŽADOVANÉHO NÁVRHU

A.   ZÁSADY A CIELE POŽADOVANÉHO NÁVRHU

I.

Hlavné zásady a ciele návrhu:

budovať dôveru na všetkých úrovniach zainteresovaných strán a spoločnosti v otázkach umelej inteligencie, robotiky a súvisiacich technológií, najmä ak sa považujú za vysokorizikové;

podporovať vývoj umelej inteligencie, robotiky a súvisiacich technológií v Únii, a to aj formou pomoci spoločnostiam a začínajúcim, malým a stredným podnikom pri posudzovaní a spoľahlivom riešení súčasných a budúcich regulačných požiadaviek a rizík v procese inovácie a rozvoja podnikania a počas následnej fázy ich používania zo strany odborníkov a súkromných osôb obmedzením záťaže a byrokracie na minimum;

podporovať zavádzanie umelej inteligencie, robotiky a súvisiacich technológií v Únii stanovením vhodného a primeraného regulačného rámca, ktorý by sa mal uplatňovať bez toho, aby tým boli dotknuté súčasné alebo budúce odvetvové právne predpisy, s cieľom podporiť regulačnú istotu a inovácie a zároveň zaručiť základné práva a ochranu spotrebiteľa;

podporovať používanie umelej inteligencie, robotiky a súvisiacich technológií v Únii zabezpečením ich vývoja, zavádzania a používania v súlade s etickými zásadami;

požadovať transparentnosť a lepšie toky informácií medzi občanmi a v rámci organizácií, ktoré umelú inteligenciu, robotiku a súvisiace technológie vyvíjajú, nasadzujú alebo používajú, ako prostriedok na zabezpečenie súladu týchto technológií s právom Únie, základnými právami a hodnotami a s etickými zásadami návrhu požadovaného nariadenia.

II.

Návrh tvoria tieto prvky:

„nariadenie o etických zásadách vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií“;

koordinačná úloha Komisie a/alebo akýchkoľvek relevantných inštitúcií, orgánov, úradov a agentúr Únie, ktoré môžu byť v tejto súvislosti určené na úrovni Únie, a európska certifikácia súladu s etickými normami;

podporná úloha Európskej komisie;

činnosť „orgánov dohľadu“ v jednotlivých členských štátoch zameraná na zabezpečenie toho, aby pre umelú inteligenciu, robotiku a súvisiace technológie platili etické zásady;

účasť v relevantných projektoch výskumu a vývoja a zainteresovaných strán vrátane začínajúcich, malých a stredných podnikov, spoločností, sociálnych partnerov a iných zástupcov občianskej spoločnosti, konzultácie s nimi, ako aj poskytovanie podpory týmto stranám;

príloha, ktorou sa zavádza úplný kumulatívny zoznam vysokorizikových odvetví a vysokorizikových použití a účelov.

III.

„Nariadenie o etických zásadách pre vývoj, zavádzanie a používanie umelej inteligencie, robotiky a súvisiacich technológií“ vychádza z týchto zásad:

umelá inteligencia, robotika a súvisiace technológie zamerané na človeka, vytvorené človekom a riadené človekom;

povinné hodnotenie súladu vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií so zásadami;

bezpečnosť, transparentnosť a zodpovednosť;

záruky a prostriedky nápravy voči zaujatosti a diskriminácii;

právo na nápravu;

spoločenská zodpovednosť a rodová rovnosť v rámci umelej inteligencie, robotiky a súvisiacich technológií;

environmentálne udržateľná umelá inteligencia, robotika a súvisiace technológie;

rešpektovanie súkromia a obmedzenia pri používaní biometrie;

dobrá správa vecí verejných v súvislosti s umelou inteligenciou, robotikou a súvisiacimi technológiami vrátane údajov používaných alebo produkovaných takýmito technológiami.

IV.

Na účely koordinácie na úrovni Únie Komisia a/alebo akékoľvek relevantné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť v tejto súvislosti určené, by v tejto súvislosti mali vykonávať tieto hlavné úlohy:

spolupracovať pri monitorovaní vykonávania požadovaného návrhu nariadenia a relevantného odvetvového práva Únie;

spolupracovať pri vydávaní usmernení o jednotnom uplatňovaní požadovaného návrhu nariadenia, konkrétne o uplatňovaní kritérií, podľa ktorých sa majú umelá inteligencia, robotika a súvisiace technológie považovať za vysokorizikové, a zoznamu vysokorizikových odvetví a vysokorizikových použití a účelov stanovených v prílohe k nariadeniu;

spolupracovať s „orgánmi dohľadu“ v jednotlivých členských štátoch na vypracovaní európskeho osvedčenia o súlade s etickými zásadami a právnymi povinnosťami stanovenými v požadovanom návrhu nariadenia a relevantnom práve Únie, ako aj na vypracovaní postupu spracovania žiadostí pre jednotlivých vývojárov, nasadzujúce subjekty alebo používateľov technológií, ktoré sa nepovažujú za vysokorizikové, na osvedčenie ich súladu s požadovaným návrhom nariadenia;

spolupracovať na podpore medziodvetvovej a cezhraničnej spolupráce pravidelnou výmenou názorov s dotknutými zainteresovanými stranami a občianskou spoločnosťou v EÚ a vo svete, najmä s podnikmi, sociálnymi partnermi, výskumnými pracovníkmi a príslušnými orgánmi, a to pri vypracovaní technických noriem na medzinárodnej úrovni;

spolupracovať s „orgánmi dohľadu“ v jednotlivých členských štátoch na zavedení záväzných usmernení pre metodiku posudzovania súladu, ktoré má vykonávať každý „orgán dohľadu“;

spolupracovať s „orgánmi dohľadu“ v jednotlivých členských štátoch a koordinovať ich mandát a úlohy;

spolupracovať na zvyšovaní povedomia, poskytovať informácie a zapájať sa do výmeny názorov s vývojármi, nasadzujúcimi subjektmi a používateľmi v celej Únii;

spolupracovať na zvyšovaní povedomia, poskytovať informácie, propagovať digitálnu gramotnosť, odbornú prípravu a zručnosti a zúčastňovať sa výmeny názorov s dizajnérmi, vývojármi, nasadzujúcimi subjektmi, občanmi, používateľmi a orgánmi inštitúcií v celej Únii a na medzinárodnej úrovni;

spolupracovať na koordinácii spoločného rámca pre správu vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií, ktorý majú zaviesť „orgány dohľadu“ v jednotlivých členských štátoch;

v úlohe centra odborných znalostí spolupracovať, a to organizovaním výmeny informácií a podporou rozvíjania spoločného porozumenia na jednotnom trhu;

spolupracovať v úlohe hostiteľa pracovnej skupiny pre bezpečnosť a obranu.

V.

Komisia by mala navyše vykonávať tieto úlohy:

vypracovať a následne prostredníctvom delegovaných aktov aktualizovať spoločný zoznam vysokorizikových technológií identifikovaných v Únii v spolupráci s „orgánmi dohľadu“ v jednotlivých členských štátoch;

prostredníctvom delegovaných aktov aktualizovať zoznam uvedený v prílohe k nariadeniu.

VI.

„Orgány dohľadu“ v jednotlivých členských štátoch by mali vykonávať tieto hlavné úlohy:

prispievať ku jednotnému uplatňovaniu regulačného rámca stanoveného v požadovanom návrhu nariadenia v spolupráci s „orgánmi dohľadu“ v ostatných členských štátoch, ako aj s inými orgánmi zodpovednými za vykonávanie odvetvových právnych predpisov, Komisiou a/alebo akýmikoľvek relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť v tejto súvislosti určené, najmä pokiaľ ide o uplatňovanie kritérií pre hodnotenie rizík stanovených v požadovanom návrhu nariadenia a zozname vysokorizikových odvetví a vysokorizikových použití alebo účelov stanovených v jeho prílohe, a následný dohľad nad vykonávaním požadovaných a zodpovedajúcich opatrení, ak boli na základe takéhoto uplatňovania identifikované vysokorizikové technológie;

posudzovať, či sa umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, vyvinuté, nasadzované a používané v Únii majú podľa rizikových kritérií stanovených v požadovanom návrhu nariadenia a v zozname uvedenom v prílohe považovať za vysokorizikové technológie;

vydávať európske osvedčenia o súlade s etickými zásadami a právnymi povinnosťami stanovenými v požadovanom návrhu nariadenia a príslušnom práve Únie, a to aj vtedy, keď sú výsledkom postupu spracovania žiadosti akéhokoľvek vývojára, nasadzujúceho subjektu alebo používateľa technológie nepovažovanej za vysokorizikovú, ktorou chcú získať osvedčenie jej súladu s požadovaným návrhom nariadenia Komisie a/alebo akejkoľvek príslušnej inštitúcie, orgánu, úradu a agentúry Únie, ktoré môžu byť v tejto súvislosti určené;

posudzovať a monitorovať ich súlad s etickými zásadami a právnymi povinnosťami stanovenými v požadovanom návrhu nariadenia a príslušnom práve Únie;

zodpovedať za stanovenie a vykonávanie noriem pre správu v oblasti umelej inteligencie, robotiky a súvisiacich technológií, a to aj formou kontaktov a udržiavania pravidelného dialógu so všetkými relevantnými zainteresovanými stranami a zástupcami občianskej spoločnosti; na uvedený účel spolupracovať s Komisiou a/alebo s akýmikoľvek relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť v tejto súvislosti určené, na koordinácii spoločného rámca na úrovni Únie;

zvyšovať povedomie verejnosti, poskytovať verejnosti informácie o umelej inteligencii, robotike a súvisiacich technológiách a podporovať odbornú prípravu v relevantných profesiách, a to aj v súdnictve, a tak občanom a pracovníkom poskytovať digitálnu gramotnosť, zručnosti a nástroje potrebné na spravodlivú transformáciu;

slúžiť ako prvé kontaktné miesto v prípadoch podozrenia z porušenia právnych povinností a etických zásad stanovených v požadovanom návrhu nariadenia a v takýchto prípadoch vykonať hodnotenie súladu; v súvislosti s týmto hodnotením súladu môže konzultovať s ostatnými príslušnými orgánmi v Únii alebo ich informovať, najmä sieť pre spoluprácu v oblasti ochrany spotrebiteľa, vnútroštátne orgány na ochranu spotrebiteľa, organizácie občianskej spoločnosti a sociálnych partnerov.

VII.

Kľúčovou úlohou zainteresovaných subjektov by mala byť spolupráca s Komisiou a/alebo všetkými relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť v tejto súvislosti určené, a s „orgánmi dohľadu“ v jednotlivých členských štátoch.

B.   ZNENIE POŽADOVANÉHO LEGISLATÍVNEHO NÁVRHU

Návrh

NARIADENIA EURÓPSKEHO PARLAMENTU A RADY

o etických zásadách pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií

EURÓPSKY PARLAMENT A RADA EURÓPSKEJ ÚNIE,

so zreteľom na Zmluvu o fungovaní Európskej únie, a najmä na jej článok 114,

so zreteľom na návrh Európskej komisie,

po postúpení návrhu legislatívneho aktu národným parlamentom,

so zreteľom na stanovisko Európskeho hospodárskeho a sociálneho výboru,

konajúc v súlade s riadnym legislatívnym postupom,

keďže:

(1)

Vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami by mali byť založené na želaní slúžiť spoločnosti. S takýmito technológiami môžu byť spojené príležitosti i riziká, ktoré by sa mali riešiť a upraviť súhrnným právnym rámcom na úrovni Únie odrážajúcim etické zásady, ktoré treba dodržiavať už od vývoja a nasadzovania takýchto technológií až po ich používanie.

(2)

Súlad s takýmto regulačným rámcom pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných týmito technológiami v Únii, by mal byť vo všetkých členských štátoch na rovnocennej úrovni, aby sa mohli efektívne využívať príležitosti a dôsledne riešiť riziká, ktoré takéto technológie prinášajú, ako aj predchádzať regulačnej fragmentácii. Malo by sa zabezpečiť jednotné uplatňovanie pravidiel stanovených v tomto nariadení v celej Únii.

(3)

Súčasná rôznorodosť pravidiel a postupov, ktoré sa majú dodržiavať v rámci Únie, predstavuje v tejto súvislosti značné riziko fragmentácie jednotného trhu a pre ochranu životnej úrovne a prosperity jednotlivcov i spoločnosti, ako aj pre logické využívanie plného potenciálu, ktorý umelá inteligencia, robotika a súvisiace technológie majú pre podporu a zachovanie uvedenej životnej úrovne a prosperity. Rozdiely v tom, do akej miery etický rozmer neodmysliteľný od týchto technológií zohľadnia vývojári, nasadzujúce subjekty a používatelia, môžu brániť ich slobodnému vývoju, nasadzovaniu či používaniu v Únii, a takéto rozdiely sa môžu stať prekážkou rovnosti podmienok, úsilia o technologický pokrok a pri vykonávaní hospodárskej činnosti na úrovni Únie, narúšať hospodársku súťaž a brániť orgánom pri plnení si povinností podľa práva Únie. Navyše absencia spoločného regulačného rámca odrážajúceho etické zásady vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií má za následok právnu neistotu všetkých zúčastnených strán, konkrétne vývojárov, nasadzujúcich subjektov a používateľov.

(4)

V tomto nariadení by sa však členským štátom mal poskytnúť určitý manévrovací priestor, a to aj vzhľadom na spôsob výkonu mandátu príslušných vnútroštátnych orgánov dohľadu, ako aj na dosahovanie v ňom stanoveného cieľa a pri súčasnom prispení ku koherentnému prístupu na úrovni Únie a v rámci v ňom stanovených obmedzení.

(5)

Týmto nariadením nie sú dotknuté súčasné ani budúce odvetvové právne predpisy. Malo by byť primerané svojmu cieľu, aby zbytočne nebránilo inováciám v Únii, a byť v súlade s prístupom založeným na riziku.

(6)

Do geografickej pôsobnosti takéhoto rámca by mali patriť všetky zložky umelej inteligencie, robotiky a súvisiacich technológií počas ich vývoja, nasadzovania a používania v Únii, a to aj vtedy, ak sa časť technológie nachádza mimo Únie alebo ak sa nenachádza na konkrétnom či jedinom mieste, ako napríklad v prípade služieb cloud computingu.

(7)

Jednotné chápanie pojmov ako umelá inteligencia, robotika, súvisiace technológie, algoritmy a biometria je v Únii potrebné na to, aby bol možný jednotný regulačný prístup a tým právna istota pre občanov a spoločnosti. Mali by byť technologicky neutrálne a v prípade potreby podliehať preskúmaniu.

(8)

Navyše treba zohľadniť to, že existujú technológie súvisiace s umelou inteligenciou a robotikou, ktoré umožňujú softvérové riadenie fyzických alebo virtuálnych procesov s rôznou mierou samostatnosti (1). Napríklad pre automatizovanú jazdu vozidiel sa v medzinárodnej norme SAE J3016 navrhuje šesť úrovní automatizácie riadenia.

(9)

Vývoj, zavádzanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami by mali dopĺňať schopnosti človeka a nie ich nahrádzať, a zabezpečovať, že ich vykonávanie nebude proti záujmom občanov a že bude v súlade s právom Únie, základnými právami stanovenými v Charte základných práv Európskej únie („charta“), ustálenou judikatúrou Súdneho dvora Európskej únie a ďalšími európskymi a medzinárodnými nástrojmi, ktoré sa v Únii uplatňujú.

(10)

Rozhodnutia prijímané alebo vyvolané umelou inteligenciou, robotikou a súvisiacimi technológiami by mali naďalej ostať predmetom zmysluplného ľudského posúdenia, názoru, zásahov a kontroly. Technická a prevádzková zložitosť takýchto technológií by nikdy nemala brániť ich nasadzujúcemu subjektu alebo používateľovi aspoň aktivovať ich núdzové odstavenie, zmeniť či zastaviť ich prevádzku alebo ich vrátiť do predchádzajúceho stavu obnovou bezpečných funkcií v prípadoch ohrozenia súladu s právom Únie a etickými zásadami a právnymi povinnosťami stanovenými v tomto nariadení.

(11)

Umelá inteligencia, robotika a súvisiace technológie, ktorých vývoj, nasadzovanie a používanie predstavujú značné riziko ujmy alebo škody pre jednotlivca alebo spoločnosť, čo je v rozpore so základnými právami a bezpečnostnými predpismi stanovenými v práve Únie, by sa mali považovať za vysokorizikové technológie. Na účely ich posúdenia ako takých by odvetvie, v ktorom sa vyvíjajú, nasadzujú alebo používajú, malo zvažovať ich konkrétne použitie alebo účel a závažnosť ujmy alebo škody, ktorú možno predpokladať. Stupeň závažnosti by sa mal určovať podľa rozsahu potenciálnej ujmy alebo škody, počtu dotknutých osôb, celkovej hodnoty spôsobenej straty a škody pre spoločnosť ako celok. Závažným druhom ujmy a škody je napríklad porušenie práv detí, spotrebiteľov alebo pracovníkov, ktoré vzhľadom na svoj rozsah, počet dotknutých detí, spotrebiteľov alebo pracovníkov alebo ich vplyv na spoločnosť ako celok predstavuje značné riziko porušenia základných práv a bezpečnostných predpisov podľa práva Únie. Týmto nariadením by sa mal stanoviť úplný kumulatívny zoznam vysokorizikových odvetví a vysokorizikových použití a účelov.

(12)

Povinnosti stanovené v tomto nariadení, konkrétne povinnosti vzhľadom na vysokorizikové technológie, by sa mali vzťahovať len na umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ktoré sú vyvíjané, nasadzované alebo používané v Únii, a na základe hodnotenia rizík ustanoveného v tomto nariadení sa považujú za vysokorizikové. Takéto povinnosti sa musia dodržiavať bez toho, aby bola dotknutá všeobecná povinnosť vyvíjať, nasadzovať a používať umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami v Únii so sústredením na človeka a podľa zásad autonómie a bezpečnosti človeka v súlade s právom Únie a pri plnom rešpektovaní základných práv, ako je ľudská dôstojnosť, právo na slobodu a bezpečnosť a právo na integritu osoby.

(13)

Vysokorizikové technológie by mali dodržiavať zásady bezpečnosti, transparentnosti, zodpovednosti, nezaujatosti alebo nediskriminácie, spoločenskej zodpovednosti a rodovej rovnosti, práva na nápravu, environmentálnej udržateľnosti, súkromia a dobrej správy vecí verejných na základe nestranného a objektívneho a externého hodnotenia rizík zo strany vnútroštátneho orgánu dohľadu v súlade s kritériami stanovenými v tomto nariadení a v zozname uvedenom v jeho prílohe. Toto hodnotenie by malo zohľadňovať názory a akékoľvek sebahodnotenie vývojára alebo nasadzujúceho subjektu.

(14)

Komisia a/alebo akékoľvek príslušná inštitúcia, orgán, úrad a agentúra Únie, ktoré môžu byť na tento účel určené, by mali pripraviť nezáväzné vykonávacie usmernenia pre vývojárov, nasadzujúce subjekty a používateľov k metodológii na dosiahnutie súladu s týmto nariadením. Pritom by sa mali radiť s príslušnými zainteresovanými stranami.

(15)

V rámci Únie by mala existovať jednotnosť, pokiaľ ide o hodnotenie rizík týchto technológií, najmä ak sa hodnotia vzhľadom na toto nariadenie a podľa akýchkoľvek príslušných odvetvových právnych predpisov. Obdobne by vnútroštátne orgány dohľadu mali informovať ostatné orgány, ktoré vypracúvajú hodnotenia rizík podľa akýchkoľvek odvetvových právnych predpisov, ak sú tieto technológie na základe hodnotenia rizík podľa tohto nariadenia vyhodnotené ako vysokorizikové.

(16)

Aby boli umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami dôveryhodné, ich vývoj, zavádzanie a používanie by mali byť bezpečné, transparentné a zodpovedné, v súlade s bezpečnostnými prvkami spoľahlivosti, odolnosti, bezpečnosti, presnosti a identifikácie chýb, vysvetliteľnosti a identifikovateľnosti, a to tak, aby bolo možné príslušné prvky deaktivovať alebo sa vrátiť do predchádzajúceho stavu obnovením bezpečných funkcií, ak nie sú v súlade s uvedenými prvkami. Transparentnosť by sa v prípade nevyhnutnosti mala zabezpečiť umožnením prístupu verejných orgánov k technológii, údajom a počítačovým systémom, ktoré sú základom takýchto technológií.

(17)

Vývojári, nasadzujúce subjekty a používatelia umelej inteligencie, robotiky a súvisiacich technológií, najmä vysokorizikových technológií, sú v rôznej miere zodpovední za dodržiavanie zásad bezpečnosti, transparentnosti a zodpovednosti v rozsahu, v akom s príslušnými technológiami pracujú, vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami. Vývojári by mali zabezpečiť, aby koncepcia a konštrukcia príslušných technológií bola v súlade s bezpečnostnými prvkami stanovenými v tomto nariadení, pričom nasadzujúce subjekty a používatelia by mali pri ich nasadzovaní a používaní tieto prvky v plnej miere dodržiavať. Na tento účel by vývojári vysokorizikových technológií mali vyhodnotiť a predvídať riziko zneužitia, ktoré možno primerane očakávať vzhľadom na technológie, ktoré vyvíjajú. Musia tiež zabezpečiť, aby systémy, ktoré vyvíjajú, v maximálnej možnej miere a vhodne upozorňovali na pravdepodobnosť chýb alebo nepresností, napríklad formou oznámení o odmietnutí zodpovednosti.

(18)

Vývojári a nasadzujúce subjekty by podľa zmluvy alebo európskeho či vnútroštátneho práva mali používateľom sprístupniť všetky následné aktualizácie príslušných technológií, najmä pokiaľ ide o softvér. Ak to vyplynie z hodnotenia rizík, vývojári a nasadzujúce subjekty ba mali verejným orgánom poskytnúť tiež relevantnú dokumentáciu o používaní príslušných technológií a bezpečnostné pokyny v tejto súvislosti, a ak je to nevyhnutne potrebné a v plnom súlade s právom Únie v oblasti ochrany údajov, súkromia a práv duševného vlastníctva a obchodného tajomstva, aj zdrojový kód, vývojové nástroje a údaje, ktoré daný systém používa.

(19)

Jednotlivci majú právo predpokladať, že technológia, ktorú používajú, primerane funguje a zaslúži si ich dôveru. Dôvera občanov v umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami závisí od poznania technických postupov a ich pochopenia. Miera vysvetliteľnosti takýchto postupov by mala závisieť od kontextu uvedených technických postupov, od závažnosti dôsledkov ich chybného či nepresného výstupu a musí byť dostatočná na riešenie problémov a hľadanie nápravy. Prípadnú nezrozumiteľnosť takýchto technológií by mala napraviť kontrolovateľnosť, vysledovateľnosť a transparentnosť.

(20)

Dôvera spoločnosti v umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami závisí od toho, do akej miery príslušné technológie umožňujú svoje hodnotenie, kontrolu a vysledovateľnosť. Ak si to miera ich účasti vyžaduje, mali by vývojári zabezpečiť také koncipovanie a konštruovanie takýchto technológií, aby ich bolo možné hodnotiť, kontrolovať a vysledovať. V rámci obmedzení technicky možného by vývojári, nasadzujúce subjekty a používatelia by mali zabezpečiť, aby sa pri nasadzovaní a používaní umelej inteligencie, robotiky a súvisiacich technológií plne dodržiavali požiadavky na transparentnosť a aby bola možná kontrola a vysledovateľnosť.

(21)

S cieľom zabezpečiť transparentnosť a zodpovednosť by občania mali byť informovaní o tom, kedy systém používa umelú inteligenciu, kedy systémy umelej inteligencie personalizujú výrobok alebo službu pre svojich používateľov, či môžu personalizáciu vypnúť alebo obmedziť a kedy majú do činenia s technológiou s automatizovaným rozhodovaním. Navyše by opatrenia na zabezpečenie transparentnosti, pokiaľ je to technicky možné, mali byť sprevádzané jasným a zrozumiteľným vysvetlením použitých údajov a algoritmu, jeho účelu, výsledkov a možných nebezpečenstiev.

(22)

Zaujatosť a diskriminácia prostredníctvom softvéru, algoritmov a údajov sú nezákonné a mali by sa riešiť reguláciou postupov pri ich koncipovaní a nasadzovaní. Zaujatosť môže prameniť tak z informovaných rozhodnutí alebo rozhodnutí prostredníctvom automatizovaného systému, ako aj zo súborov údajov, na ktorých je takéto rozhodovanie založené alebo na ktorých je systém vyškolený.

(23)

Softvér, algoritmy a údaje používané alebo produkované umelou inteligenciou, robotikou a súvisiacimi technológiami by sa mali považovať za zaujaté, ak napríklad zobrazujú suboptimálne výsledky vo vzťahu k niektorej osobe alebo skupine osôb na základe predpojatého osobného alebo spoločenského vnímania a následného spracovania údajov týkajúcich sa ich charakteristík.

(24)

V súlade s právom Únie by sa softvér, algoritmy a údaje používané alebo produkované umelou inteligenciou, robotikou a súvisiacimi technológiami mali považovať za diskriminačné, ak produkujú výsledky s neúmerne negatívnymi účinkami a majú za následok rozdielne zaobchádzanie s osobou alebo skupinou osôb, a to aj tak, že ich v porovnaní s inými znevýhodňujú z dôvodov, ako sú ich osobné charakteristiky, bez objektívneho či primeraného odôvodnenia a bez ohľadu na akékoľvek tvrdenia o neutralite technológií.

(25)

V súlade s právom Únie sú legitímnymi dôvodmi, ktoré by sa podľa tohto nariadenia mohli považovať za objektívny dôvod akékoľvek rozdielneho zaobchádzania s osobami alebo so skupinami osôb, ochrana verejnej bezpečnosti, ochrany a zdravia, prevencia trestných činov, ochrana základných práv a slobôd, spravodlivé zastúpenie a objektívne odborné požiadavky na výkon povolania.

(26)

Umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami by mali prispievať k udržateľnému pokroku. Takéto technológie by nemali byť v rozpore s ochranou životného prostredia alebo ekologickou transformáciou. Mohli by zohrať dôležitú úlohu pri dosahovaní cieľov udržateľného rozvoja, ktoré v záujme prosperity budúcich generácií stanovila Organizácia Spojených národov. Takéto technológie môžu podporiť monitorovanie primeraného pokroku na základe ukazovateľov udržateľnosti a sociálnej súdržnosti s pomocou nástrojov zodpovedného výskumu a inovácií, ktoré si vyžadujú mobilizáciu zdrojov zo strany Únie a jej členských štátov na podporu projektov zameraných na tieto ciele a investície do nich.

(27)

Vývoj, zavádzanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami by nijako nemali zámerne spôsobovať alebo svojím konceptom pripúšťať ujmu alebo škodu pre jednotlivca či spoločnosť. Vysokorizikové technológie by sa preto mali vyvíjať, nasadzovať a používať zodpovedne voči spoločnosti.

(28)

Preto by vývojári, nasadzujúce subjekty a používatelia mali v rozsahu, v akom s umelou inteligenciou, robotikou a príslušnými súvisiacimi technológiami pracujú, a v súlade s európskymi a vnútroštátnymi pravidlami zodpovednosti niesť zodpovednosť za akúkoľvek ujmu alebo škodu spôsobenú jednotlivcovi alebo spoločnosti.

(29)

Najmä vývojári, ktorí svojimi rozhodnutiami určujú a kontrolujú priebeh alebo spôsob vývoja umelej inteligencie, robotiky a súvisiacich technológií, ako aj nasadzujúce subjekty, ktoré sa podieľajú na ich nasadzovaní rozhodnutiami o ich nasadení a majú kontrolu nad súvisiacimi rizikami alebo z takéhoto nasadzovania profitujú a majú kontrolnú alebo riadiacu funkciu, by sa mali vo všeobecnosti považovať za zodpovedných za zamedzenie výskytu akejkoľvek takejto ujmy alebo škody zavedením primeraných opatrení počas vývoja a dôkladným dodržiavaním uvedených opatrení vo fáze zavádzania.

(30)

Spoločensky zodpovednú umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami možno vymedziť ako technológie prispievajúce k nachádzaniu riešení, ktoré chránia a podporujú rôzne zámery spoločnosti, a to najmä demokraciu, zdravie a hospodársku prosperitu, rovnosť príležitostí, práva pracovníkov a sociálne práva, rôznorodé a nezávislé médiá a objektívne a voľne dostupné informácie, a tým umožňujú verejnú diskusiu, kvalitné vzdelávanie, kultúrnu a jazykovú rozmanitosť, rodovú rovnováhu, digitálnu gramotnosť, inovácie a tvorivosť. Sú to aj technológie vyvíjané, nasadzované a používané s náležitým ohľadom na ich konečný dosah na telesnú a duševnú pohodu občanov, ktoré nepodporujú prejavy nenávisti alebo násilie. Takéto ciele by sa mali dosahovať najmä používaním vysokorizikových technológií.

(31)

Umelá inteligencia, robotika a súvisiace technológie by sa mali tiež vyvíjať, nasadzovať a používať s cieľom podpory sociálnej inklúzie, demokracie, plurality, solidarity, spravodlivosti, rovnosti a spolupráce a ich potenciál v tomto smere by sa mal zvýšiť na najvyššiu mieru a skúmať v rámci výskumných a inovačných projektov. Únia a jej členské štáty by mali preto mobilizovať svoje komunikačné, administratívne a finančné zdroje na účely podpory týchto projektov a investícií do nich.

(32)

Projekty súvisiace s potenciálom umelej inteligencie, robotiky a súvisiacich technológií pri riešení otázky sociálneho blaha spoločnosti by sa mali uskutočňovať na základe nástrojov zodpovedného výskumu a inovácií, aby sa od začiatku zaručil súlad týchto projektov s etickými zásadami.

(33)

Vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami by sa mali diať s ohľadom na ich environmentálnu stopu. V súlade s povinnosťami stanovenými v príslušných právnych predpisoch Únie by takéto technológie počas svojho životného cyklu a v celom dodávateľskom reťazci nemali poškodzovať životné prostredie a mali by sa vyvíjať, nasadzovať a používať šetrne voči životnému prostrediu, so zmierňovaním a odstraňovaním ich environmentálnej stopy, ako príspevok k ekologickej transformácii a podpora pri dosahovaní cieľov klimatickej neutrality a obehového hospodárstva.

(34)

Na účely tohto nariadenia by vývojári, nasadzujúce subjekty a používatelia mali v rozsahu, v akom sa podieľajú na vývoji, nasadzovaní alebo používaní umelej inteligencie, robotiky a súvisiacich technológiách, ktoré sa považujú za vysokorizikové, niesť zodpovednosť za akúkoľvek škodu na životnom prostredí podľa príslušných predpisov o environmentálnej zodpovednosti.

(35)

Tieto technológie by sa mali tiež vyvíjať, nasadzovať a používať s cieľom podpory pri dosahovaní environmentálnych cieľov v súlade s povinnosťami stanovenými v príslušných právnych predpisoch Únie, ako je obmedzovanie tvorby odpadov, znižovanie uhlíkovej stopy, boj proti zmene klímy a zachovanie životného prostredia, a ich potenciál by sa v tomto smere mal zvýšiť na najvyššiu mieru a skúmať v rámci výskumných a inovačných projektov. Únia a členské štáty by mali preto zmobilizovať svoje komunikačné, administratívne a finančné zdroje na účely podpory týchto projektov a investícií do nich.

(36)

Projekty týkajúce sa potenciálu umelej inteligencie, robotiky a súvisiacich technológií pri riešení environmentálnych otázok by sa mali realizovať na základe zodpovedných nástrojov výskumu a inovácie, aby od začiatku zaručovali súlad uvedených projektov s etickými zásadami.

(37)

Umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných týmito technológiami, ktoré sú vyvíjané, nasadzované a používané v Únii, by mali plne rešpektovať práva občanov Únie na súkromie a ochranu osobných údajov. Najmä ich vývoj, nasadzovanie a používanie by mali byť v súlade s nariadením Európskeho parlamentu a Rady (EÚ) 2016/679 (2) a smernicou Európskeho parlamentu a Rady 2002/58/ES (3).

(38)

Mali by sa najmä riadne zvážiť etické hranice používania umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných týmito technológiami pri používaní technológií diaľkového rozpoznávania, ako je biometria, najmä rozpoznávanie tváre, na automatickú identifikáciu osôb. Ak verejné orgány používajú tieto technológie z dôvodov závažného verejného záujmu, konkrétne na zaručenie bezpečnosti jednotlivcov a riešenie vnútroštátnych núdzových situácií, a nie na zaručenie bezpečnosti majetku, používanie by sa malo vždy zverejniť, malo by byť primerané, cielené a obmedzené na konkrétne ciele a časovo ohraničené v súlade s právom Únie a s náležitým ohľadom na ľudskú dôstojnosť a autonómiu a základné práva stanovené v charte. Kritériá a obmedzenia takéhoto používania by mali podliehať súdnemu preskúmaniu a podrobiť sa demokratickej kontrole a diskusii s účasťou občianskej spoločnosti.

(39)

Správa vecí verejných, ktorá spočíva na relevantných normách, posilňuje bezpečnosť a podporuje rast dôvery občanov vo vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami.

(40)

Verejné orgány by pred zavedením vysokorizikových technológií, ktoré sa používajú ako podpora rozhodnutí vo verejnom sektore a ktoré majú priamy a významný vplyv na práva a povinnosti občanov, mali posúdiť ich vplyv na základné práva.

(41)

K súčasným relevantným normám riadenia na európskej úrovni patria napríklad Etické usmernenia pre dôveryhodnú umelú inteligenciu, ktoré vypracovala expertná skupina na vysokej úrovni pre umelú inteligenciu zriadená Európskou komisiou, a akékoľvek ďalšie technické normy, ako napríklad normy Európskeho výboru pre normalizáciu (CEN), Európskeho výboru pre normalizáciu v elektrotechnike (CENELEC) a Európskeho inštitútu pre telekomunikačné normy (ETSI) a na medzinárodnej úrovni normy Medzinárodnej organizácie pre normalizáciu (ISO) a Inštitútu elektrotechnických a elektronických inžinierov (IEEE).

(42)

Zdieľanie a používanie údajov viacerými účastníkmi je citlivé, a preto by sa vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií mali riadiť relevantnými predpismi, normami a protokolmi, ktoré odzrkadľujú požiadavky na kvalitu, integritu, bezpečnosť, súkromie a kontrolu. Stratégia správy údajov by sa mala zameriavať na spracovanie, spoločné využívanie týchto údajov a prístup k nim vrátane ich korektného riadenia, kontrolovateľnosti a vysledovateľnosti a mala by zaručovať adekvátnu ochranu údajov zraniteľných osôb vrátane ľudí so zdravotným postihnutím, pacientov, detí, menšín a migrantov alebo ďalších skupín s rizikom vylúčenia. Vývojári, nasadzujúce subjekty a používatelia by okrem toho mali mať v prípade potreby možnosť sa pri posudzovaní súborov údajov, ktoré používajú, spoľahnúť na kľúčové ukazovatele výkonnosti na účely zvýšenia dôveryhodnosti technológií, ktoré vyvíjajú, zavádzajú a používajú.

(43)

Členské štáty by mali vymenovať nezávislý správny orgán do úlohy orgánu dohľadu. Každý vnútroštátny orgán dohľadu by mal predovšetkým byť zodpovedný najmä za identifikáciu umelej inteligencie, robotiky a súvisiacich technológií považovaných za vysokorizikové vzhľadom na kritériá hodnotenia rizík stanovené v tomto nariadení a za hodnotenie a monitorovanie súladu týchto technológií s povinnosťami stanovenými v tomto nariadení.

(44)

Zodpovednosť za dobrú správu týchto technológií by pri koordinácii Komisie a/alebo príslušných inštitúcií, orgánov, úradov alebo agentúr Únie, ktoré môžu byť na tento účel určené, by mali niesť jednotlivé vnútroštátne orgány dohľadu. Preto majú z hľadiska podpory dôvery a bezpečnosti občanov Únie, ako aj umožnenia demokratickej, pluralistickej a spravodlivej spoločnosti, dôležitú úlohu.

(45)

Na účely hodnotenia vysokorizikových technológií podľa tohto nariadenia a monitorovania ich súladu s ním by vnútroštátne orgány dohľadu mali v prípade potreby spolupracovať s orgánmi zodpovednými za posudzovanie a monitorovanie týchto technológií a za presadzovanie ich súladu s odvetvovými právnymi predpismi.

(46)

S cieľom zaručiť jednotné cezhraničné pôsobenie a umožniť konzistentný vývoj, nasadzovanie a používanie týchto technológií v rámci Únie v súlade s etickými zásadami a právnymi povinnosťami stanovenými v tomto nariadení by vnútroštátne orgány dohľadu mali vyvíjať reálnu a pravidelnú spoluprácu navzájom, ako aj s Európskou komisiou a ďalšími relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie.

(47)

V kontexte takejto spolupráce a s cieľom dosiahnuť úplnú harmonizáciu na úrovni Únie by vnútroštátne orgány dohľadu mali pomáhať Komisii pri vypracúvaní úplného spoločného zoznamu vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií podľa kritérií stanovených v tomto nariadení a jeho prílohe. Okrem toho by sa mal vypracovať postup vydávania európskych osvedčení o súlade s etickými normami vrátane postupu spracovania dobrovoľných žiadostí pre ľubovoľných vývojárov, nasadzujúce subjekty alebo používateľov technológií, ktoré sa nepovažujú za vysokorizikové, s cieľom osvedčiť ich súlad s týmto nariadením.

(48)

Vnútroštátne orgány dohľadu by mali zabezpečiť zhromaždenie maximálneho počtu zainteresovaných strán, ako je priemysel, podniky, sociálni partneri, výskumníci, spotrebitelia a organizácie občianskej spoločnosti, a poskytnúť pluralitné fórum na zamyslenie a výmenu názorov s cieľom dosiahnuť komplexné a presné závery na usmernenie spôsobu regulácie správy.

(49)

Vnútroštátne orgány dohľadu by mali zabezpečiť zhromaždenie maximálneho počtu zainteresovaných strán, ako je priemysel, podniky, sociálni partneri, výskumníci, spotrebitelia a organizácie občianskej spoločnosti, a poskytnúť pluralitné fórum na zamyslenie a výmenu názorov s cieľom umožniť spoluprácu so zainteresovanými stranami a medzi nimi navzájom, najmä z akademickej obce, výskumu, priemyslu, občianskej spoločnosti a jednotlivých odborníkov s cieľom dosiahnuť komplexné a presné závery na usmernenie spôsobu regulácie správy.

(50)

Tieto vnútroštátne orgány dohľadu by okrem toho mali poskytovať odborné administratívne usmernenia a podporu pre vývojárov, nasadzujúce subjekty a používateľov, obzvlášť malé a stredné alebo začínajúce podniky, ktoré majú problém dosiahnuť súlad s etickými zásadami a právnymi povinnosťami stanovenými v tomto nariadení.

(51)

Komisia a/alebo akékoľvek príslušná inštitúcia, orgán, úrad a agentúra Únie, ktoré môžu byť na tento účel určené, by mali pripraviť nezáväzné usmernenia pre vypracovanie hodnotenia súladu pre vývojárov, nasadzujúce subjekty a používateľov k metodike na dosiahnutie súladu s týmto nariadením.

(52)

Oznamovaním nekalej činnosti sa orgány upozorňujú na potenciálne a skutočné porušenia práva Únie s cieľom predchádzať ujme, škode alebo strate, ktoré by sa inak vyskytli. Postupmi oznamovania sa okrem toho zlepšujú informačné toky v rámci podnikov a organizácií, a tým sa zmierňuje riziko vývoja kazových či chybných produktov alebo služieb. Podniky a organizácie, ktoré vyvíjajú, nasadzujú alebo používajú umelú inteligenciu, robotiku a súvisiace technológie vrátane údajov používaných alebo produkovaných týmito technológiami, by mali zriadiť kanály pre oznamovanie a oznamovatelia porušení by mali byť chránení pred odvetnými opatreniami.

(53)

Rýchly vývoj umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ako aj strojového učenia, postupov myslenia a ďalších technológií, na ktorých spočíva tento vývoj, sú nepredvídateľné. Preto je vhodné a potrebné zriadiť systém preskúmania, podľa ktorého bude Komisia okrem svojich správ o uplatňovaní tohto nariadenia pravidelne predkladať aj správu o prípadnej úprave rozsahu pôsobnosti tohto nariadenia.

(54)

Keďže cieľ tohto nariadenia, a to vytvorenie spoločného regulačného rámca etických zásad a právnych povinností pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií v Únii, nie je možné uspokojivo dosiahnuť na úrovni členských štátov, ale vzhľadom na jeho rozsah a dôsledky ho možno lepšie dosiahnuť na úrovni Únie, môže Únia prijať opatrenia v súlade so zásadou subsidiarity podľa článku 5 Zmluvy o Európskej únii. V súlade so zásadou proporcionality podľa uvedeného článku toto nariadenie neprekračuje rámec nevyhnutný na dosiahnutie tohto cieľa.

(55)

Koordináciu na úrovni Únie podľa tohto nariadenia môže najlepšie vykonávať Komisia a/alebo niektoré relevantné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť v tejto súvislosti určené, aby sa predišlo fragmentácii a zabezpečilo sa jednotné uplatňovanie tohto nariadenia. Komisia by preto mala byť poverená úlohou nájsť vhodné riešenie pre štruktúru takejto koordinácie na úrovni Únie s ohľadom na koordináciu mandátov a činnosti vnútroštátnych orgánov dohľadu v jednotlivých členských štátoch, najmä pokiaľ ide o posudzovanie rizík umelej inteligencie, robotiky a súvisiacich technológií, zriadenie spoločného rámca pre správu vývoja, nasadzovania a používania týchto technológií, vypracovanie a vydávanie osvedčení o súlade s etickými zásadami a právnymi záväzkami podľa tohto nariadenia, podporu pravidelnej výmeny názorov s dotknutými zainteresovanými stranami a občianskou spoločnosťou a založenie centra odbornosti spojením akademickej obce, výskumu, priemyslu a jednotlivých odborníkov na úrovni Únie na podporu výmeny znalostí a technickej odbornosti a podporu prístupu Únie formou medzinárodnej spolupráce a zabezpečiť jednotnú reakciu na možnosti a riziká, ktoré sú týmto technológiám vlastné, v celosvetovom meradle,

PRIJALI TOTO NARIADENIE:

Kapitola I

Všeobecné ustanovenia

Článok 1

Účel

Účelom tohto nariadenia je vytvoriť komplexný a nadčasový regulačný rámec Únie pre etické zásady a právne povinnosti v oblasti vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií v Únii.

Článok 2

Rozsah pôsobnosti

Toto nariadenie sa vzťahuje na umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ktoré sú vyvíjané, nasadzované alebo používané v Únii.

Článok 3

Geografický rozsah pôsobnosti

Toto nariadenie sa vzťahuje na umelú inteligenciu, robotiku a súvisiace technológie, ak je ktorákoľvek ich časť je vyvíjaná, nasadzovaná alebo používaná v Únii, a to bez ohľadu na to, či softvér, algoritmy alebo údaje používané alebo produkované takýmito technológiami sú umiestnené mimo Únie alebo nemajú konkrétne geografické umiestnenie.

Článok 4

Vymedzenie pojmov

Na účely tohto nariadenia sa uplatňuje toto vymedzenie pojmov:

a)

„umelá inteligencia“ je systém, ktorý je buď založený na softvéri, alebo je súčasťou hardvérových zariadení, a ktorý vykazuje inteligentné správanie okrem iného tým, že zhromažďuje, spracúva, analyzuje a interpretuje svoje prostredie a vykonáva kroky s určitým stupňom autonómie na dosiahnutie konkrétnych cieľov (4);

b)

„autonómia“ je systém umelej inteligencie, ktorý funguje na základe interpretácie určitých vstupov a používania súboru vopred stanovených inštrukcií bez toho, aby bol týmito inštrukciami obmedzovaný, hoci správanie systému je obmedzené cieľom, ktorý mu bol stanovený, a ďalšími príslušnými možnosťami týkajúcimi sa jeho návrhu, ktoré zvolil jeho vývojár, a je zamerané na splnenie tohto cieľa;

c)

„robotika“ sú technológie, ktoré umožňujú automaticky ovládaným, reprogramovateľným, viacúčelovým strojom (5) vykonávať kroky, ktoré vo fyzickom svete tradične vykonávajú alebo iniciujú ľudia, a to aj pomocou umelej inteligencie alebo súvisiacich technológií;

d)

„súvisiace technológie“ sú technológie, ktoré umožňujú softvéru čiastočne alebo úplne autonómne ovládať fyzický alebo virtuálny proces, technológie schopné zistiť biometrické, genetické alebo iné údaje a technológie, ktoré kopírujú alebo inak využívajú ľudské charakteristiky;

e)

„vysoké riziko“ je významné riziko spôsobenia ujmy alebo škody jednotlivcom alebo spoločnosti v rozpore so základnými právami a bezpečnostnými predpismi stanovenými v práve Únie, ktoré je spojené s vývojom, nasadzovaním a používaním umelej inteligencie, robotiky a súvisiacich technológií, vzhľadom na ich osobitné použitie alebo účel, odvetvie, v ktorom sa vyvíjajú, nasadzujú alebo používajú, a závažnosť ujmy alebo škody, ktorých vznik možno očakávať;

f)

„vývoj“ je tvorba a navrhovanie algoritmov, programovanie a navrhovanie softvéru alebo zber, ukladanie a riadenie údajov na účely vytvorenia alebo trénovania umelej inteligencie, robotiky a súvisiacich technológií alebo na účely vytvorenia novej aplikácie pre existujúcu umelú inteligenciu, robotiku a súvisiace technológie;

g)

„vývojár“ je každá fyzická alebo právnická osoba, ktorá prijíma rozhodnutia, ktoré určujú a riadia priebeh alebo spôsob vývoja umelej inteligencie, robotiky a súvisiacich technológií;

h)

„nasadzovanie“ je prevádzka a riadenie umelej inteligencie, robotiky a súvisiacich technológií, ako aj ich uvádzanie na trh alebo iné sprístupňovanie používateľom;

i)

„nasadzujúci subjekt“ je každá fyzická alebo právnická osoba, ktorá sa podieľa na konkrétnom nasadzovaní umelej inteligencie, robotiky a súvisiacich technológií a má kontrolnú alebo riadiacu funkciu tým, že prijíma rozhodnutia, kontroluje riziko a má prospech z tohto nasadzovania;

j)

„používanie“ je akákoľvek činnosť týkajúca sa umelej inteligencie, robotiky a súvisiacich technológií okrem ich vývoja alebo nasadzovania;

k)

„používateľ“ je každá fyzická alebo právnická osoba, ktorá používa umelú inteligenciu, robotiku a súvisiace technológie na účel iný než vývoj alebo nasadzovanie;

l)

„zaujatosť“ je akékoľvek predpojaté osobné alebo spoločenské vnímanie určitej osoby alebo skupiny osôb na základe ich osobných charakteristík;

m)

„diskriminácia“ je rozdielne zaobchádzanie s určitou osobou alebo so skupinou osôb z dôvodu, ktorý nie je objektívne ani primerane odôvodnený, a je preto podľa práva Únie zakázané;

n)

„ujma alebo škoda“ je vrátane prípadov, keď sú spôsobené nenávistným prejavom, zaujatosťou, diskrimináciou alebo stigmatizáciou, fyzická alebo mentálna ujma, hmotná alebo nemajetková škoda, ako je finančná alebo hospodárska strata, strata zamestnania alebo vzdelávacej príležitosti, neoprávnené obmedzenie slobody výberu alebo prejavu alebo strata súkromia a akékoľvek porušenie práva Únie, ktoré škodí niektorej osobe;

o)

„dobré riadenie“ je spôsob, ktorým sa zabezpečí, že vývojári, nasadzujúce subjekty a používatelia na základe formálneho súboru pravidiel, postupov a hodnôt prijmú a budú dodržiavať vhodné a primerané normy a protokoly správania, čo im umožní primerane riešiť etické otázky v čase ich vzniku alebo pred ich vznikom.

Článok 5

Etické zásady umelej inteligencie, robotiky a súvisiacich technológií

1.   Umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami musia byť vyvíjané, nasadzované a používané v Únii v súlade s právom Únie a pri plnom rešpektovaní ľudskej dôstojnosti, autonómie a bezpečnosti a ďalších základných práv stanovených v charte.

2.   Akékoľvek spracúvanie osobných údajov vykonávané v rámci vývoja, nasadzovania a používania umelej inteligencie, robotiky a súvisiacich technológií vrátane osobných údajov odvodených od iných ako osobných údajov a biometrických údajov sa vykonáva v súlade s nariadením (EÚ) 2016/679 a so smernicou 2002/58/ES.

3.   Únia a jej členské štáty podporujú výskumné projekty, ktorých cieľom je poskytnúť riešenia na základe umelej inteligencie, robotiky a súvisiacich technológií podporujúce sociálnu inklúziu, demokraciu, pluralitu, solidaritu, spravodlivosť, rovnosť a spoluprácu.

Kapitola II

Povinnosti týkajúce sa vysokorizikových technológií

Článok 6

Povinnosti týkajúce sa vysokorizikových technológií

1.   Ustanovenia tejto kapitoly sa vzťahujú len na umelú inteligenciu, robotiku a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ktoré sú vyvíjané, nasadzované alebo používané v Únii a považujú sa za vysokorizikové.

2.   Vysokoriziková umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami sa vyvíjajú, nasadzujú a používajú spôsobom, ktorý zaručuje, že pri nich nedôjde k porušeniu etických zásad stanovených v tomto nariadení.

Článok 7

Umelá inteligencia sústredená na človeka a vytvorená človekom

1.   Vysokorizikové umelé technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami musia byť vyvíjané, nasadzované a používané spôsobom, ktorý zaručuje úplný neustály ľudský dohľad.

2.   Technológie uvedené v odseku 1 musia byť vyvíjané, nasadzované a používané spôsobom, ktorý umožňuje, aby človek v prípade potreby prevzal úplnú kontrolu, a to aj zmenou alebo zastavením týchto technológií.

Článok 8

Bezpečnosť, transparentnosť a zodpovednosť

1.   Vysokoriziková umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami sa vyvíjajú, nasadzujú a používajú spôsobom, ktorý zaručuje, že sú:

a)

vyvíjané, nasadzované a používané odolným spôsobom, aby zabezpečovali dostatočnú úroveň zabezpečenia dodržiavaním minimálnych zásad kybernetickej bezpečnosti, ktoré zodpovedajú identifikovanému riziku, a spôsobom, ktorý zamedzí využívaniu prípadných technických nedostatkov na škodlivé alebo nezákonné účely;

b)

vyvíjané, nasadzované a používané bezpečným spôsobom, ktorý poskytuje záruky vrátane záložného plánu a opatrení pre prípad ohrozenia bezpečnosti alebo zabezpečenia;

c)

vyvíjané, nasadzované a používané spôsobom, ktorý zaručuje spoľahlivé fungovanie, ktoré primerane očakáva používateľ, pokiaľ ide o dosahovanie cieľov a uskutočňovanie činností, na ktoré boli vytvorené, a to aj zabezpečením reprodukovateľnosti všetkých operácií;

d)

vyvíjané, nasadzované a používané spôsobom, ktorý zabezpečí, aby bolo plnenie cieľov a uskutočňovanie činností konkrétnymi technológiami presné; ak nie je možné predísť príležitostných nepresnostiam, systém podľa možností oznámi nasadzujúcim subjektom a používateľom vhodnými prostriedkami pravdepodobnosť chýb a nepresností;

e)

vyvíjané, nasadzované a používané jednoducho vysvetliteľným spôsobom s cieľom zabezpečiť, aby bolo možné uskutočniť preskúmanie technických procesov technológií;

f)

vyvíjané, nasadzované a používané spôsobom, aby používateľov informovali o tom, že sú v interakcii so systémami umelej inteligencie, pri náležitom a komplexnom informovaní vývojárov, nasadzujúcich subjektov a používateľov umelej inteligencie o svojich schopnostiach, presnosti a obmedzeniach;

g)

v súlade s článkom 6 vyvíjané, nasadzované a používané spôsobom, ktorý umožňuje, aby v prípade nedodržania bezpečnostných prvkov uvedených v písmenách a) až g) boli dotknuté funkcie dočasne deaktivované a aby bolo možné vrátiť sa k predchádzajúcemu stavu, ktorým sa obnovia bezpečné funkcie.

2.   V súlade s článkom 6 ods. 1 musia byť technológie uvedené v odseku 1 toho článku vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami vyvíjané, nasadzované a používané transparentným a vysledovateľným spôsobom, aby ich prvky, procesy a fázy boli zdokumentované podľa najvyšších možných a platných noriem a aby vnútroštátne orgány dohľadu uvedené v článku 18 mohli posúdiť súlad týchto technológií s povinnosťami stanovenými v tomto nariadení. Vývojár, nasadzujúci subjekt alebo používateľ týchto technológií zodpovedajú za súlad s bezpečnostnými prvkami stanovenými v odseku 1 a musia vedieť tento súlad preukázať.

3.   Vývojár, nasadzujúci subjekt alebo používateľ technológií uvedených v odseku 1 musia zabezpečiť, aby opatrenia prijaté na zabezpečenie súladu s bezpečnostnými prvkami uvedenými v odseku 1 mohli byť predmetom auditu zo strany vnútroštátnych orgánov dohľadu uvedených v článku 18, alebo prípadne iných vnútroštátnych alebo európskych odvetvových orgánov dohľadu.

Článok 9

Nezaujatosť a nediskriminácia

1.   Každý softvér, algoritmus alebo údaje používané alebo produkované vysokorizikovou umelou inteligenciou, robotikou a súvisiacimi technológiami vyvíjanými, nasadzovanými alebo používanými v Únii musia byť nezaujaté a bez toho, aby bol dotknutý odsek 2, nesmú byť diskriminačné na základe rasy, pohlavia, sexuálnej orientácie, tehotenstva, zdravotného postihnutia, fyzických alebo genetických vlastností, veku, národnostnej menšiny, etnického alebo sociálneho pôvodu, jazyka, náboženstva alebo viery, politických názorov alebo občianskej angažovanosti, štátnej príslušnosti, osobného stavu alebo ekonomického postavenia, vzdelania alebo záznamov vedených v registri trestov.

2.   Odchylne od odseku 1 a bez toho, aby tým bolo dotknuté právo Únie o nezákonnej diskriminácii, rozdielne zaobchádzanie s osobami alebo skupinami osôb môže byť opodstatnené len vtedy, ak existuje objektívny, náležitý a legitímny cieľ, ktorý je primeraný a potrebný do tej miery, v akej neexistuje iná alternatíva, ktorá by menej narúšala zásadu rovnakého zaobchádzania.

Článok 10

Sociálna zodpovednosť a rodová rovnosť

Vysokoriziková umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ktoré sú vyvíjané, nasadzované a používané v Únii, sa vyvíjajú, nasadzujú a používajú v súlade s príslušným právom, zásadami a hodnotami Únie spôsobom, ktorý nezasahuje do volieb ani neprispieva k šíreniu dezinformácií, rešpektuje práva pracovníkov, podporuje kvalitné vzdelávanie a digitálnu gramotnosť, nezvyšuje rodové rozdiely tým, že bráni rovnakým príležitostiam pre všetkých, s neporušuje práva duševného vlastníctva ani žiadne obmedzenia alebo výnimky z týchto práv.

Článok 11

Environmentálna udržateľnosť

Vysokoriziková umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami musia byť posudzované vnútroštátnymi orgánmi dohľadu uvedenými v článku 18 alebo prípadne inými vnútroštátnymi alebo európskymi odvetvovými orgánmi dohľadu z hľadiska ich environmentálnej udržateľnosti s cieľom zaručiť, že sú zavedené opatrenia na zmiernenie a nápravu ich všeobecného vplyvu, pokiaľ ide o prírodné zdroje, spotrebu energie, vznik odpadu, uhlíkovú stopu, zmenu klímy a zhoršovanie životného prostredia, aby bol zabezpečený súlad s príslušným právom Únie alebo vnútroštátnym právom, ako aj dodržiavanie všetkých ďalších medzinárodných environmentálnych záväzkov, ktoré Únia prijala.

Článok 12

Rešpektovanie súkromia a ochrana osobných údajov

Používanie a zber biometrických údajov na účely diaľkovej identifikácie vo verejných priestoroch, ako je biometria alebo rozpoznávanie tváre, prinášajú so sebou osobitné riziká, pokiaľ ide o základné práva, a nasadzujú alebo používajú ich len verejné orgány členských štátov na účely podstatného verejného záujmu. Uvedené orgány musia zabezpečiť, aby takéto nasadzovanie alebo používanie bolo zverejnené, primerané, cielené a obmedzené na konkrétne ciele a miesto a časovo obmedzené v súlade s právom Únie a vnútroštátnym právom, najmä nariadením (EÚ) 2016/679 a smernicou 2002/58/ES, a s náležitým ohľadom na ľudskú dôstojnosť a autonómiu a základné práva stanovené v charte, konkrétne právo na rešpektovanie súkromia a ochranu osobných údajov.

Článok 13

Právo na nápravu

Každá fyzická alebo právnická osoba má právo domáhať sa nápravy za ujmu alebo škodu spôsobené vývojom, nasadzovaním a používaním vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami v rozpore s právom Únie a povinnosťami stanovenými v tomto nariadení.

Článok 14

Posúdenie rizika

1.   Na účely tohto nariadenia sa umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami považujú za vysokorizikové technológie, keď na základe posúdenia rizika založeného na objektívnych kritériách, ako je ich osobitné použitie alebo účel, odvetvie, v ktorom sa vyvíjajú, nasadzujú alebo používajú, a závažnosť možnej spôsobenej ujmy alebo škody, ich vývoj, nasadenie alebo používanie predstavujú významné riziko spôsobenia ujmy alebo škody, ktorých vznik možno očakávať u jednotlivca alebo spoločnosti v rozpore so základnými právami a bezpečnostnými predpismi stanovenými v práve Únie.

2.   Bez toho, aby boli dotknuté uplatniteľné odvetvové právne predpisy, posúdenie rizika umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami vykonávajú v súlade s objektívnymi kritériami stanovenými v odseku 1 tohto článku a v úplnom a kumulatívnom zozname uvedenom v prílohe k tomuto nariadeniu vnútroštátne orgány dohľadu uvedené v článku 18 v koordinácii s Komisiou a/alebo akýmikoľvek inými príslušnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť na tento účel určené v kontexte ich spolupráce.

3.   Komisia v spolupráci s vnútroštátnymi orgánmi dohľadu uvedenými v odseku 2 prostredníctvom delegovaných aktov v súlade s článkom 20 vypracuje a následne aktualizuje spoločný zoznam vysokorizikových technológií určených v Únii.

4.   Komisia taktiež prostredníctvom delegovaných aktov v súlade s článkom 20 pravidelne aktualizuje zoznam stanovený v prílohe k tomuto nariadeniu.

Článok 15

Posúdenie súladu

1.   Vysokoriziková umelá inteligencia, robotika a súvisiace technológie podliehajú posúdeniu súladu s povinnosťami stanovenými v článkoch 6 až 12 tohto nariadenia, ako aj následnému monitorovaniu, ktoré vykonávajú vnútroštátne orgány dohľadu uvedené v článku 18 v koordinácii s Komisiou a/alebo akýmikoľvek inými príslušnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť na tento účel určené.

2.   Pokiaľ sa príslušný vnútroštátny orgán dohľadu nerozhodne vykonať posúdenie z vlastnej iniciatívy alebo na žiadosť vývojára, nasadzujúceho subjektu alebo používateľa, softvér, algoritmy a údaje používané alebo produkované vysokorizikovými technológiami, ktoré sú na základe posúdenia v súlade s povinnosťami stanovenými v tomto nariadení podľa odseku 1, sa taktiež považujú za spĺňajúce tieto povinnosti.

3.   Bez toho, aby boli dotknuté odvetvové právne predpisy, Komisia a/alebo akékoľvek príslušné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť osobitne určené na tento účel, vypracujú záväzné usmernenia týkajúce sa metodiky, ktorú majú používať vnútroštátne orgány dohľadu na posúdenie súladu uvedené v odseku 1, do dátumu nadobudnutia účinnosti tohto nariadenia.

Článok 16

Európske osvedčenie o dodržiavaní etických zásad

1.   Ak je výsledok posúdenia súladu vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami vykonaného v súlade s článkom 15 kladné, príslušný vnútroštátny orgán dohľadu vydá európske osvedčenie o dodržiavaní etických zásad.

2.   Každý vývojár, nasadzujúci subjekt alebo používateľ umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, ktoré sa nepovažujú za vysokorizikové, a na ktoré sa preto nevzťahujú povinnosti stanovené v článkoch 6 až 12 ani posúdenie rizika a posúdenie súladu stanovené v článkoch 14 a 15, sa tiež môžu usilovať o osvedčenie súladu s povinnosťami stanovenými v tomto nariadení alebo s časťami týchto povinností, ak je to odôvodnené povahou dotknutej technológie podľa rozhodnutia vnútroštátnych orgánov dohľadu. Osvedčenie sa vydá len vtedy, ak posúdenie súladu vykonal príslušný vnútroštátny orgán dohľadu a výsledok tohto posúdenia je kladný.

3.   Na účel vydania osvedčenia uvedeného v odseku 2 vypracuje Komisia a/alebo akékoľvek iné príslušné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť na tento účel určené, postup podávania sťažností.

Kapitola III

Inštitucionálny dohľad

Článok 17

Normy riadenia a vykonávacie usmernenia

1.   Umelá inteligencia, robotika a súvisiace technológie vyvíjané, nasadzované alebo používané v Únii musia byť v súlade s príslušnými normami riadenia, ktoré v súlade s právom, zásadami a hodnotami Únie stanovili vnútroštátne orgány dohľadu uvedené v článku 18 v súlade s právom, zásadami a hodnotami Únie, a to v koordinácii s Komisiou a/alebo akýmikoľvek príslušnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť určené na tento účel, a po konzultácii s príslušnými zainteresovanými stranami.

2.   Normy uvedené v odseku 1 zahŕňajú nezáväzné vykonávacie usmernenia týkajúce sa metodiky pre dodržiavanie tohto nariadenia zo strany vývojárov, nasadzujúcich subjektov a používateľov a uverejnia sa do dátumu nadobudnutia účinnosti tohto nariadenia.

3.   Údaje používané alebo produkované umelou inteligenciou, robotikou a súvisiacimi technológiami vyvíjanými, nasadzovanými alebo používanými v Únii musia byť riadené vývojármi, nasadzujúcimi subjektmi a používateľmi v súlade s príslušnými vnútroštátnymi a medzinárodnými pravidlami a normami a s pravidlami a normami Únie a iných európskych organizácií, ako aj s príslušnými odvetvovými a obchodnými protokolmi. Ak je to možné, vývojári a nasadzujúce subjekty musia vykonávať najmä kontroly kvality externých zdrojov údajov, ktoré umelá inteligencia, robotika a súvisiace technológie používajú, a musia zaviesť mechanizmy dohľadu, pokiaľ ide o ich zber, ukladanie, spracúvanie a používanie.

4.   Bez toho, aby boli dotknuté práva na prenosnosť a práva osôb, ktorých používanie umelej inteligencie, robotiky a súvisiacich technológií viedlo k tvorbe údajov, musí zber, ukladanie, spracovávanie a spoločné využívanie údajov používaných alebo produkovaných umelou inteligenciou, robotikou a súvisiacimi technológiami vyvíjanými, nasadzovanými alebo používanými v Únii, ako aj prístup k takýmto údajom, byť v súlade s príslušnými vnútroštátnymi a medzinárodnými pravidlami a normami a s pravidlami a normami Únie a iných európskych organizácií, ako aj s príslušnými odvetvovými a obchodnými protokolmi. Vývojári a nasadzujúce subjekty musia najmä zabezpečiť, aby tieto protokoly boli uplatnené počas vývoja a nasadzovania umelej inteligencie, robotiky a súvisiacich technológií, a to jasným vymedzením požiadaviek na spracovávanie údajov používaných alebo produkovaných týmito technológiami a na poskytovanie prístupu k nim, ako aj požiadaviek týkajúcich sa účelu, rozsahu a adresátov spracovávania takýchto údajov a udeľovania prístupu k nim, pričom všetky musí byť možné kedykoľvek skontrolovať a vysledovať.

Článok 18

Orgány dohľadu

1.   Každý členský štát určí nezávislý verejný orgán, ktorý bude zodpovedný za monitorovanie uplatňovania tohto nariadenia (ďalej len „orgán dohľadu“), za vykonávanie posúdení rizík a súladu a za vydávanie osvedčení stanovené v článkoch 14, 15 a 16 bez toho, aby boli dotknuté odvetvové právne predpisy.

2.   Každý vnútroštátny orgán dohľadu prispieva jednotnému uplatňovaniu tohto nariadenia v celej Únii. Na tento účel spolupracujú orgány dohľadu každého členského štátu navzájom, s Komisiou a/alebo ďalšími relevantnými inštitúciami, orgánmi, úradmi a agentúrami Únie, ktoré môžu byť na tento účel určené.

3.   Každý vnútroštátny orgán dohľadu slúži ako prvé kontaktné miesto v prípadoch podozrenia z porušenia etických zásad a právnych povinností stanovených v tomto nariadení vrátane diskriminačného zaobchádzania alebo porušenia iných práv v dôsledku vývoja, nasadzovania alebo používania umelej inteligencie, robotiky a súvisiacich technológií. V takýchto prípadoch príslušný vnútroštátny orgán dohľadu vykoná posúdenie súladu s cieľom podporiť právo občanov brániť sa a na nápravu.

4.   Každý vnútroštátny orgán dohľadu zodpovedá za dohľad nad uplatňovaním príslušných vnútroštátnych, európskych a medzinárodných riadiacich predpisov a noriem podľa článku 17 v oblasti umelej inteligencie, robotiky a súvisiacich technológií, a to aj spoluprácou s čo možno najväčším počtom príslušných zainteresovaných strán. Na tento účel orgány dohľadu v každom členskom štáte zabezpečia fórum na pravidelnú výmenu informácií so zainteresovanými stranami z akademickej obce, výskumu, priemyslu a občianskej spoločnosti a medzi nimi navzájom.

5.   Každý vnútroštátny orgán dohľadu poskytuje odborné a správne usmernenia a podporu, pokiaľ ide o všeobecné uplatňovanie práva Únie vzťahujúceho sa na umelú inteligenciu, robotiku a súvisiace technológie a na etické zásady stanovené v tomto nariadení, a to najmä príslušným výskumným a vývojovým organizáciám a malým a stredným podnikom alebo startupom.

6.   Každý členský štát oznámi Európskej komisii právne ustanovenia, ktoré prijme podľa tohto článku do … [Ú. v.: uveďte dátum: rok po nadobudnutí účinnosti], a bezodkladne oznámi každú ďalšiu zmenu, ktorá sa ich týka.

7.   Členské štáty prijmú všetky opatrenia potrebné na zabezpečenie uplatňovania etických zásad a právnych povinností stanovených v tomto nariadení. Členské štáty podporujú príslušné zainteresované strany a občiansku spoločnosť na úrovni Únie, ako aj na vnútroštátnej úrovni v ich snahe zabezpečiť včasné, etické a informované reagovanie na nové príležitosti a výzvy vyplývajúce z technologického vývoja súvisiaceho s umelou inteligenciou, robotikou a súvisiacimi technológiami, a to najmä na príležitosti a výzvy cezhraničného charakteru.

Článok 19

Nahlasovanie porušení a ochrana osôb nahlasujúcich porušenia

Na nahlasovanie porušení tohto nariadenia a na ochranu osôb nahlasujúcich tieto porušenia sa vzťahuje smernica Európskeho parlamentu a Rady (EÚ) 2019/1937 (6).

Článok 20

Koordinácia na úrovni Únie

1.   Komisia a/alebo akékoľvek príslušné inštitúcie, orgány, úrady a agentúry Únie, ktoré môžu byť v tejto súvislosti určené, majú tieto úlohy:

zabezpečiť konzistentné posúdenie rizika umelej inteligencie, robotiky a súvisiacich technológií uvedené v článku 14, ktoré majú vykonávať vnútroštátne orgány dohľadu uvedené v článku 18 na základe spoločných objektívnych kritérií stanovených v článku 8 ods. 1 a zozname vysokorizikových odvetví a vysokorizikových použití alebo účelov uvedených v prílohe k tomuto nariadeniu;

zohľadňovať posúdenie súladu a následné monitorovanie vysokorizikovej umelej inteligencie, robotiky a súvisiacich technológií podľa článku 15, ktoré majú vykonávať vnútroštátne orgány dohľadu uvedené v článku 18;

vytvoriť postup podávania žiadostí o osvedčenie uvedené v článku 16, ktoré majú vydať vnútroštátne orgány dohľadu uvedené v článku 18;

bez toho, aby boli dotknuté odvetvové právne predpisy, pripraviť záväzné usmernenia uvedené v článku 17 ods. 4 k metodike, ktorú majú používať vnútroštátne orgány dohľadu uvedené v článku 18;

koordinovať stanovenie príslušných noriem riadenia uvedených v článku 17 vnútroštátnymi orgánmi dohľadu uvedenými v článku 18 vrátane nezáväzných vykonávacích usmernení pre vývojárov, nasadzujúce subjekty a používateľov týkajúcich sa metodiky pre dodržiavanie tohto nariadenia;

spolupracovať s vnútroštátnymi orgánmi dohľadu uvedenými v článku 18, pokiaľ ide o ich príspevok k jednotnému uplatňovaniu tohto nariadenia v celej Únii podľa článku 18 ods. 2;

slúžiť ako odborné centrum, a to podporovaním výmeny informácií súvisiacich s umelou inteligenciou, robotikou a súvisiacimi technológiami, podporovaním nadobudnutia spoločného chápania na jednotnom trhu, vydávaním dodatočných usmernení a stanovísk a poskytovaním expertízy vnútroštátnym orgánom dohľadu uvedeným v článku 18, monitorovaním vykonávania príslušného práva Únie, určovaním noriem pre najlepšie postupy a v prípade potreby vydávaním odporúčaní pre regulačné opatrenia; pritom by malo spolupracovať s maximálnym možným počtom príslušných zainteresovaných strán a zabezpečiť, aby zloženie jeho rozhodovacích úrovní bolo rozmanité a zabezpečovalo rodovú rovnosť;

usporiadať zasadnutie pracovnej skupiny pre bezpečnosť a obranu s cieľom preskúmať politické a investičné otázky, ktoré sa osobitne týkajú etického využívania umelej inteligencie, robotiky a súvisiacich technológií v oblasti bezpečnosti a obrany.

Článok 21

Vykonávanie delegovania právomoci

1.   Komisii sa udeľuje právomoc prijímať delegované akty za podmienok stanovených v tomto článku.

2.   Právomoc prijímať delegované akty uvedené v článku 14 ods. 3 a 4 sa Komisii udeľuje na obdobie 5 rokov od (dátum nadobudnutia účinnosti tohto nariadenia).

3.   Delegovanie právomoci uvedené v článku 14 ods. 3 a 4 môže Európsky parlament alebo Rada kedykoľvek odvolať. Rozhodnutím o odvolaní sa ukončuje delegovanie právomoci, ktoré sa v ňom uvádza. Rozhodnutie nadobúda účinnosť dňom nasledujúcim po jeho uverejnení v Úradnom vestníku Európskej únie alebo k neskoršiemu dátumu, ktorý je v ňom určený. Nie je ním dotknutá platnosť delegovaných aktov, ktoré už nadobudli účinnosť.

4.   Komisia pred prijatím delegovaného aktu konzultuje s odborníkmi určenými jednotlivými členskými štátmi v súlade so zásadami stanovenými v Medziinštitucionálnej dohode z 13. apríla 2016 o lepšej tvorbe práva.

5.   Komisia oznamuje delegovaný akt hneď po jeho prijatí súčasne Európskemu parlamentu a Rade.

6.   Delegovaný akt prijatý podľa článku 14 ods. 3 a 4 nadobudne účinnosť, len ak Európsky parlament alebo Rada voči nemu nevzniesli námietku v lehote troch mesiacov odo dňa oznámenia uvedeného aktu Európskemu parlamentu a Rade alebo ak pred uplynutím uvedenej lehoty Európsky parlament a Rada informovali Komisiu o svojom rozhodnutí nevzniesť námietku. Na podnet Európskeho parlamentu alebo Rady sa táto lehota predĺži o tri mesiace.

Článok 22

Zmena smernice (EÚ) 2019/1937

Smernica (EÚ) 2019/1937 sa mení takto:

1.

V článku 2 ods. 1 sa dopĺňa tento bod:

„xi)

vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií.“

2.

V časti I prílohy sa dopĺňa toto písmeno:

„K.

Článok 2 ods. 1 písm. a) bod xi) – vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií.

‚xxi)

nariadenie Európskeho parlamentu a Rady [XXX] o etických zásadách pre vývoj, nasadzovanie a používanie umelej inteligencie, robotiky a súvisiacich technológií‘.“

Článok 23

Preskúmanie

Komisia priebežne preskúmava vývoj umelej inteligencie, robotiky a súvisiacich technológií vrátane softvéru, algoritmov a údajov používaných alebo produkovaných takýmito technológiami, a do … [Ú. v.: uveďte dátum tri roky po nadobudnutí účinnosti] a následne každé tri roky predloží Európskemu parlamentu, Rade a Európskemu hospodárskemu a sociálnemu výboru správu o uplatňovaní tohto nariadenia vrátane posúdenia možnej úpravy rozsahu uplatňovania tohto nariadenia.

Článok 24

Nadobudnutie účinnosti

Toto nariadenie nadobúda účinnosť dvadsiatym dňom po jeho uverejnení v Úradnom vestníku Európskej únie.

Uplatňuje sa od XX.

Toto nariadenie je záväzné v celom rozsahu a priamo uplatniteľné vo všetkých členských štátoch.

V …

Za Európsky parlament

predseda

Za Radu

predseda

PRÍLOHA

Úplný a kumulatívny zoznam vysokorizikových odvetví a vysokorizikových použití alebo účelov, pri ktorých existuje riziko porušenia základných práv a bezpečnostných pravidiel.

Vysokorizikové odvetvia

Zamestnanosť

Vzdelávanie

Zdravotná starostlivosť

Doprava

Energetika

Verejný sektor (azyl, migrácia, hraničné kontroly, súdnictvo a služby sociálneho zabezpečenia)

Obrana a bezpečnosť

Financie, bankovníctvo, poisťovníctvo

Vysokorizikové použitia alebo účely

Nábor zamestnancov

Klasifikácia a hodnotenie študentov

Prideľovanie verejných finančných prostriedkov

Poskytovanie pôžičiek

Obchodovanie, sprostredkovanie, zdaňovanie atď.

Lekárske ošetrenie a liečebné postupy

Volebné procesy a politické kampane

Rozhodnutia verejného sektora, ktoré majú významný a priamy vplyv na práva a povinnosti fyzických alebo právnických osôb

Automatizované jazdenie

Riadenie dopravy

Autonómne vojenské systémy

Výroba a distribúcia energie

Nakladanie s odpadom

Kontrola emisií


(1)  Medzinárodná norma SAE J3016, ktorá bola naposledy aktualizovaná v roku 2018 na normu J3016_201806, ponúka šesť úrovní automatizácie jazdy vozidiel. https://www.sae.org/standards/content/j3016_201806/

(2)  Nariadenie Európskeho parlamentu a Rady (EÚ) 2016/679 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov a o voľnom pohybe takýchto údajov, ktorým sa zrušuje smernica 95/46/ES (všeobecné nariadenie o ochrane údajov) (Ú. v. EÚ L 119, 4.5.2016, s. 1).

(3)  Smernica Európskeho parlamentu a Rady 2002/58/ES z 12. júla 2002, týkajúca sa spracovávania osobných údajov a ochrany súkromia v sektore elektronických komunikácií (smernica o súkromí a elektronických komunikáciách) (Ú. v. ES L 201, 31.7.2002, s. 37).

(4)  Upravené vymedzenie pojmu z oznámenia Európskej komisie COM(2018)0237, 25.4.2018, strana 1.

(5)  Z vymedzenia priemyselných robotov podľa normy ISO 8373.

(6)  Smernica Európskeho parlamentu a Rady (EÚ) 2019/1937 z 23. októbra 2019 o ochrane osôb, ktoré nahlasujú porušenia práva Únie (Ú. v. EÚ L 305, 26.11.2019, s. 17).


Top