Ten dokument pochodzi ze strony internetowej EUR-Lex
Dokument 52021IP0009
European Parliament resolution of 20 January 2021 on artificial intelligence: questions of interpretation and application of international law in so far as the EU is affected in the areas of civil and military uses and of state authority outside the scope of criminal justice (2020/2013(INI))
Uznesenie Európskeho parlamentu z 20. januára 2021 o umelej inteligencii: otázky výkladu a uplatňovania medzinárodného práva, pokiaľ ide o EÚ, v oblastiach civilného a vojenského využitia a štátnej moci mimo rozsahu trestnej justície (2020/2013(INI))
Uznesenie Európskeho parlamentu z 20. januára 2021 o umelej inteligencii: otázky výkladu a uplatňovania medzinárodného práva, pokiaľ ide o EÚ, v oblastiach civilného a vojenského využitia a štátnej moci mimo rozsahu trestnej justície (2020/2013(INI))
Ú. v. EÚ C 456, 10.11.2021, str. 34—46
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
10.11.2021 |
SK |
Úradný vestník Európskej únie |
C 456/34 |
P9_TA(2021)0009
Umelá inteligencia: otázky výkladu a uplatňovania medzinárodného práva
Uznesenie Európskeho parlamentu z 20. januára 2021 o umelej inteligencii: otázky výkladu a uplatňovania medzinárodného práva, pokiaľ ide o EÚ, v oblastiach civilného a vojenského využitia a štátnej moci mimo rozsahu trestnej justície (2020/2013(INI))
(2021/C 456/04)
Európsky parlament,
— |
so zreteľom na preambulu Zmluvy o Európskej únii a na jej články 2, 3, 10, 19, 20, 21, 114, 167, 218, 225 a 227, |
— |
so zreteľom na petičné právo ustanovené v článkoch 20 a 227 Zmluvy o fungovaní Európskej únie, |
— |
so zreteľom na Chartu základných práv Európskej únie, |
— |
so zreteľom na smernicu Rady 2000/43/ES z 29. júna 2000, ktorou sa zavádza zásada rovnakého zaobchádzania s osobami bez ohľadu na rasový alebo etnický pôvod (1) (smernica o rasovej rovnosti), |
— |
so zreteľom na smernicu Rady 2000/78/ES z 27. novembra 2000, ktorá ustanovuje všeobecný rámec pre rovnaké zaobchádzanie v zamestnaní a povolaní (2) (smernica o rovnakom zaobchádzaní v zamestnaní), |
— |
so zreteľom na nariadenie Európskeho parlamentu a Rady (EÚ) 2016/679 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov a o voľnom pohybe takýchto údajov, ktorým sa zrušuje smernica 95/46/ES (3) (všeobecné nariadenie o ochrane údajov), a smernicu Európskeho parlamentu a Rady (EÚ) 2016/680 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov príslušnými orgánmi na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo na účely výkonu trestných sankcií a o voľnom pohybe takýchto údajov a o zrušení rámcového rozhodnutia Rady 2008/977/SVV (4), |
— |
so zreteľom na nariadenie Rady (EÚ) 2018/1488 z 28. septembra 2018, ktorým sa zriaďuje spoločný podnik pre európsku vysokovýkonnú výpočtovú techniku (5), |
— |
so zreteľom na návrh nariadenia Európskeho parlamentu a Rady zo 6. júna 2018, ktorým sa stanovuje program Digitálna Európa na obdobie 2021 – 2027 (COM(2018)0434), |
— |
so zreteľom na svoje uznesenie zo 16. februára 2017 s odporúčaniami pre Komisiu k normám občianskeho práva v oblasti robotiky (6), |
— |
so zreteľom na svoje uznesenie z 1. júna 2017 o digitalizácii európskeho priemyslu (7), |
— |
so zreteľom na svoje uznesenie z 12. septembra 2018 o autonómnych zbraňových systémoch (8), |
— |
so zreteľom na svoje uznesenie z 11. septembra 2018 o rovnosti jazykov v digitálnom veku (9), |
— |
so zreteľom na svoje uznesenie z 12. februára 2019 o komplexnej európskej priemyselnej politike v oblasti umelej inteligencie a robotiky (10), |
— |
so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 11. decembra 2019 o Európskej zelenej dohode (COM(2019)0640), |
— |
so zreteľom na bielu knihu Komisie z 19. februára 2020 o umelej inteligencii – európsky prístup k excelentnosti a dôvere (COM(2020)0065), |
— |
so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 19. februára 2020 s názvom Európska dátová stratégia (COM(2020)0066), |
— |
so zreteľom na oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov z 19. februára 2020 s názvom Formovanie digitálnej budúcnosti Európy (COM(2020)0067), |
— |
so zreteľom na správu expertnej skupiny na vysokej úrovni pre umelú inteligenciu, ktorú zriadila Komisia v júni 2018, z 8. apríla 2019 s názvom Etické usmernenia pre dôveryhodnú umelú inteligenciu, |
— |
so zreteľom na Rámcový dohovor Rady Európy na ochranu národnostných menšín, Protokol č. 12 k Dohovoru o ochrane ľudských práv a základných slobôd a Európsku chartu regionálnych alebo menšinových jazykov, |
— |
so zreteľom na Európsku etickú chartu o používaní umelej inteligencie v justičných systémoch a ich prostredí, ktorú prijala pracovná skupina Rady Európy pre kvalitu súdnictva (CEPEJ-GT-QUAL) v decembri 2018, |
— |
so zreteľom na odporúčanie Rady OECD o umelej inteligencii prijaté 22. mája 2019, |
— |
so zreteľom na článok 54 rokovacieho poriadku, |
— |
so zreteľom na stanoviská Výboru pre zahraničné veci, Výboru pre vnútorný trh a ochranu spotrebiteľa, Výboru pre dopravu a cestovný ruch a Výboru pre občianske slobody, spravodlivosť a vnútorné veci, |
— |
so zreteľom na správu Výboru pre právne veci (A9-0001/2021), |
Úvod
A. |
keďže umelá inteligencia, robotika a súvisiace technológie sa vyvíjajú rýchlo a priamo ovplyvňujú všetky aspekty našej spoločnosti vrátane základných sociálnych a ekonomických zásad a hodnôt; |
B. |
keďže umelá inteligencia spôsobuje revolúciu vo vojenskej doktríne a vybavení prostredníctvom zásadnej zmeny v spôsobe fungovania armád, najmä z dôvodu integrácie a využívania nových technológií a autonómnych kapacít; |
C. |
keďže vývoj a navrhovanie tzv. umelej inteligencie, robotiky a súvisiacich technológií uskutočňujú ľudia a ich voľby predurčujú potenciál technológií prospievať spoločnosti; |
D. |
keďže spoločný rámec Únie musí pokrývať vývoj, zavádzanie a využívanie umelej inteligencie, robotiky a súvisiacich technológií a musí zabezpečovať rešpektovanie ľudskej dôstojnosti a ľudských práv, ako sú zakotvené v Charte základných práv Európskej únie; |
E. |
keďže Únia a jej členské štáty majú osobitnú zodpovednosť za zabezpečenie toho, aby umelá inteligencia, robotika a súvisiace technológie, keďže ich možno používať aj za hranicami, boli zamerané na človeka, t. j. boli v zásade určené na použitie v službách ľudstva a spoločného blaha s cieľom prispieť k dobrým životným podmienkam a všeobecnému záujmu svojich občanov; keďže Únia by to mala pomáhať dosiahnuť členským štátom, najmä tým, ktoré začali uvažovať o možnom vývoji právnych noriem alebo legislatívnych zmien v tejto oblasti; |
F. |
keďže európski občania by mohli mať prospech z vhodného, účinného, transparentného a koherentného regulačného prístupu na úrovni Únie, ktorý stanovuje dostatočne jasné podmienky pre spoločnosti na vývoj aplikácií a plánovanie ich obchodných modelov, a zároveň by zabezpečil, aby si Únia a jej členské štáty zachovali kontrolu nad nariadeniami, ktoré sa majú ustanoviť tak, aby neboli nútení osvojiť si alebo prijímať normy stanovené inými; |
G. |
keďže etické usmernenia, ako sú zásady prijaté expertnou skupinou na vysokej úrovni pre umelú inteligenciu, sú dobrým východiskovým bodom, ale nestačia na zabezpečenie toho, aby podniky konali spravodlivo a zaručili účinnú ochranu jednotlivcov; |
H. |
keďže táto osobitná zodpovednosť si vyžaduje predovšetkým preskúmať otázky výkladu a uplatňovania medzinárodného práva, týkajúce sa aktívnej účasti EÚ na medzinárodných rokovaniach, pokiaľ ide o EÚ, v oblastiach civilného a vojenského využitia tohto druhu umelej inteligencie, robotiky a súvisiacich technológií, ako aj otázky týkajúce sa štátnej moci vo vzťahu k týmto technológiám, ktoré spočívajú mimo rozsahu trestnej justície; |
I. |
keďže je nevyhnutné poskytnúť vhodný a komplexný právny rámec pre etické aspekty týchto technológií, ako aj pre zodpovednosť, transparentnosť a vyvodenie zodpovednosti (najmä pre umelú inteligenciu, robotiku a súvisiace technológie, ktoré sú považované za vysoko rizikové); keďže tento rámec musí odrážať skutočnosť, že skutočné európske a univerzálne humanistické hodnoty sú uplatniteľné na celý hodnotový reťazec pri vývoji, vykonávaní a využívaní umelej inteligencie; keďže tento etický rámec sa musí vzťahovať na vývoj (vrátane výskumu a inovácií), zavádzanie a využívanie umelej inteligencie pri plnom rešpektovaní práva Únie a hodnôt stanovených v Charte základných práv Európskej únie; |
J. |
keďže účelom tohto preskúmania je zistiť, v akom rozsahu sú pre tieto technológie vhodné pravidlá medzinárodného práva verejného a súkromného a práva EÚ, ako aj objasniť výzvy a riziká, ktorým štátna moc v súvislosti s týmito technológiami čelí, aby mohli byť správne a primerane riadené; |
K. |
keďže Európska komisia vo svojej bielej knihe nezohľadňuje vojenské aspekty využívania umelej inteligencie; |
L. |
keďže harmonizovaný európsky prístup k týmto problémom si vyžaduje spoločné vymedzenie pojmu umelá inteligencia a zabezpečenie dodržiavania základných hodnôt Európskej únie, zásad Charty základných práv a medzinárodných právnych predpisov o ľudských právach; |
M. |
keďže umelá inteligencia poskytuje bezprecedentné možnosti zlepšenia výkonnosti v odvetví dopravy tým, že rieši problémy zvyšujúceho sa dopytu po cestovaní, bezpečnosti a životného prostredia, a zároveň zvyšuje inteligentnosť, účinnosť a pohodlnosť všetkých druhov dopravy; |
N. |
keďže riešenie otázky využitia umelej inteligencie v oblasti obrany na úrovni EÚ je nevyhnutné na rozvoj spôsobilostí EÚ v tomto sektore; |
Vymedzenie umelej inteligencie
1. |
domnieva sa, že je potrebné prijať spoločný európsky právny rámec s harmonizovaným vymedzením pojmov a spoločnými etickými zásadami vrátane využívania umelej inteligencie na vojenské účely; vyzýva preto Komisiu, aby prijala toto vymedzenie pojmov:
|
2. |
zdôrazňuje, že bezpečnostná a obranná politika Európskej únie a jej členských štátov sa riadi zásadami zakotvenými v Charte základných práv Európskej únie a v Charte OSN, ktorá vyzýva všetky štáty, aby sa vo svojich vzájomných vzťahoch vyhýbali používaniu hrozieb a násilia, a takisto sa riadi zásadami medzinárodného práva, zásadami ľudských práv, rešpektovaním ľudskej dôstojnosti a spoločným chápaním všeobecných hodnôt nedotknuteľných a neodňateľných práv človeka, slobody, demokracie, rovnosti a právneho štátu; zdôrazňuje, že všetky činnosti súvisiace s obranou v rámci Únie musia rešpektovať tieto všeobecné hodnoty a zároveň podporovať mier, stabilitu, bezpečnosť a pokrok v Európe a vo svete; |
Medzinárodné právo verejné a vojenské využitie umelej inteligencie
3. |
domnieva sa, že umelá inteligencia využívaná vo vojenskom a civilnom kontexte musí podliehať zmysluplnej ľudskej kontrole, aby mal človek vždy prostriedky na jej nápravu, zastavenie alebo deaktiváciu v prípade nepredvídaného správania, náhodnej intervencie, kybernetických útokov alebo zasahovania tretích strán s technológiou založenou na umelej inteligencii, alebo ak tretie strany takúto technológiu získajú; |
4. |
domnieva sa, že dodržiavanie medzinárodného verejného práva, najmä humanitárneho práva, ktoré sa jednoznačne uplatňuje na všetky zbraňové systémy a ich operátorov, je základnou požiadavkou, ktorú musia členské štáty dodržiavať, najmä pri ochrane civilného obyvateľstva alebo prijímaní preventívnych opatrení v prípade útoku, ako je vojenská agresia alebo kybernetická vojna; |
5. |
zdôrazňuje, že umelá inteligencia a súvisiace technológie môžu takisto hrať úlohu v neregulárnej alebo nekonvenčnej vojne; navrhuje, aby sa na výskum, vývoj a využívanie umelej inteligencie v takýchto prípadoch vzťahovali rovnaké podmienky ako na využívanie v konvenčných konfliktoch; |
6. |
zdôrazňuje, že využívanie umelej inteligencie poskytuje príležitosť na posilnenie bezpečnosti Európskej únie a jej občanov a že je nevyhnutné, aby EÚ v budúcich medzinárodných diskusiách na túto tému zaujala integrovaný prístup; |
7. |
vyzýva výskumnú obec zaoberajúcu sa umelou inteligenciou, aby túto zásadu začlenila do všetkých uvedených systémov založených na umelej inteligencii, určených na vojenské účely; domnieva sa, že žiadny orgán nemôže stanoviť žiadnu výnimku z týchto zásad alebo osvedčiť takýto systém; |
8. |
opätovne potvrdzuje, že autonómne rozhodovanie by nemalo zbaviť ľudí zodpovednosti a že ľudia musia vždy niesť konečnú zodpovednosť za rozhodovacie procesy, aby bolo možné identifikovať človeka zodpovedného za dané rozhodnutie; |
9. |
zdôrazňuje, že počas využívania umelej inteligencie vo vojenskom kontexte musia členské štáty, strany konfliktu a jednotlivci vždy dodržiavať svoje povinnosti vyplývajúce z platného medzinárodného práva a prevziať zodpovednosť za kroky vyplývajúce z používania takýchto systémov; zdôrazňuje, že za každých okolností musia byť očakávané, náhodné alebo nežiaduce činy a účinky systémov založených na umelej inteligencii posudzované v rámci zodpovednosti členských štátov, strán konfliktu a jednotlivcov; |
10. |
víta možnosti využitia systémov umelej inteligencie na odbornú prípravu a cvičenia, ktorých potenciál by sa nemal podceňovať, najmä vzhľadom na to, že EÚ organizuje cvičenia dvojakej, civilnej a vojenskej, povahy; |
11. |
zdôrazňuje, že počas fázy navrhovania, vývoja, testovania, zavádzania a využívania systémov založených na umelej inteligencie je potrebné kedykoľvek náležite zohľadniť potenciálne riziká, najmä pokiaľ ide o náhodné civilné obete a zranenia, náhodné straty na životoch a škody na civilnej infraštruktúre, ako aj riziká spojené s neúmyselným angažovaním, manipuláciou, šírením, kybernetickými útokmi, zasahovaním tretích strán s autonómnou technológiou založenou na umelej inteligencii, alebo ak tretie strany takúto technológiu získajú; |
12. |
pripomína, že podľa poradného stanoviska Medzinárodného súdneho dvora z 8. júla 1996 nemožno na podporu akejkoľvek výnimky týkajúcej sa dodržiavania súčasných noriem medzinárodného humanitárneho práva uviesť zásadu originality; |
13. |
domnieva sa, že okrem podpory operácií bude umelá inteligencia prínosom aj pre personál ozbrojených síl prostredníctvom hromadného spracovania ich zdravotných údajov a rozšírenia monitorovania zdravia, identifikuje rizikové faktory súvisiace s ich prostredím a pracovnými podmienkami a navrhne vhodnú ochranu na obmedzenie vplyvov na zdravie pre služobný personál; |
14. |
opätovne potvrdzuje, že regulačné snahy musia byť podporené zmysluplnými systémami certifikácie a dohľadu, ako aj jasnými mechanizmami auditovateľnosti, vysvetliteľnosti, zodpovednosti a vysledovateľnosti, aby regulačný rámec v dôsledku technologického vývoja nezastaral; |
15. |
zdôrazňuje význam zapojenia Európskej únie v hyperprepojenom svete do vytvorenia medzinárodného právneho rámca pre používanie umelej inteligencie: naliehavo žiada EÚ, aby sa ujala vedenia a spolu s Organizáciou Spojených národov a medzinárodným spoločenstvom prevzala aktívnu úlohu pri podpore tohto globálneho rámca upravujúceho využívanie umelej inteligencie na vojenské a iné účely a zabezpečila, aby toto použitie zostalo v prísnych medziach stanovených medzinárodným právom a medzinárodným humanitárnym právom, najmä Ženevskými dohovormi z 12. augusta 1949; zdôrazňuje, že tento rámec sa nikdy nesmie porušovať alebo povoľovať jeho porušenie, diktát verejného svedomia a ľudskosti, ako sa uvádza v Martensovej doložke, a musí byť v súlade s bezpečnostnými pravidlami a požiadavkami na ochranu spotrebiteľa; naliehavo žiada EÚ a členské štáty, aby vymedzili spoľahlivé systémy dohľadu a hodnotenia pre vývoj technológií umelej inteligencie, najmä tých, ktoré sa používajú na vojenské účely v autoritárskych štátoch; |
16. |
zdôrazňuje, že robotika umožní vojenskému personálu nielen zdržiavať sa v určitej vzdialenosti, ale zabezpečí aj lepšiu osobnú ochranu, napríklad pri operáciách v kontaminovanom prostredí, pri hasení požiarov, odstraňovaní mín na zemi alebo na mori a pri ochrane pred rojmi bezpilotných vzdušných prostriedkov; |
17. |
zdôrazňuje, že pri vývoji, zavádzaní, používaní a riadení umelej inteligencie sa musia rešpektovať základné práva, hodnoty a slobody zakotvené v zmluvách EÚ a vyzýva členské štáty, aby sa zdržali zavádzania vysokorizikových systémov umelej inteligencie, ktoré predstavujú hrozbu pre základné práva; berie na vedomie bielu knihu o umelej inteligencii, ktorú uverejnila Komisia, a nabáda na podrobnejší výskum možného rizika pre základné práva v dôsledku používania umelej inteligencie štátnymi orgánmi a agentúrami, orgánmi a inštitúciami Európskej únie; |
18. |
vyzýva Komisiu, aby uľahčila výskum a diskusiu v oblasti možností využitia umelej inteligencie pri zmierňovaní následkov katastrof, predchádzaní krízam a udržiavaní mieru; |
19. |
víta zriadenie skupiny vládnych expertov OSN pre posilňovanie zodpovedného správania štátov v kybernetickom priestore v kontexte medzinárodnej bezpečnosti a vyzýva EÚ, aby sa v plnom rozsahu zúčastňovala na jej činnostiach; |
20. |
vyzýva vysokého predstaviteľa pre zahraničné veci a bezpečnostnú politiku/podpredsedu Komisie (VP/PK), aby pripravil podmienky na globálne rokovania s cieľom zaviesť režim kontroly zbraní založených na umelej inteligencii a aktualizovať všetky existujúce nástroje zmluvy na kontrolu zbraní, odzbrojenie a nešírenie zbraní, aby zohľadňovali systémy založené na umelej inteligencii používané vo vojne; žiada prijatie spoločnej pozície Rady, v ktorej sa vymedzia spoločné pravidlá upravujúce kontrolu vývozu vojenskej technológie a vybavenia, pričom sa plne zohľadnia a zahrnú zbraňové systémy založené na umelej inteligencii; |
21. |
opätovne potvrdzuje, že tieto pravidlá musia vždy rešpektovať zásady zákazu zločinov genocídy, zločinov proti ľudskosti a vojnových zločinov, ktoré sú uvedené v Rímskom dohovore zo 17. júla 1998; |
22. |
poukazuje na jasné riziká spojené s rozhodnutiami prijatých ľuďmi, ak sa spoliehajú výlučne na údaje, profily a odporúčania, ktoré vytvorili stroje; poukazuje na to, že celkový návrh systémov umelej inteligencie by mal zahŕňať aj usmernenia týkajúce sa ľudského dozoru a dohľadu; žiada, aby sa zaviedla povinnosť transparentnosti a vysvetliteľnosti aplikácií umelej inteligencie a potreby ľudského zásahu, ako aj ďalšie opatrenia, ako sú nezávislé audity a špecifické záťažové testy, na uľahčovanie dodržiavania predpisov a na ich presadzovanie; zdôrazňuje, že takéto audity by mal pravidelne vykonávať nezávislý orgán, ktorý by dohliadal na vysokorizikové aplikácie umelej inteligencie, ktoré používajú štátne orgány alebo armáda; |
23. |
zdôrazňuje, že je dôležité overovať, akým spôsobom vysokorizikové technológie umelej inteligencie dospievajú k rozhodnutiam; pripomína, že je potrebné rešpektovať zásadu nediskriminácie a proporcionality a objasniť otázky príčinnej súvislosti a zodpovednosti, ako aj transparentnosti, vyvodenia zodpovednosti a vysvetliteľnosti, aby sa určilo, či alebo v akom rozsahu štát ako subjekt medzinárodného práva verejného, ale aj pri výkone svojej vlastnej právomoci, môže konať s pomocou systémov založených na umelej inteligencii, s určitou autonómiou, a to bez porušovania povinností vyplývajúcich z medzinárodného práva, ako je právo na riadny proces; |
24. |
trvá na tom, že je dôležité investovať do ľudských zručností vrátane digitálnych zručností s cieľom prispôsobiť sa vedeckému pokroku zahŕňajúcemu riešenia založené na umelej inteligencii pre jednotlivcov, ktorí vykonávajú regulované povolania, vrátane činností spojených s výkonom štátnej moci, ako je výkon spravodlivosti; vyzýva členské štáty a Komisiu, aby to náležite zohľadnili v rámci vykonávania smernice 2005/36/ES (11); |
25. |
trvá na tom, že systémy umelej inteligencie musia vždy dodržiavať zásady zodpovednosti, spravodlivosti, riadenia, obozretnosti, zodpovednosti, pripísateľnosti, predvídateľnosti, vysledovateľnosti, spoľahlivosti, dôveryhodnosti, transparentnosti, vysvetliteľnosti, schopnosti odhaliť možné zmeny okolností a prevádzkového prostredia, rozdiel medzi bojujúcimi a nebojujúcimi a proporcionalitu; zdôrazňuje, že posledná uvedená zásada podmieňuje zákonnosť vojenskej akcie rovnováhou medzi cieľom a použitými prostriedkami a aby posúdenie proporcionality vždy vykonávala ľudská bytosť; |
26. |
zdôrazňuje, že pri používaní systémov založených na umelej inteligencii v oblasti bezpečnosti a obrany je potrebné, aby ľudský operátor mal komplexný prehľad o situácii, systém založený na umelej inteligencii bol predvídateľný, spoľahlivý a odolný a ľudský operátor bol schopný odhaliť možné zmeny okolností a prevádzkového prostredia a zastaviť alebo prerušiť útok, aby bolo možné zabezpečiť, že v celom reťazci velenia a kontroly sa budú v plnej miere uplatňovať zásady medzinárodného humanitárneho práva, najmä zásady rozlišovania, primeranosti a predbežnej opatrnosti pri útoku; zdôrazňuje, že systémy založené na umelej inteligencii musia umožniť zodpovedným ľuďom vykonávať zmysluplnú kontrolu, aby mohli prevziať plnú zodpovednosť za systémy a niesť zodpovednosť za všetky ich použitia; vyzýva Komisiu, aby podporovala dialóg, užšiu spoluprácu a synergie medzi členskými štátmi, výskumnými pracovníkmi, akademickými pracovníkmi, subjektmi občianskej spoločnosti, súkromným sektorom, najmä vedúcimi spoločnosťami, a armádou, aby sa zabezpečila inkluzívnosť procesov tvorby politiky, pokiaľ ide o právne predpisy týkajúce sa umelej inteligencie v oblasti obrany; |
27. |
zdôrazňuje, že Európsky parlament vyzval na vypracovanie a urýchlené prijatie spoločnej pozície k smrtiacim autonómnym zbraňovým systémom (LAWS), ktorá zabráni vývoju, výrobe a použitiu LAWS schopných útoku bez zmysluplnej ľudskej kontroly, ako aj na začatie účinných rokovaní za ich zákaz; pripomína v tejto súvislosti svoje uznesenie z 12. septembra 2018 o autonómnych zbraňových systémoch; pripomína, že pojem smrtiace autonómne zbraňové systémy (LAWS) sa vzťahuje na zbraňové systémy bez významnej ľudskej kontroly nad kritickými funkciami, ako je zameranie na jednotlivé ciele a útok na ne; zdôrazňuje, že rozhodnutie zvoliť si cieľ a vykonať smrtiaci útok pomocou zbraňových systémov s určitým stupňom autonómnosti musia vždy prijímať ľudskí operátori, ktorí vykonávajú zmysluplnú kontrolu, dohľad a uplatňujú potrebný úsudok v súlade so zásadami primeranosti a nutnosti; zdôrazňuje, že systémom založeným na umelej inteligencii sa nemôže za žiadnych okolností povoliť, aby nahradili ľudské rozhodovanie v tejto oblasti; |
28. |
okrem toho konštatuje, že autonómne zbraňové systémy ako osobitná kategória umelej inteligencie vo vojenskej oblasti by mali byť predmetom diskusií a schvaľovania na medzinárodnej úrovni, presnejšie na fóre dohovoru OSN o používaní určitých konvenčných zbraní; upozorňuje na prebiehajúcu medzinárodnú diskusiu o systéme LAWS s cieľom regulovať nové vojenské technológie, v rámci ktorej sa doteraz nedosiahla dohoda; poukazuje na to, že EÚ iba nedávno súhlasila, že bude rokovať o vplyvoch vývoja umelej inteligencie a digitalizácie na odvetvie obrany; domnieva sa, že EÚ môže zohrať kľúčovú úlohu, pokiaľ ide o pomoc členským štátom zosúladiť ich prístupy k umelej inteligencii vo vojenskej oblasti, s cieľom viesť medzinárodné diskusie; |
29. |
trvá na potrebe celoeurópskej stratégie proti systému LAWS a zákazu takzvaných „vraždiacich robotov“; |
30. |
zdôrazňuje, že umelá inteligencia používaná vo vojenskom kontexte musí spĺňať minimálny súbor požiadaviek, konkrétne by mala byť schopná rozlišovať medzi bojujúcimi, nebojujúcimi a bojujúcimi na bojisku, rozpoznať, keď sa bojujúca strana vzdá alebo je mimo boja, nesmie mať nerozlišujúce účinky, nespôsobovať zbytočné ľudské utrpenie, nebyť zaujatá alebo naprogramovaná na základe zámerne neúplných údajov a dodržiava zásady medzinárodného humanitárneho práva, proporcionalitu použitia sily a preventívne opatrenia pred zásahom; |
31. |
domnieva sa, že používanie smrtiacich autonómnych zbraňových systémov nastoľuje základné etické a právne otázky týkajúce sa schopnosti ľudí ovládať tieto systémy, a vyžaduje, aby technológia založená na umelej inteligencii nemohla prijímať autonómne rozhodnutia zahŕňajúce právne zásady rozlišovania, proporcionality a obozretnosti; |
32. |
žiada transparentné opatrenia na zníženie rizika na medzinárodnej úrovni týkajúce sa vývoja a používania umelej inteligencie vo vojenskej oblasti, a to najmä pokiaľ ide o zásady územnej celistvosti, nezasahovania a použitia sily; zdôrazňuje, že pri riešení právnych a etických otázok súvisiacich s európskym rámcom pre umelú inteligenciu je dôležité zohľadniť vojenské aspekty; pripomína svoju pozíciu k zákazu vývoja, výroby a používania systému LAWS; vyjadruje poľutovanie nad tým, že neexistujú žiadne výslovné celosvetové dohovory o používaní týchto zbraní; |
33. |
uznáva, že dynamika moderných pretekov v zbrojení, v dôsledku vývoja smrtiacich autonómnych zbraňových systémov hlavnými vojenskými štátmi, napreduje rýchlejšie ako pokrok a účinné všeobecné uplatňovanie a presadzovanie spoločných pravidiel a právnych rámcov, keďže informácie o vývoji a zavádzaní týchto systémov podliehajú utajeniu a štáty majú prirodzený záujem o vytvorenie tých najrýchlejších a najúčinnejších obranných prostriedkov bez ohľadu na súčasné a potenciálne budúce právne rámce alebo zásady; |
34. |
domnieva sa, že systém LAWS by sa mal používať iba ako posledná možnosť a je zákonný, iba ak podlieha prísnej ľudskej kontrole, keď je človek schopný kedykoľvek prevziať velenie, pretože v procese prijímania smrtiacich rozhodnutí je nevyhnutný zmysluplný ľudský zásah a dohľad, a keďže ľudia by mali byť vždy zodpovední pri rozhodovaní medzi životom a smrťou; je presvedčený, že systémy bez akejkoľvek ľudskej kontroly („human off the loop“) a ľudského dohľadu musia byť zakázané bez výnimiek a za každých okolností; |
35. |
vyzýva VP/PK, členské štáty a Európsku radu, aby súrne vytvorili a prijali spoločné stanovisko k autonómnym zbraňovým systémom, ktorým sa zabezpečí zmysluplná ľudská kontrola nad kľúčovými funkciami zbraňových systémov, a to aj počas ich nasadenia, vystupovali jednotne na príslušných fórach a podľa toho konali; v tejto súvislosti vyzýva VP/PK, členské štáty a Radu, aby si vymieňali najlepšie postupy a zbierali príspevky odborníkov, akademických pracovníkov a občianskej spoločnosti, ako sa odzrkadľuje v pozícii z 12. septembra 2018 k autonómnym zbraňovým systémom, v ktorej sa uvádza, že útoky by sa mali vždy uskutočňovať s významným ľudským zásahom; |
36. |
nabáda všetky štáty, aby posúdili, či a ako autonómne vojenské zariadenia prispievajú k ich národnej bezpečnosti a ako by mohli zbraňové systémy založené na umelej inteligencii posilniť ich národnú bezpečnosť, najmä z potenciálu takýchto technológií podporovať a zlepšovať ľudské rozhodovanie v súlade s medzinárodným humanitárnym právom a jeho zásadami; pripomína, že v prípade akéhokoľvek systému LAWS alebo zbrane s vysokým stupňom autonómie môže dôjsť k poruche v dôsledku zle napísaného kódu alebo kybernetického útoku zo strany nepriateľského štátu alebo neštátneho subjektu; |
37. |
trvá na tom, že systémy LAWS by sa mali používať len v osobitných prípadoch a v súlade s vopred stanovenými postupmi udeľovania povolení, ktoré sú podrobne uvedené v textoch, ku ktorým príslušný štát – bez ohľadu na to, či je členom Organizácie Severoatlantickej zmluvy – zabezpečuje prístup verejnosti alebo aspoň prístup svojmu národnému parlamentu; |
38. |
domnieva sa, že LAWS musia dodržiavať ustanovenia dohovoru z 10. októbra 1980 o určitých konvenčných zbraniach vrátane zákazu vyvolávania „nadmerných zranení“; |
39. |
v záujme zabránenia ich nekontrolovanému šíreniu navrhuje, aby sa LAWS zaradili do zoznamu zbraní, na ktoré sa vzťahujú ustanovenia Zmluvy o obchodovaní so zbraňami z 2. apríla 2013, ktorý je uvedený v článku 2 tejto zmluvy; |
40. |
požaduje zákaz antropomorfizácie LAWS s cieľom zabrániť zámene človeka s robotom; |
41. |
víta dohodu medzi Radou a Európskym parlamentom o vylúčení smrtiacich autonómnych zbraní „bez možnosti zmysluplnej ľudskej kontroly nad rozhodnutiami o výbere cieľa a použití pri vykonávaní útokov“ z akcií financovaných z Európskeho obranného fondu (EDF); pripomína svoje stanovisko, že použitie, vývoj alebo výroba LAWS bez zmysluplnej ľudskej kontroly nie sú oprávnené na financovanie v rámci EDF; |
42. |
vyzýva Komisiu, aby podporovala výskum, vývoj, zavádzanie a využívanie umelej inteligencie na zachovávanie mieru a predchádzanie konfliktom; |
43. |
konštatuje, že v globálnom ekosystéme umelej inteligencie dominujú americké a čínske digitálne giganty, ktoré rozvíjajú domáce schopnosti a kupujú veľa nádejných spoločností; zastáva pevný názor, že na to, aby sa zabránilo zaostávaniu v oblasti technológie umelej inteligencie, musí EÚ dosiahnuť lepšiu rovnováhu medzi základným výskumom a priemyselnými aplikáciami a zároveň rozvíjať komparatívne strategické výhody ďalším budovaním svojho vlastného potenciálu a zdrojov; |
44. |
zdôrazňuje, že vzhľadom na to, že na roboty sa vzťahuje vymedzenie strojového zariadenia stanovené v smernici 2006/42/ES (12), mali by byť navrhované a konštruované v súlade s normami a bezpečnostnými opatreniami stanovenými v tejto smernici; |
45. |
pripomína ambíciu EÚ stať sa globálnym aktérom za mier a požaduje, aby Únia posilnila svoju úlohu v úsilí o globálne odzbrojenie a nešírenie jadrových zbraní a aby sa v rámci svojich aktivít a politík zameriavala na zachovanie medzinárodného mieru a bezpečnosti pri zaistení rešpektovania medzinárodného humanitárneho práva a práva v oblasti ľudských práv a ochrany civilného obyvateľstva a civilnej infraštruktúry; |
46. |
zdôrazňuje potrebu preskúmať možný vplyv umelej inteligencie ako strategického faktora pre spoločnú bezpečnostnú a obrannú politiku (SBOP) EÚ, najmä vo vojenských a civilných misiách a operáciách, a rozvoja spôsobilostí EÚ; |
47. |
pripomína, že naši spojenci v rámcoch jednotlivých štátov, NATO alebo EÚ sú sami v procese integrácie umelej inteligencie do svojich vojenských systémov; domnieva sa, že interoperabilita s našimi spojencami sa musí zachovať prostredníctvom spoločných noriem, ktoré sú nevyhnutné na vykonávanie operácií v koalícii; pripomína, že okrem toho by spolupráca v oblasti umelej inteligencie mala prebiehať v európskom rámci, ktorý je jediným relevantným rámcom na skutočné vytváranie silných synergií, ako sa navrhuje v stratégii EÚ v oblasti umelej inteligencie; |
48. |
domnieva sa, že EÚ musí starostlivo monitorovať a zvážiť dôsledky pokroku v oblasti umelej inteligencie pre obranu a vojnu vrátane potenciálne destabilizujúcich vývojov a nasadení, a usmerňovať etický výskum a dizajn, ktorý zabezpečí integritu osobných údajov a individuálny prístup a kontrolu, ako aj zohľadnenie hospodárskych a humanitárnych otázok; |
49. |
pripomína svoju pozíciu z 12. septembra 2018 k autonómnym zbraňovým systémom, v ktorej sa uvádza, že útoky sa nesmú vykonávať bez zmysluplného ľudského zásahu; vyzýva VP/PK, členské štáty a Európsku radu, aby prijali spoločné stanovisko k autonómnym zbraňovým systémom, ktorým sa zabezpečí zmysluplná ľudská kontrola nad kľúčovými funkciami zbraňových systémov, a to aj počas ich nasadenia; opätovne potvrdzuje svoju podporu činnosti skupiny vládnych expertov OSN vysokých zmluvných strán dohovoru o používaní určitých konvenčných zbraní (CCW) v súvislosti so smrtiacimi autonómnymi zbraňovými systémami, ktorá naďalej zostáva relevantným medzinárodným fórom pre diskusie a rokovania o právnych výzvach, ktoré predstavujú autonómne zbraňové systémy; vyzýva na zintenzívnenie súčasného viacstranného úsilia, aby technologický vývoj a nové metódy vedenia vojen nepredstihli normatívne a regulačné rámce; vyzýva VP/PK, aby v rámci prebiehajúcich rokovaní štátov, ktoré sú zmluvnými stranami dohovoru o používaní určitých konvenčných zbraní, o medzinárodnej regulácii smrtiacich autonómnych zbraňových systémov zostal angažovaný a pomohol bezodkladne prispieť k pokroku v úsilí o vytvorenie nového globálneho regulačného rámca a právne záväzného nástroja zameraného na definície, koncepcie a charakteristiky vznikajúcich technológií v oblasti smrtiacich autonómnych zbraňových systémov, etických a právnych otázok súvisiacich s ľudskou kontrolou, najmä pokiaľ ide o ich kľúčové funkcie, ako je výber a zameranie cieľa, zachovanie ľudskej zodpovednosti a o nevyhnutný stupeň interakcie človek – stroj vrátane koncepcie ľudskej kontroly a ľudského úsudku; žiada, aby sa v rámci tohto úsilia zabezpečilo dodržiavanie medzinárodného humanitárneho práva a práva v oblasti ľudských práv počas rôznych etáp životného cyklu zbraní založených na umelej inteligencii s cieľom dohodnúť sa na konkrétnych odporúčaniach na objasnenie, zváženie a rozvoj aspektov normatívneho rámca týkajúceho sa vznikajúcich technológií v oblasti LAWS; |
50. |
domnieva sa, že účinný mechanizmus na presadzovanie pravidiel nešírenia LAWS ani akýchkoľvek budúcich útočných technológií založených na umelej inteligencii má zásadný význam pre globálnu bezpečnosť; |
Štátna moc: príklady z civilných oblastí vrátane zdravia a spravodlivosti
51. |
zdôrazňuje, že členské štáty musia účinne konať, aby znížili svoju závislosť od zahraničných údajov, a bez toho, aby významne narušili trh, zabezpečiť, aby vlastníctvo vysoko sofistikovaných technológií umelej inteligencie silnými súkromnými skupinami neviedlo k spochybňovaniu alebo dokonca k uzurpovaniu právomoci štátu súkromnými subjektmi, najmä ak tieto súkromné skupiny vlastní tretia krajina mimo Európskej únie; |
52. |
zdôrazňuje, že používanie systémov umelej inteligencie v rozhodovacom procese verejných orgánov môže mať za následok zaujaté rozhodnutia, ktoré majú negatívny vplyv na občanov, a preto by mali podliehať prísnym kontrolným kritériám, pokiaľ ide o ich bezpečnosť, transparentnosť, zodpovednosť, nediskrimináciu, sociálne a environmentálne aspekty a zodpovednosť, okrem iných; naliehavo žiada členské štáty, aby vyhodnotili riziká spojené s rozhodnutiami založenými na umelej inteligencii, ktoré sa týkajú výkonu štátnej moci, a aby poskytli záruky, ako sú zmysluplný ľudský dohľad, požiadavky na transparentnosť a možnosť napadnúť tieto rozhodnutia; |
53. |
naliehavo vyzýva členské štáty, aby pred automatizáciou činností súvisiacich s výkonom štátnej moci, ako je výkon spravodlivosti, posúdili riziká súvisiace s technológiami založenými na umelej inteligencii; vyzýva členské štáty, aby zvážili potrebu poskytovať záruky, ako napríklad dohľad kvalifikovanými odborníkmi a prísne pravidlá profesijnej etiky; |
54. |
zdôrazňuje, že je dôležité podniknúť kroky na európskej úrovni s cieľom podporiť potrebné investície, dátovú infraštruktúru, výskum vrátane výskumu využívania umelej inteligencie verejnými orgánmi a spoločného etického rámca; |
55. |
zdôrazňuje, že je potrebné, aby sa Európska únia usilovala o dosiahnutie strategickej odolnosti, aby v prípade krízy už nikdy nebola nepripravená, a prízvukuje, že to má zásadný význam najmä pre umelú inteligenciu a jej vojenské využitie; zdôrazňuje, že dodávateľské reťazce vojenských systémov s umelou inteligenciou, ktoré môžu viesť k technologickej závislosti, by sa mali preskúmať a takáto závislosť by sa mala postupne ukončiť; vyzýva na zvýšenie investícií do európskej umelej inteligencie v oblasti obrany a do kritickej infraštruktúry, o ktorú sa opiera; |
56. |
vyzýva Komisiu, aby posúdila dôsledky moratória na používanie systémov rozpoznávania tváre a aby v závislosti od výsledkov tohto posúdenia zvážila zavedenie moratória na používanie týchto systémov vo verejných priestoroch verejnými orgánmi a v priestoroch určených na vzdelávanie a poskytovanie zdravotnej starostlivosti, ako aj na používanie systémov rozpoznávania tváre orgánmi presadzovania práva v poloverejných priestoroch, ako sú letiská, kým sa nedosiahne úplný súlad technických noriem s ľudskými právami, kým vyvodené výsledky nebudú objektívne a nediskriminačné a kým sa nezavedú prísne záruky proti zneužívaniu, ktorými sa zabezpečí, že používanie týchto technológií bude v súlade so zásadami nevyhnutnosti a primeranosti; |
57. |
zdôrazňuje význam kybernetickej bezpečnosti pre umelú inteligenciu v ofenzívnych, ako aj v defenzívnych scenároch; v tejto súvislosti poukazuje na význam medzinárodnej spolupráce a uverejňovania a výmeny slabých miest a prostriedkov nápravy v oblasti bezpečnosti informačných technológií; žiada medzinárodnú spoluprácu v oblasti kybernetickej bezpečnosti v záujme účinného používania a zavádzania umelej inteligencie a záruky proti zneužívaniu umelej inteligencie a kybernetickým útokom; ďalej poukazuje na povahu dvojakého použitia systémov informačných technológií (napr. civilné a vojenské použitie) a umelej inteligencie a žiada v tejto oblasti účinnú reguláciu; |
58. |
je presvedčený, že členské štáty by mali podporovať technológie umelej inteligencie, ktoré pracujú pre ľudí, a že osoby, ktoré boli predmetom rozhodnutia orgánu verejnej moci na základe informácií zo systému umelej inteligencie, by o nich mali byť informované, mali by bezodkladne dostávať informácie uvedené v predchádzajúcemu odseku, mala by im byť ponúknutá možnosť napadnúť toto rozhodnutie a rozhodnúť sa, že toto odvolanie bude vyriešené bez zásahu systému umelej inteligencie; vyzýva členské štáty, aby zvážili potrebu zaviesť záruky stanovené v smernici (EÚ) 2018/958 (13), ako napríklad dohľad kvalifikovanými odborníkmi a pravidlá profesijnej etiky; |
59. |
zdôrazňuje, že vypracúvanie predpovedí založených na výmene údajov, prístupe k nim alebo ich používaní sa musí riadiť požiadavkami na kvalitu, integritu, transparentnosť, bezpečnosť, súkromie a kontrolu; zdôrazňuje, že pri vývoji, zavádzaní a používaní umelej inteligencie, robotiky a súvisiacich technológií je potrebné rešpektovať právny rámec EÚ v oblasti ochrany údajov a súkromia s cieľom zvýšiť bezpečnosť občanov a ich dôveru v tieto technológie; |
60. |
konštatuje rýchly vývoj aplikácií umelej inteligencie, ktoré rozpoznávajú jedinečné charakteristické prvky, ako napríklad rysy tváre, pohyby a postoje; upozorňuje na otázky narúšania súkromia, nediskriminácie a ochrany osobných údajov v súvislosti s používaním aplikácií automatického rozpoznávania; |
61. |
zdôrazňuje, že akékoľvek rozhodnutie o fyzickej osobe, ktoré sa zakladá výlučne na automatickom spracúvaní vrátane profilovania a ktoré má negatívne právne účinky na dotknutú osobu alebo má na ňu významný vplyv, je zakázané podľa všeobecného nariadenia o ochrane údajov, pokiaľ nie je prípustné podľa práva Únie alebo právnych predpisov členského štátu a nepodlieha príslušným opatreniam na ochranu práv, slobôd a legitímnych záujmov dotknutej osoby; |
62. |
žiada vysvetliteľnosť algoritmov, transparentnosť a regulačný dohľad v prípade používania umelej inteligencie verejnými orgánmi a posúdenia vplyvu, ktoré sa majú vykonať predtým, ako štátne orgány zavedú nástroje využívajúce technológie umelej inteligencie; vyzýva Komisiu a Európsky výbor pre ochranu údajov, aby vydali usmernenia a odporúčania a vypracovali najlepšie postupy s cieľom bližšie uviesť kritériá a podmienky uplatniteľné pre rozhodnutia založené na profilovaní a používaní umelej inteligencie verejnými orgánmi; |
63. |
poznamenáva, že umelá inteligencia má zohrávať čoraz dôležitejšiu úlohu v oblasti zdravotnej starostlivosti, najmä prostredníctvom algoritmov na pomoc pri diagnostike, chirurgii asistovanej robotom, inteligentných protézach, personalizovanej liečbe založenej na modelovaní tela každého pacienta v troch rozmeroch, sociálnych robotoch na pomoc starším ľuďom, digitálnych terapiách určených na zlepšenie nezávislosti niektorých duševne chorých ľudí, prediktívnej medicíne a softvéri na predchádzanie epidémiám; |
64. |
trvá však na tom, že pri každom použití umelej inteligencie v oblasti verejného zdravia by sa mala dodržiavať ochrana osobných údajov pacientov a malo by sa zabrániť nekontrolovanému šíreniu týchto údajov; |
65. |
žiada, aby sa pri všetkých využitiach umelej inteligencie vo verejnom zdraví dodržiavala zásada rovnakého zaobchádzania s pacientmi, pokiaľ ide o prístup k liečbe, zachovanie vzťahu medzi pacientom a lekárom, a aby sa za každých okolností dodržiavala Hippokratova prísaha, aby bol lekár vždy schopný odchýliť sa od riešenia navrhovaného umelou inteligenciou, a tým si ponechať zodpovednosť za akékoľvek rozhodnutie; |
66. |
konštatuje, že používanie umelej inteligencie v boji proti trestnej činnosti a počítačovej kriminalite by mohlo priniesť širokú škálu možností a príležitostí; zároveň potvrdzuje, že by mala naďalej prevažovať zásada, podľa ktorej platí, že to, čo je nezákonné offline, je nezákonné aj online; |
67. |
poznamenáva, že umelá inteligencia sa čoraz viac využíva v oblasti spravodlivosti s cieľom prijímať rozhodnutia racionálnejšie, v lepšom súlade s platnými právnymi predpismi a rýchlejšie; víta skutočnosť, že použitie umelej inteligencie by malo urýchliť súdne konanie; |
68. |
domnieva sa, že je potrebné objasniť, či je vhodné, aby boli rozhodnutia v oblasti presadzovania práva čiastočne delegované na umelú inteligenciu, pri zachovaní ľudskej kontroly nad konečným rozhodnutím; |
69. |
zdôrazňuje, že používanie umelej inteligencie v oblasti justície by mohlo prispieť k zlepšeniu analýzy a zhromažďovania údajov a ochrany obetí a že by sa to mohlo preskúmať v rámci výskumu a vývoja a doplniť o posúdenia vplyvu, najmä pokiaľ ide o záruky riadneho procesu a záruky proti zaujatosti a diskriminácii, pričom by sa mala uplatňovať zásada predbežnej opatrnosti; pripomína však, že to v nijakom prípade nenahrádza účasť človeka pri vynášaní rozsudkov alebo rozhodovaní; |
70. |
pripomína význam zásad riadenia, transparentnosti, nestrannosti, zodpovednosti, spravodlivosti a intelektuálnej integrity, pokiaľ ide o používanie umelej inteligencie v oblasti trestnej justície; |
71. |
naliehavo vyzýva členské štáty, aby pred automatizáciou činností spojených s výkonom štátnej moci, najmä v oblasti justície, posúdili riziká súvisiace s technológiami založenými na umelej inteligencii; vyzýva členské štáty, aby zvážili potrebu poskytovať záruky, ako je dohľad vykonávaný kvalifikovanými odborníkmi a pravidlá profesijnej etiky. |
72. |
konštatuje, že isté technológie umelej inteligencie umožňujú automatizáciu spracúvania informácií a opatrení v bezprecedentnom rozsahu, ako napríklad hromadné civilné a vojenské sledovanie, ktoré ohrozuje základné práva a umožňuje nezákonný zásah do štátnej zvrchovanosti; žiada kontrolu činností hromadného sledovania v rámci jurisdikcie medzinárodného práva, a to aj pokiaľ ide o otázky právomoci a presadzovania; vyjadruje vážne znepokojenie nad niektorými vysoko rušivými aplikáciami sociálneho hodnotenia, ktoré boli vyvinuté, keďže vážne ohrozujú rešpektovanie základných práv; žiada výslovný zákaz používania masového sociálneho hodnotenia verejnými orgánmi ako prostriedku na obmedzenie práv občanov; žiada, aby sa zvýšila zodpovednosť súkromných subjektov podľa medzinárodného práva vzhľadom na hegemóniu rozhodovania a kontrolu určitých súkromných subjektov nad vývojom týchto technológií; v tejto súvislosti vyzýva Komisiu, Radu a členské štáty, aby venovali osobitnú pozornosť pri rokovaniach, uzatváraní a ratifikácii medzinárodných dohôd týkajúcich sa cezhraničných rodinných prípadov, ako sú medzinárodné únosy detí, a aby v tejto súvislosti zabezpečili, že systémy umelej inteligencie sa vždy používajú na základe účinného overenia človekom a rešpektujú riadny proces v rámci EÚ a krajín, ktoré sú signatármi týchto dohôd; |
73. |
žiada, aby bola verejnosť nepretržite informovaná o využívaní umelej inteligencie v oblasti spravodlivosti a aby toto použitie nespôsobilo rast diskriminácie v dôsledku programových predsudkov; zdôrazňuje, že sa musí rešpektovať právo každého jednotlivca na prístup k verejnému činiteľovi, ako aj právo zodpovedného úradníka osobne prijať rozhodnutie a odchýliť sa od informácií získaných od umelej inteligencie, keď to považuje za potrebné z hľadiska podrobností o príslušnej záležitosti; zdôrazňuje právo obžalovaného na odvolanie proti rozhodnutiu v súlade s vnútroštátnymi právnymi predpismi bez toho, aby sa vylúčila konečná zodpovednosť súdnictva; |
74. |
žiada preto, aby sa všetky tieto verejné a administratívne použitia považovali za verejne dostupné informácie a aby sa zabránilo diskriminácii v dôsledku programových predsudkov; |
75. |
zdôrazňuje, že je dôležité umožniť riadne zavádzanie a používanie umelej inteligencie; vyzýva členské štáty, aby svojim civilným a vojenským zamestnancom poskytli primeranú odbornú prípravu s cieľom umožniť im správne identifikovať diskrimináciu a zaujatosť v dátových súboroch a predchádzať im; |
76. |
vyjadruje hlboké znepokojenie nad tzv. technológiami deepfake, ktoré umožňujú vytvárať čoraz realistickejšie falšované fotografie, zvukové záznamy a videá, ktoré by sa mohli použiť na vydieranie, vytváranie falošných správ alebo oslabenie dôvery verejnosti a ovplyvňovanie verejnej diskusie; domnieva, že takéto praktiky majú potenciál destabilizovať krajiny, šíriť dezinformácie a ovplyvňovať voľby; žiada preto, aby sa tvorcom uložila povinnosť uviesť v prípade všetkých materiálov vytvorených pomocou technológií deepfake alebo akýchkoľvek iných syntetických videí, ktoré vyzerajú realisticky, že nejde o originál, a aby sa zaviedli prísne obmedzenia, pokiaľ ide o využívanie týchto materiálov a videí na volebné účely, a spoľahlivé presadzovanie; žiada primeraný výskum v tejto oblasti s cieľom zabezpečiť, že technológie na boj proti týmto javom budú držať krok so škodlivým používaním umelej inteligencie; |
Doprava
77. |
berie na vedomie značný hospodársky potenciál aplikácií umelej inteligencie, a to aj na účely optimalizácie dlhodobej výkonnosti, údržby, prognózy zlyhania a plánovania výstavby v dopravnej infraštruktúre a budovách, ako aj bezpečnosti, energetickej efektívnosti a nákladov; vyzýva preto Komisiu, aby pokračovala v podpore výskumu umelej inteligencie a výmeny osvedčených postupov v doprave; |
78. |
zdôrazňuje potrebu podporiť umelú inteligenciu v záujme podpory multimodality, interoperability a energetickej efektívnosti všetkých druhov dopravy, zvýšenia efektívnosti organizácie a riadenia dopravných tokov tovarov a pasažierov, lepšieho využívania infraštruktúry a zdrojov v transeurópskej dopravnej sieti (TEN-T) a riešenia prekážok pri vytváraní skutočného jednotného európskeho dopravného priestoru; |
79. |
pripomína výhody, pokiaľ ide o spoľahlivosť, kapacitu, náklady, bezpečnosť, rýchlosť a údržbu Európskeho systému riadenia železničnej dopravy (ERTMS), ktorý je plynulým automatickým vlakovým zabezpečovacím systémom a podporuje vývoj a medzinárodnú štandardizáciu automatizácie vlakovej dopravy; |
80. |
víta činnosť projektu Výskumu manažmentu letovej prevádzky jednotného európskeho neba (SESAR) zameraného na bezpilotné letecké systémy a systémy riadenia letovej prevádzky, a to civilné, ako aj vojenské; |
81. |
pripomína, že autonómne vozidlá majú veľký potenciál zlepšiť mobilitu, bezpečnosť a môžu byť prínosom pre životné prostredie, a vyzýva Komisiu a členské štáty, aby zabezpečili spoluprácu medzi regulačnými orgánmi a všetkými zúčastnenými stranami relevantnými pri zavádzaní automatizovaných cestných vozidiel v EÚ; |
82. |
poukazuje na to, že svetové odvetvie lodnej dopravy sa v posledných rokoch výrazne zmenilo vďaka integrácii umelej inteligencie; pripomína súčasné komplexné rokovania v rámci Medzinárodnej námornej organizácie o účinnom začleňovaní nových a vznikajúcich technológií, ako sú autonómne lode, do svojho regulačného rámca; |
83. |
zdôrazňuje, že inteligentné dopravné systémy zmierňujú dopravné preťaženie, zvyšujú bezpečnosť a prístupnosť a prispievajú k zlepšeniu riadenia dopravných tokov, účinnosti a riešení v oblasti mobility; upozorňuje na to, že tradičné prepravné siete sú viac vystavené kybernetickým hrozbám; pripomína význam dostatočných zdrojov a ďalšieho výskumu bezpečnostných rizík pri zaisťovaní bezpečnosti automatizovaných systémov a ich údajov; víta zámer Komisie zahrnúť kybernetickú bezpečnosť medzi pravidelné body programu s diskusiou v rámci medzinárodných organizácií v oblasti dopravy; |
84. |
víta úsilie o zavedenie systémov umelej inteligencie do verejného sektora a bude podporovať ďalšie diskusie o zavádzaní umelej inteligencie do dopravy; vyzýva Komisiu, aby uskutočnila hodnotenie využívania umelej inteligencie a podobných technológií v odvetví dopravy a zostavila neúplný zoznam vysokorizikových segmentov v systémoch umelej inteligencie, ktoré nahrádzajú rozhodnutia v rámci výsad verejnej moci v tejto oblasti; |
85. |
zdôrazňuje, že Európsky obranný fond a stála štruktúrovaná spolupráca by mali stimulovať spoluprácu medzi členskými štátmi a európskym obranným priemyslom s cieľom rozvíjať nové európske obranné spôsobilosti v rámci umelej inteligencie a zaistiť bezpečnosť dodávok, pričom sa zohľadnia etické aspekty; zdôrazňuje, že je potrebné predísť fragmentácii tým, že sa budú budovať mosty medzi rôznymi subjektmi a oblasťami uplatňovania, že sa bude podporovať kompatibilita a interoperabilita na všetkých úrovniach a klásť dôraz na spoločnú prácu na štruktúre a platformových riešeniach; okrem toho pripomína, že ďalším Nástrojom na prepájanie Európy, ktorý takisto podporuje inteligentnú infraštruktúru, sa zabezpečí fond na adaptáciu a rozvoj civilnej alebo vojenskej dopravnej infraštruktúry s dvojakým použitím v TEN-T s cieľom zvýšiť synergie medzi civilnými a vojenskými potrebami a zlepšiť civilnú a vojenskú mobilitu v rámci Únie; zdôrazňuje preto potrebu ďalšej európskej investície, výskumu a vedenia v oblasti technológií s veľkým vplyvom na hospodársky rast, ako aj významným dvojakým použitím; |
86. |
zdôrazňuje, že mnohé investície do nových technológií v doprave a mobilite sú trhovo orientované, ale že bežne dostupné komerčné technológie a produkty s dvojakým použitím sa často inovatívnymi spôsobmi využívajú na vojenské účely; zdôrazňuje preto, že pri vypracovávaní noriem pre využitie umelej inteligencie v rôznych oblastiach obchodného a vojenského sektora sa musí zohľadniť potenciál dvojakého použitia riešení založených na umelej inteligencii; žiada, aby sa pri vývoji obranných technológií, produktov a prevádzkových zásad zohľadnili prísne etické normy a politika; |
87. |
poukazuje na to, že účinná preprava tovarov, munície, zbraní a vojenských jednotiek je nevyhnutnou zložkou úspešných vojenských operácií; zdôrazňuje, že sa očakáva, že umelá inteligencia bude zohrávať kľúčovú úlohu a vytvorí početné možnosti vo vojenskej logistike a doprave; poukazuje na to, že krajiny na celom svete vrátane členských štátov EÚ zavádzajú zbrane využívajúce umelú inteligenciu a iné systémy do pozemných, námorných a leteckých platforiem; pripomína, že aplikácie založené na umelej inteligencii v odvetví dopravy by mohli priniesť nové spôsobilosti a umožniť nové formy taktiky, ako napríklad kombináciu viacerých systémov, ako sú bezpilotné vzdušné prostriedky, lode alebo tanky bez posádky pri samostatnej a koordinovanej operácii; |
Medzinárodné právo súkromné
88. |
poznamenáva, že keďže čoraz väčší počet sporov v rámci medzinárodného práva súkromného vzniká na základe internacionalizácie ľudských činností, buď online, alebo v reálnom svete, umelá inteligencia ich môže pomôcť vyriešiť vytvorením modelov umožňujúcich určiť príslušnú jurisdikciu a rozhodné právo pre každý prípad, ale aj identifikovať najcitlivejšie kolízie právnych poriadkov a navrhnúť spôsoby ich riešenia; |
89. |
domnieva sa však, že využívanie umelej inteligencie v medzinárodnom práve súkromnom si vyžaduje, aby bola verejnosť primerane informovaná, aby sa predchádzalo diskriminácii prostredníctvom programovania, čo by viedlo k systematickému uprednostňovaniu jedného vnútroštátneho práva na úkor iného, a že musí rešpektovať práva súdu stanovené zákonom, povoliť odvolanie v súlade s platnými právnymi predpismi a umožniť ktorémukoľvek sudcovi ignorovať riešenie navrhované umelou inteligenciou; |
90. |
zdôrazňuje, že pohyb autonómnych vozidiel v Európskej únii, ktorý môže spôsobiť mimoriadne vysoký počet súkromných medzinárodných právnych sporov, musí byť predmetom osobitných európskych pravidiel stanovujúcich právny režim uplatni teľný v prípade cezhraničných škôd; |
91. |
poukazuje na to, že vzhľadom na rastúci význam výskumu a vývoja v súkromnom sektore a rozsiahle investície tretích krajín, čelí EÚ silnej konkurencii; podporuje preto úsilie EÚ o ďalší rozvoj jej konkurenčných výhod a domnieva sa, že EÚ by sa mala usilovať o to, aby bola tvorcom noriem v oblasti umelej inteligencie v hyperprepojenom svete, a to tak, že prijme účinnú stratégiu voči svojim vonkajším partnerom, pričom zintenzívni jej úsilie o stanovenie globálnych etických noriem pre umelú inteligenciu na medzinárodnej úrovni v súlade s bezpečnostnými pravidlami a požiadavkami na ochranu spotrebiteľa, ako aj s európskymi hodnotami a právami občanov vrátane základných práv; domnieva sa, že je to kľúčové aj z hľadiska konkurencieschopnosti a udržateľnosti európskych spoločností; vyzýva Komisiu a členské štáty, aby posilnili spoluprácu s tretími krajinami a medzinárodnými organizáciami, ako sú OSN, OECD, G7 a G20, a aby sa zapojili do širšieho dialógu s cieľom riešiť problémy spojené s rozvojom tejto rýchlo sa meniacej technológie; domnieva sa, že v rámci tohto úsilia by sa mali usilovať najmä o stanovenie spoločných noriem a zlepšiť interoperabilitu systémov založených na umelej inteligencii; vyzýva Komisiu, aby podporovala dialóg, užšiu spoluprácu a synergie medzi členskými štátmi, výskumnými pracovníkmi, akademickými pracovníkmi, subjektmi občianskej spoločnosti, súkromným sektorom, najmä vedúcimi spoločnosťami, a armádou, aby sa zabezpečila inkluzívnosť procesov tvorby politiky, pokiaľ ide o právne predpisy týkajúce sa umelej inteligencie v oblasti obrany; |
Hlavné zásady
92. |
domnieva sa, že technológie umelej inteligencie a sieťové systémy by sa mali zameriavať na zabezpečenie právnej istoty pre občanov; zdôrazňuje preto, že by sa mali naďalej uplatňovať pravidlá o kolízii právnych poriadkov a právomocí pri súčasnom zohľadnení záujmov občanov, ako aj potreba znížiť riziko taktizovania pri výbere súdu; pripomína, že umelá inteligencia nemôže nahradiť človeka v súdnom procese, pokiaľ ide o vynesenie rozsudku alebo konečné rozhodnutie akéhokoľvek druhu, pretože tieto rozhodnutia musí vždy prijímať človek a musia prísne podliehať ľudskému overovaniu a riadnemu procesu; trvá na tom, že pri používaní dôkazov poskytovaných technológiami podporovanými umelou inteligenciou by mali mať justičné orgány povinnosť odôvodniť svoje rozhodnutia; |
93. |
pripomína, že umelá inteligencia predstavuje vedecký pokrok, ktorý by nemal viesť k zhoršeniu právnych predpisov, ale naopak, musí byť vždy právnymi predpismi regulovaný – v Európskej únii podľa práva stanoveného jej inštitúciami a členskými štátmi –, a že za žiadnych okolností nemôžu umelá inteligencia, robotika a súvisiace technológie porušovať základné práva, demokraciu a právny štát; |
94. |
zdôrazňuje, že umelá inteligencia používaná na obranné účely by mala byť: zodpovedná, spravodlivá, vysledovateľná, spoľahlivá a riaditeľná; |
95. |
domnieva sa, že umelá inteligencia, robotika a súvisiace technológie vrátane softvéru, algoritmov a údajov používaných alebo produkovaných týmito technológiami bez ohľadu na oblasť, v ktorej sa používajú, by sa mali vyvíjať bezpečným a technicky dôsledným spôsobom; |
o
o o
96. |
poveruje svojho predsedu, aby postúpil toto uznesenie Rade a Komisii. |
(1) Ú. v. ES L 180, 19.7.2000, s. 22.
(2) Ú. v. ES L 303, 2.12.2000, s. 16.
(3) Ú. v. EÚ L 119, 4.5.2016, s. 1.
(4) Ú. v. EÚ L 119, 4.5.2016, s. 89.
(5) Ú. v. EÚ L 252, 8.10.2018, s. 1.
(6) Ú. v. EÚ C 252, 18.7.2018, s. 239.
(7) Ú. v. EÚ C 307, 30.8.2018, s. 163.
(8) Ú. v. EÚ C 433, 23.12.2019, s. 86.
(9) Ú. v. EÚ C 433, 23.12.2019, s. 42.
(10) Ú. v. EÚ C 449, 23.12.2020, s. 37.
(11) Smernica Európskeho parlamentu a Rady 2005/36/ES zo 7. septembra 2005 o uznávaní odborných kvalifikácií (Ú. v. EÚ L 255, 30.9.2005, s. 22).
(12) Smernica Európskeho parlamentu a Rady 2006/42/ES zo 17. mája 2006 o strojových zariadeniach a o zmene a doplnení smernice 95/16/ES (Ú. v. EÚ L 157, 9.6.2006, s. 24).
(13) Smernica Európskeho parlamentu a Rady (EÚ) 2018/958 z 28. júna 2018 o teste proporcionality pred prijatím novej regulácie povolaní (Ú. v. EÚ L 173, 9.7.2018, s. 25).