Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Stanovisko Európskeho výboru regiónov – Európsky prístup k umelej inteligencii – akt o umelej inteligencii (revidované stanovisko)

    COR 2021/02682

    Ú. v. EÚ C 97, 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    SK

    Úradný vestník Európskej únie

    C 97/60


    Stanovisko Európskeho výboru regiónov – Európsky prístup k umelej inteligencii – akt o umelej inteligencii

    (revidované stanovisko)

    (2022/C 97/12)

    Spravodajca:

    Guido RINK (NL/SES), člen rady obce Emmen

    Referenčný dokument:

    Oznámenie Komisie Európskemu parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov – Podpora európskeho prístupu k umelej inteligencii

    COM(2021) 205 final

    Návrh nariadenia Európskeho parlamentu a Rady, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie (akt o umelej inteligencii) a menia niektoré legislatívne akty Únie

    COM(2021) 206 final

    I.   NÁVRHY ZMIEN

    Pozmeňovací návrh 1

    Odôvodnenie 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Účelom tohto nariadenia je zlepšiť fungovanie vnútorného trhu stanovením jednotného právneho rámca, najmä pokiaľ ide o vývoj, uvádzanie na trh a používanie umelej inteligencie v súlade s hodnotami Únie. Toto nariadenie prihliada na viacero naliehavých dôvodov verejného záujmu, ako napr. vysoká úroveň ochrany zdravia, bezpečnosti a základných práv, a zabezpečuje voľný pohyb tovaru a služieb založených na umelej inteligencii cez hranice, čím bráni členským štátom ukladať obmedzenia na vývoj, uvádzanie na trh a používanie systémov umelej inteligencie, pokiaľ sa to týmto nariadením výslovne nepovolí.

    Účelom tohto nariadenia je zlepšiť fungovanie vnútorného trhu a zaručiť základné občianske práva stanovením jednotného právneho rámca, najmä pokiaľ ide o vývoj, uvádzanie na trh a používanie umelej inteligencie v súlade s hodnotami Únie. Toto nariadenie prihliada na viacero naliehavých dôvodov verejného záujmu, ako napr. vysoká úroveň ochrany zdravia, bezpečnosti a základných práv, a zabezpečuje voľný pohyb tovaru a služieb založených na umelej inteligencii cez hranice, čím bráni členským štátom ukladať obmedzenia na vývoj, uvádzanie na trh a používanie systémov umelej inteligencie, pokiaľ sa to týmto nariadením výslovne nepovolí.

    Zdôvodnenie

    Cieľom odkazu na základné práva je zdôrazniť súvislosť s Chartou základných práv EÚ.

    Pozmeňovací návrh 2

    Za odôvodnenie 6 vložiť nové odôvodnenie

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

     

    Vymedzenie systémov umelej inteligencie je nepretržitý proces, v ktorom sa zohľadňuje kontext fungovania umelej inteligencie, ktorý by mal držať krok so spoločenským vývojom v tejto oblasti a v ktorom by sa nemala zo zreteľa strácať súvislosť medzi ekosystémom excelentnosti a ekosystémom dôvery.

    Zdôvodnenie

    Vývoj umelej inteligencie a technológií si vyžaduje prispôsobivý a vyvíjajúci sa prístup. Toto odôvodnenie zodpovedá skutočnosti, že vymedzenie umelej inteligencie by malo odrážať aktuálny stav vývoja systémov a aplikácií umelej inteligencie.

    Pozmeňovací návrh 3

    Odôvodnenie 20

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    S cieľom zabezpečiť, aby sa tieto systémy používali zodpovedným a primeraným spôsobom, je tiež dôležité stanoviť, že v každej z týchto troch podrobne opísaných a úzko vymedzených situácií by sa mali zohľadniť určité prvky, najmä pokiaľ ide o povahu situácie, ktorá viedla k predloženiu žiadosti, o dôsledky využívania týchto systémov na práva a slobody všetkých dotknutých osôb a o záruky a podmienky zabezpečené pri tomto používaní. Okrem toho používanie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať primeraným časovým a priestorovým obmedzeniam, najmä so zreteľom na dôkazy alebo náznaky týkajúce sa daných hrozieb, obetí alebo páchateľa. Referenčná databáza osôb by mala byť vhodná pre každý prípad použitia v každej z troch uvedených situácií.

    S cieľom zabezpečiť, aby sa tieto systémy používali zodpovedným a primeraným spôsobom, je tiež dôležité stanoviť, že v každej z týchto troch podrobne opísaných a úzko vymedzených situácií by sa mali zohľadniť určité prvky, najmä pokiaľ ide o povahu situácie, ktorá viedla k predloženiu žiadosti, o dôsledky využívania týchto systémov na práva a slobody všetkých dotknutých osôb a o záruky a podmienky zabezpečené pri tomto používaní. Konzultácie so zainteresovanými miestnymi a regionálnymi samosprávami by sa mali uskutočniť pred osobitným používaním týchto systémov. Okrem toho používanie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať prísnym časovým a priestorovým obmedzeniam, najmä so zreteľom na dôkazy alebo náznaky týkajúce sa daných hrozieb, obetí alebo páchateľa. Referenčná databáza osôb by mala byť vhodná pre každý prípad použitia v každej z troch uvedených situácií.

    Zdôvodnenie

    Systémy diaľkovej biometrickej identifikácie „v reálnom čase“ by sa nemali používať ľahkovážne.

    Pozmeňovací návrh 4

    Odôvodnenie 21

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Každé použitie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať výslovnému a osobitnému povoleniu súdneho orgánu alebo nezávislého správneho orgánu členského štátu. Toto povolenie by bolo v zásade potrebné získať pred použitím systému, s výnimkou riadne odôvodnených naliehavých situácií, t. j. situácií, v ktorých je potreba použiť predmetné systémy taká naliehavá, že je naozaj objektívne nemožné získať povolenie pred začatím tohto použitia. V  takýchto naliehavých situáciách by sa používanie malo obmedziť na absolútne nevyhnutné minimum a malo by podliehať primeraným zárukám a podmienkam stanoveným vo vnútroštátnom práve a špecifikovaným v kontexte každého jednotlivého naliehavého prípadu použitia samotným orgánom presadzovania práva . Okrem toho by sa orgán presadzovania práva mal v takýchto situáciách snažiť získať povolenie čo najskôr, pričom uvedie dôvody, pre ktoré ho nemohol požadovať skôr.

    Každé použitie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať výslovnému a osobitnému povoleniu súdneho orgánu alebo nezávislého správneho orgánu členského štátu. Toto povolenie by bolo potrebné získať pred použitím systému, s výnimkou riadne odôvodnených naliehavých situácií, t. j. situácií, v ktorých je potreba použiť predmetné systémy taká naliehavá, že je naozaj objektívne nemožné získať povolenie pred začatím tohto použitia. V  každom prípade by sa používanie malo obmedziť na absolútne nevyhnutné minimum a malo by podliehať primeraným zárukám a podmienkam stanoveným vo vnútroštátnom práve. Okrem toho by orgán presadzovania práva mal okamžite informovať príslušné miestne a regionálne samosprávy a mal by sa snažiť získať povolenie príslušných orgánov .

    Zdôvodnenie

    Politickú a administratívnu zodpovednosť za správu verejne prístupných priestorov a dohľad nad nimi nesú miestne a regionálne samosprávy. Preto musia byť riadne zapojené do používania takých systémov vo verejne prístupných priestoroch. V naliehavých situáciách, keď odôvodnene nemožno očakávať predchádzajúce konzultácie, by zainteresovaný miestny alebo regionálny orgán mal byť bezodkladne informovaný o použití biometrických systémov vo verejne prístupnom priestore.

    Pozmeňovací návrh 5

    Odôvodnenie 39

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Systémy umelej inteligencie používané v oblastiach migrácie, azylu a riadenia kontroly hraníc majú vplyv na ľudí, ktorí sú často v mimoriadne zraniteľnom postavení a ktorí sú závislí od výsledku činností príslušných orgánov verejnej moci. Presnosť, nediskriminačný charakter a transparentnosť systémov umelej inteligencie používaných v tomto kontexte sú preto mimoriadne dôležité na zaručenie dodržiavania základných práv dotknutých osôb, najmä ich práva na voľný pohyb, nediskrimináciu, ochranu súkromného života a osobných údajov, medzinárodnú ochranu a dobrú správu vecí verejných. Je preto vhodné klasifikovať ako vysokorizikové tie systémy umelej inteligencie, ktoré majú používať príslušné orgány verejnej moci poverené úlohami v oblasti migrácie, azylu a riadenia kontroly hraníc, ako napríklad detektory lži a podobné nástroje alebo nástroje na zisťovanie emocionálneho stavu fyzickej osoby, posudzovanie určitých rizík, ktoré predstavujú fyzické osoby vstupujúce na územie členského štátu alebo žiadajúce o vízum alebo azyl, overenie pravosti príslušných dokladov fyzických osôb, pomoc príslušným orgánom verejnej moci pri posudzovaní žiadostí o azyl, víza a povolenia na pobyt a súvisiacich sťažností, pokiaľ ide o cieľ zistiť oprávnenosť fyzických osôb žiadajúcich o určitý status. Systémy umelej inteligencie v oblasti migrácie, azylu a riadenia kontroly hraníc, na ktoré sa vzťahuje toto nariadenie, by mali spĺňať príslušné procedurálne požiadavky stanovené v smernici Európskeho parlamentu a Rady 2013/32/EÚ, nariadení Európskeho parlamentu a Rady (ES) č. 810/2009 a iných príslušných právnych predpisoch.

    Systémy umelej inteligencie používané v oblastiach migrácie, azylu a riadenia kontroly hraníc majú vplyv na ľudí, ktorí sú často v mimoriadne zraniteľnom postavení a ktorí sú závislí od výsledku činností príslušných orgánov verejnej moci. Presnosť, nediskriminačný charakter a transparentnosť systémov umelej inteligencie používaných v tomto kontexte sú preto mimoriadne dôležité na zaručenie dodržiavania základných práv dotknutých osôb, najmä ich práva na voľný pohyb, nediskrimináciu, ochranu súkromného života a osobných údajov, medzinárodnú ochranu a dobrú správu vecí verejných. Je preto nevyhnutné klasifikovať ako vysokorizikové tie systémy umelej inteligencie, ktoré majú používať príslušné orgány verejnej moci poverené úlohami v oblasti migrácie, azylu a riadenia kontroly hraníc, ako napríklad detektory lži a podobné nástroje alebo nástroje na zisťovanie emocionálneho stavu fyzickej osoby, posudzovanie určitých rizík, ktoré predstavujú fyzické osoby vstupujúce na územie členského štátu alebo žiadajúce o vízum alebo azyl, overenie pravosti príslušných dokladov fyzických osôb, pomoc príslušným orgánom verejnej moci pri posudzovaní žiadostí o azyl, víza a povolenia na pobyt a súvisiacich sťažností, pokiaľ ide o cieľ zistiť oprávnenosť fyzických osôb žiadajúcich o určitý status. Systémy umelej inteligencie v oblasti migrácie, azylu a riadenia kontroly hraníc, na ktoré sa vzťahuje toto nariadenie, by mali spĺňať príslušné procedurálne požiadavky stanovené v smernici Európskeho parlamentu a Rady 2013/32/EÚ, nariadení Európskeho parlamentu a Rady (ES) č. 810/2009 a iných príslušných právnych predpisoch.

    Zdôvodnenie

    Navrhovaná zmena vyjadruje potrebu podriadiť uvedené systémy umelej inteligencie sprísnenému režimu pre vysokorizikové systémy umelej inteligencie.

    Pozmeňovací návrh 6

    Odôvodnenie 43

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Požiadavky by sa mali vzťahovať na vysokorizikové systémy umelej inteligencie, pokiaľ ide o kvalitu použitých súborov údajov, technickú dokumentáciu a uchovávanie záznamov, transparentnosť a poskytovanie informácií používateľom, ľudský dohľad a spoľahlivosť, presnosť a kybernetickú bezpečnosť. Tieto požiadavky sú potrebné na účinné zmiernenie rizík pre zdravie, bezpečnosť a základné práva, ktoré sa uplatňujú vzhľadom na zamýšľaný účel systému, a nie sú primerane dostupné žiadne iné opatrenia menej obmedzujúce obchod, takže nedochádza k neodôvodneným obmedzeniam obchodu.

    Požiadavky by sa mali vzťahovať na vysokorizikové systémy umelej inteligencie, pokiaľ ide o kvalitu použitých súborov údajov, technickú dokumentáciu a uchovávanie záznamov, transparentnosť a poskytovanie informácií používateľom, ľudský dohľad a spoľahlivosť, presnosť a kybernetickú bezpečnosť. Tieto požiadavky sú potrebné na účinné zmiernenie rizík pre zdravie, bezpečnosť , bezpečnosť údajov, práva spotrebiteľa a základné práva, ktoré sa uplatňujú vzhľadom na účel systému, a nie sú primerane dostupné žiadne iné opatrenia menej obmedzujúce obchod, takže nedochádza k neodôvodneným obmedzeniam obchodu. Fyzické osoby alebo skupiny osôb, ktorých sa týkajú vysokorizikové systémy umelej inteligencie uvedené na trh v EÚ alebo inak uvedené do prevádzky, musia byť informované vhodným, ľahko prístupným a zrozumiteľným spôsobom a musia mať prístup k výslovným, ľahko prístupným a verejne dostupným informáciám vysvetľujúcim, že podliehajú takýmto systémom.

    Zdôvodnenie

    Požiadavky na transparentnosť a informácie vzťahujúce sa na poskytovateľov a používateľov by sa mali rozšíriť na osoby alebo skupiny osôb, ktorých sa môže týkať používanie vysokorizikových systémov umelej inteligencie uvedených v prílohe III nariadenia. Pod „zrozumiteľným spôsobom“ sa chápe aj „používateľovi zrozumiteľný a prístupný jazyk vrátane auditívnej reči a posunkovej reči“.

    Pozmeňovací návrh 7

    Za odôvodnenie 44 vložiť nové odôvodnenie

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

     

    Poskytovatelia systémov umelej inteligencie sa vo svojom systéme riadenia kvality zdržia opatrení, ktoré by podporovali neoprávnenú diskrimináciu na základe pohlavia, pôvodu, vierovyznania alebo presvedčenia, zdravotného postihnutia, veku, sexuálnej orientácie alebo diskrimináciu na akomkoľvek inom základe.

    Zdôvodnenie

    Nezákonná diskriminácia vyplýva z ľudského konania. Poskytovatelia systémov umelej inteligencie sa vo svojich systémoch kvality majú zdržať opatrení, ktoré by mohli podporovať diskrimináciu.

    Pozmeňovací návrh 8

    Odôvodnenie 47

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Pre vysokorizikové systémy umelej inteligencie by sa mal vyžadovať určitý stupeň transparentnosti, aby sa vyriešila nepriehľadnosť, ktorá môže spôsobiť, že niektoré systémy umelej inteligencie budú pre fyzické osoby nezrozumiteľné alebo príliš zložité. Používatelia by mali byť schopní interpretovať výstup systému a vhodne ho používať. K vysokorizikovým systémom umelej inteligencie by preto mala byť pripojená príslušná dokumentácia a návod na použitie, ktoré by mali obsahovať stručné a jasné informácie, a to prípadne aj v súvislosti s možnými rizikami pre základné práva a diskrimináciu.

    Pre vysokorizikové systémy umelej inteligencie by sa mal vyžadovať najvyšší stupeň transparentnosti, aby sa vyriešila nepriehľadnosť, ktorá môže spôsobiť, že niektoré systémy umelej inteligencie budú pre fyzické osoby alebo orgány verejnej moci na všetkých úrovniach verejnej správy nezrozumiteľné alebo príliš zložité. Používatelia by mali byť schopní interpretovať výstup systému a vhodne ho používať. K vysokorizikovým systémom umelej inteligencie by preto mala byť pripojená príslušná dokumentácia a návod na použitie, ktoré by mali obsahovať stručné a jasné informácie, a to prípadne aj v súvislosti s možnými rizikami pre základné práva a diskrimináciu.

    Zdôvodnenie

    Zodpovednosť navrhovateľov vysokorizikových systémov umelej inteligencie sa použitím formulácie „určitý stupeň transparentnosti“ zmierňuje.

    Pozmeňovací návrh 9

    Odôvodnenie 48

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Vysokorizikové systémy umelej inteligencie by mali byť koncipované a vyvinuté tak, aby fyzické osoby mohli dohliadať na ich fungovanie. Na tento účel by mal poskytovateľ systému určiť pred jeho uvedením na trh alebo do prevádzky vhodné opatrenia ľudského dohľadu. Takýmito opatreniami by sa malo prípadne zaručiť najmä to, že do systému budú zabudované prevádzkové obmedzenia, ktoré samotný systém nedokáže potlačiť, a že systém bude reagovať na ľudského operátora a fyzické osoby, ktorým bol zverený ľudský dohľad, budú mať potrebnú spôsobilosť, odbornú prípravu a právomoc vykonávať túto úlohu.

    Vysokorizikové systémy umelej inteligencie by mali byť koncipované a vyvinuté tak, aby fyzické osoby a orgány verejnej moci na všetkých úrovniach verejnej správy mohli dohliadať na ich fungovanie. Na tento účel by mal poskytovateľ systému určiť pred jeho uvedením na trh alebo do prevádzky vhodné opatrenia ľudského dohľadu. Takýmito opatreniami by sa malo prípadne zaručiť najmä to, že do systému budú zabudované prevádzkové obmedzenia, ktoré samotný systém nedokáže potlačiť, a že systém bude reagovať na ľudského operátora a fyzické osoby, ktorým bol zverený ľudský dohľad, budú mať potrebnú spôsobilosť, odbornú prípravu a právomoc vykonávať túto úlohu.

    Zdôvodnenie

    Vyplýva zo znenia.

    Pozmeňovací návrh 10

    Odôvodnenie 67

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Vysokorizikové systémy umelej inteligencie by mali niesť označenie CE, ktoré by preukazovalo ich súlad s týmto nariadením, aby im bol umožnený voľný pohyb v rámci vnútorného trhu. Členské štáty by nemali vytvárať neodôvodnené prekážky uvedeniu na trh ani do prevádzky v prípade vysokorizikových systémov umelej inteligencie, ktoré spĺňajú požiadavky stanovené v tomto nariadení a majú označenie CE.

    Vysokorizikové systémy umelej inteligencie by mali niesť označenie CE, ktoré by preukazovalo ich súlad s týmto nariadením, aby im bol umožnený voľný pohyb v rámci vnútorného trhu. Členské štáty by nemali vytvárať prekážky uvedeniu na trh ani do prevádzky v prípade vysokorizikových systémov umelej inteligencie, ktoré spĺňajú požiadavky stanovené v tomto nariadení a majú označenie CE. Členské štáty majú právomoc regulovať vysokorizikové postupy a systémy umelej inteligencie výlučne na základe zjavných a riadne opodstatnených verejných záujmov a záujmov národnej bezpečnosti .

    Zdôvodnenie

    Hoci členské štáty by nemali brániť uplatňovaniu nariadenia, mali by si ponechať právo regulovať vysokorizikové systémy umelej inteligencie, ak sú ohrozené verejný záujem a záujmy národnej bezpečnosti.

    Pozmeňovací návrh 11

    Odôvodnenie 70

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Určité systémy umelej inteligencie určené na interakciu s fyzickými osobami alebo generovanie obsahu môžu predstavovať osobitné riziko podvodu predstieraním identity alebo podvodného konania bez ohľadu na to, či sú klasifikované ako vysokorizikové alebo nie. Preto by používanie týchto systémov malo za určitých okolností podliehať osobitným povinnostiam transparentnosti bez toho, aby boli dotknuté požiadavky a povinnosti týkajúce sa vysokorizikových systémov umelej inteligencie. Predovšetkým by fyzické osoby mali byť informované o tom, že komunikujú so systémom umelej inteligencie , pokiaľ to nie je zrejmé z okolností a kontextu používania . Okrem toho by fyzické osoby mali byť informované, keď sú vystavené systému na rozpoznávanie emócií alebo systému biometrickej kategorizácie. Takéto informácie a oznámenia by sa mali poskytovať vo formátoch prístupných pre osoby so zdravotným postihnutím. Používatelia, ktorí používajú systém umelej inteligencie na vytváranie obrazového, zvukového alebo video obsahu alebo na manipuláciu s ním a tento obsah sa očividne podobá existujúcim osobám, miestam alebo udalostiam a nepravdivo na človeka pôsobí ako autentický obsah, by mali zverejniť, že tento obsah bol umelo vytvorený alebo zmanipulovaný, tak, že výstup umelej inteligencie zodpovedajúcim spôsobom označia a zverejnia jeho umelý pôvod.

    Určité systémy umelej inteligencie určené na interakciu s fyzickými osobami alebo generovanie obsahu môžu predstavovať osobitné riziko podvodu predstieraním identity alebo podvodného konania bez ohľadu na to, či sú klasifikované ako vysokorizikové alebo nie. Pred použitím týchto systémov musia byť splnené osobitné povinnosti transparentnosti bez toho, aby boli dotknuté požiadavky a povinnosti týkajúce sa vysokorizikových systémov umelej inteligencie. Predovšetkým by fyzické osoby mali byť systematicky informované o tom, že komunikujú so systémom umelej inteligencie. Okrem toho by fyzické osoby mali byť informované, keď sú vystavené systému na rozpoznávanie emócií alebo systému biometrickej kategorizácie. Takéto informácie a oznámenia by sa mali poskytovať vo formátoch prístupných pre osoby so zdravotným postihnutím. Používatelia, ktorí používajú systém umelej inteligencie na vytváranie obrazového, zvukového alebo video obsahu alebo na manipuláciu s ním a tento obsah sa očividne podobá existujúcim osobám, miestam alebo udalostiam a nepravdivo na človeka pôsobí ako autentický obsah, by mali zverejniť, že tento obsah bol umelo vytvorený alebo zmanipulovaný, tak, že výstup umelej inteligencie zodpovedajúcim spôsobom označia a zverejnia jeho umelý pôvod.

    Zdôvodnenie

    Pri interakcii fyzických osôb so systémami umelej inteligencie sa nesmú robiť žiadne výnimky z povinnosti transparentnosti a informovania.

    Pozmeňovací návrh 12

    Odôvodnenie 76

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Na uľahčenie bezproblémového, účinného a harmonizovaného vykonávania tohto nariadenia by sa mala zriadiť Európska rada pre umelú inteligenciu. Táto rada by mala byť zodpovedná za niekoľko poradných úloh vrátane vydávania stanovísk, odporúčaní, poradenstva alebo usmernení v záležitostiach týkajúcich sa vykonávania tohto nariadenia vrátane technických špecifikácií alebo existujúcich noriem týkajúcich sa požiadaviek stanovených v tomto nariadení a poskytovania poradenstva a pomoci Komisii v konkrétnych otázkach súvisiacich s umelou inteligenciou.

    Na uľahčenie bezproblémového, účinného a harmonizovaného vykonávania tohto nariadenia by sa mala zriadiť Európska rada pre umelú inteligenciu. Táto rada by mala byť zodpovedná za niekoľko poradných úloh vrátane vydávania stanovísk, odporúčaní, poradenstva alebo usmernení v záležitostiach týkajúcich sa vykonávania tohto nariadenia vrátane technických špecifikácií alebo existujúcich noriem týkajúcich sa požiadaviek stanovených v tomto nariadení a poskytovania poradenstva a pomoci Komisii v konkrétnych otázkach súvisiacich s umelou inteligenciou. Členovia Európskej rady pre umelú inteligenciu by mali zastupovať záujmy európskej spoločnosti. Jej zloženie by malo byť rodovo vyvážené.

    Zdôvodnenie

    V Európskej rade pre umelú inteligenciu majú byť vhodne zastúpené rôznorodé záujmy európskej spoločnosti. Okrem iného ide o záujmy v oblasti ľudských práv, klimaticky a energeticky vhodného používania systémov umelej inteligencie, bezpečnosti, sociálneho začleňovania, zdravia atď. Rodová vyváženosť je základným predpokladom rozmanitosti pri poradenstve, zostavovaní usmernení atď.

    Pozmeňovací návrh 13

    Odôvodnenie 77

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Pri uplatňovaní a presadzovaní tohto nariadenia zohrávajú kľúčovú úlohu členské štáty. V tejto súvislosti by mal na účely dohľadu nad uplatňovaním a vykonávaním tohto nariadenia každý členský štát určiť jeden alebo viac príslušných vnútroštátnych orgánov. Aby sa zvýšila efektívnosť organizácie zo strany členských štátov a vytvorilo oficiálne kontaktné miesto vo vzťahu k verejnosti a iným partnerom na úrovni členských štátov a Únie, by sa mal v každom členskom štáte určiť jeden vnútroštátny orgán ako vnútroštátny dozorný orgán.

    Pri uplatňovaní a presadzovaní tohto nariadenia zohrávajú kľúčovú úlohu členské štáty. V tejto súvislosti by mal na účely dohľadu nad uplatňovaním a vykonávaním tohto nariadenia každý členský štát určiť jeden alebo viac príslušných vnútroštátnych orgánov. Aby sa zvýšila efektívnosť organizácie zo strany členských štátov a vytvorilo oficiálne kontaktné miesto vo vzťahu k verejnosti a iným partnerom na úrovni členských štátov a Únie, by sa mal v každom členskom štáte určiť jeden vnútroštátny orgán ako vnútroštátny dozorný orgán. Ak to členský štát považuje za vhodné, poverí úlohami v oblasti dohľadu alebo presadzovania miestne a regionálne samosprávy.

    Zdôvodnenie

    Aby sa zabezpečila vykonateľnosť nariadenia a v ňom uvedeného rámca dohľadu a presadzovania, musí mať členský štát právomoc poveriť miestne a regionálne samosprávy vykonávaním úloh dohľadu alebo presadzovania, a to v prípade potreby a tam, kde je to možné.

    Pozmeňovací návrh 14

    Odôvodnenie 79

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    S cieľom zabezpečiť primerané a účinné presadzovanie požiadaviek a povinností stanovených v tomto nariadení, ktoré predstavuje harmonizačné právne predpisy Únie, by sa mal v celom rozsahu uplatňovať systém dohľadu nad trhom a súladu výrobkov stanovený nariadením (EÚ) 2019/1020. Vnútroštátne orgány verejnej moci alebo subjekty, ktoré dohliadajú na uplatňovanie práva Únie na ochranu základných práv, vrátane orgánov pre otázky rovnosti, by mali mať prístup, pokiaľ je to pre ich mandát nutné, aj k všetkej dokumentácii vytvorenej podľa tohto nariadenia.

    S cieľom zabezpečiť primerané a účinné presadzovanie požiadaviek a povinností stanovených v tomto nariadení, ktoré predstavuje harmonizačné právne predpisy Únie, by sa mal v celom rozsahu uplatňovať systém dohľadu nad trhom a súladu výrobkov stanovený nariadením (EÚ) 2019/1020. Vnútroštátne orgány verejnej moci a, pokiaľ sa tak stanovilo, miestne alebo regionálne samosprávy alebo subjekty, ktoré dohliadajú na uplatňovanie práva Únie na ochranu základných práv, vrátane orgánov pre otázky rovnosti, by mali mať prístup, pokiaľ je to pre ich mandát nutné, aj k všetkej dokumentácii vytvorenej podľa tohto nariadenia.

    Zdôvodnenie

    Týmto pozmeňovacím návrhom sa zohľadňuje rozmanitosť štruktúr verejnej správy v členských štátoch EÚ.

    Pozmeňovací návrh 15

    Odôvodnenie 83

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Na zabezpečenie dôveryhodnej a konštruktívnej spolupráce príslušných orgánov na úrovni Únie a na vnútroštátnej úrovni by mali všetky strany zapojené do uplatňovania tohto nariadenia rešpektovať dôvernosť informácií a údajov získaných pri plnení svojich úloh.

    Na zabezpečenie dôveryhodnej a konštruktívnej spolupráce príslušných orgánov na úrovni Únie a na národnej, regionálnej a miestnej úrovni by mali všetky strany zapojené do uplatňovania tohto nariadenia rešpektovať dôvernosť informácií a údajov získaných pri plnení svojich úloh

    Zdôvodnenie

    Týmto pozmeňovacím návrhom sa zohľadňuje rozmanitosť štruktúr verejnej správy v členských štátoch EÚ.

    Pozmeňovací návrh 16

    HLAVA I článok 3 bod 1 – Vymedzenie pojmov

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    „systém umelej inteligencie“ je softvér vyvinutý s jednou alebo viacerými technikami a prístupmi uvedenými v prílohe I, ktorý môže pre daný súbor cieľov vymedzených človekom vytvárať výstupy, ako je obsah, predpovede, odporúčania alebo rozhodnutia ovplyvňujúce prostredie, s ktorým sú v interakcii;

    „systém umelej inteligencie“ je softvér vyvinutý s jednou alebo viacerými technikami a prístupmi uvedenými v neúplnom zozname v prílohe I  v kombinácii so sociálnymi postupmi, identitou a kultúrou , ktorý môže pre daný súbor cieľov vymedzených človekom vnímaním svojho okolia, zberom údajov, interpretovaním zozbieraných štruktúrovaných alebo neštruktúrovaných údajov, riadením poznatkov alebo spracovávaním informácií získaných z týchto údajov vytvárať výstupy, ako je obsah, predpovede, odporúčania alebo rozhodnutia ovplyvňujúce prostredie, s ktorým sú v interakcii;

    Zdôvodnenie

    Systém umelej inteligencie pozostáva z kombinácie technických prvkov, ktoré spájajú údaje, algoritmy a výpočtovú kapacitu so sociálnymi postupmi, spoločnosťou, identitou a kultúrou. Definícia takéhoto spoločensko-technického súboru preto musí byť nadčasová a mala by sa pravidelne aktualizovať, aby presne odrážala narastajúci spoločenský vplyv umelej inteligencie a zároveň vytyčovala rýchlo sa meniace príležitosti a výzvy s ňou spojené vrátane prepojenia medzi riadením poznatkov a umelou inteligenciou. V tejto súvislosti by sa toto nariadenie malo vzťahovať aj na algoritmy vyvinuté inými algoritmami.

    Pozmeňovací návrh 17

    Článok 5 ods. 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Zakazujú sa tieto praktiky v oblasti umelej inteligencie:

    Zakazujú sa tieto praktiky v oblasti umelej inteligencie:

    a)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému umelej inteligencie, ktorý s cieľom podstatne narušiť správanie osoby využíva podprahové techniky mimo vedomia osoby tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú alebo psychickú ujmu;

    a)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému umelej inteligencie, ktorý s cieľom podstatne narušiť správanie osoby využíva podprahové techniky mimo vedomia osoby tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú alebo psychickú ujmu , porušuje alebo by mohol porušiť základné práva inej osoby alebo skupiny osôb vrátane telesného alebo duševného zdravia a bezpečnosti tejto osoby alebo skupiny osôb, má alebo by mohol mať negatívny dosah na spotrebiteľa vrátane finančnej straty alebo ekonomickej diskriminácie, alebo ohrozuje alebo by mohol ohroziť demokraciu a právny štát ;

    b)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému umelej inteligencie, ktorý s cieľom podstatne narušiť správanie osoby patriacej do konkrétnej skupiny osôb využíva ktorúkoľvek zo zraniteľností tejto skupiny osôb vyplývajúcich z ich veku, fyzického alebo duševného postihnutia tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú alebo psychickú ujmu;

    b)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému umelej inteligencie, ktorý s cieľom podstatne narušiť správanie osoby patriacej do konkrétnej skupiny osôb využíva ktorúkoľvek zo zraniteľností tejto skupiny osôb vyplývajúcich z ich veku, fyzického alebo duševného postihnutia tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú alebo psychickú ujmu;

    c)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov umelej inteligencie orgánmi verejnej moci alebo v ich mene na účely hodnotenia alebo klasifikácie dôveryhodnosti fyzických osôb počas určitého obdobia na základe ich spoločenského správania alebo známych či predpokladaných osobných alebo osobnostných charakteristík , pričom takto získané sociálne skóre vedie k jednému alebo obidvom z týchto výsledkov:

    i)

    škodlivé alebo nepriaznivé zaobchádzanie s určitými fyzickými osobami alebo celými skupinami fyzických osôb v sociálnych kontextoch, ktoré nesúvisia s kontextmi, v ktorých boli údaje pôvodne generované alebo zhromaždené;

    ii)

    škodlivé alebo nepriaznivé zaobchádzanie s určitými fyzickými osobami alebo celými skupinami fyzických osôb, ktoré je neodôvodnené alebo neprimerané ich spoločenskému správaniu alebo jeho závažnosti;

    c)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov umelej inteligencie orgánmi verejnej moci alebo v ich mene na účely hodnotenia alebo klasifikácie dôveryhodnosti fyzických osôb alebo skupín osôb počas určitého obdobia na základe ich spoločenského správania alebo známych či predpokladaných osobných alebo osobnostných charakteristík , čo vedie k používaniu sociálneho skóre na základe umelej inteligencie na všeobecné účely ;

    d)

    používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pokiaľ takéto použitie nie je nevyhnutne a v nutnej miere potrebné na jeden z týchto cieľov:

    i)

    cielené pátranie po konkrétnych potenciálnych obetiach trestných činov vrátane nezvestných detí;

    ii)

    predchádzanie konkrétnemu, závažnému a bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti fyzických osôb alebo teroristickému útoku;

    iii)

    odhaľovanie, lokalizácia, identifikácia alebo stíhanie páchateľa trestného činu uvedeného v článku 2 ods. 2 rámcového rozhodnutia Rady 2002/584/SVV ([62]), za ktorý možno podľa právnych predpisov dotknutého členského štátu v tomto členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie s hornou hranicou trestnej sadzby najmenej tri roky, alebo osoby podozrivej zo spáchania takéhoto trestného činu.

    d)

    uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov umelej inteligencie orgánmi verejnej moci alebo v ich mene uplatňovaním sociálneho skóre založeného na umelej inteligencii bez ľudského dohľadu na osobitné účely, t. j. v sociálnych kontextoch, ktoré súvisia s kontextmi, v ktorých boli údaje pôvodne generované alebo zhromaždené, na účely hodnotenia alebo klasifikácie dôveryhodnosti fyzických osôb alebo skupiny osôb počas určitého obdobia na základe ich spoločenského správania alebo známych či predpokladaných osobných alebo osobnostných charakteristík, pričom takto získané sociálne skóre vedie k škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo celými skupinami fyzických osôb, ktoré je neodôvodnené alebo neprimerané ich spoločenskému správaniu alebo jeho závažnosti;

     

    e)

    používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pokiaľ takéto použitie nie je nevyhnutne a v nutnej miere potrebné na jeden z týchto cieľov:

    i)

    cielené pátranie po konkrétnych potenciálnych obetiach trestných činov vrátane nezvestných detí;

    ii)

    predchádzanie konkrétnemu, závažnému a bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti fyzických osôb alebo teroristickému útoku;

    iii)

    odhaľovanie, lokalizácia, identifikácia alebo stíhanie páchateľa trestného činu uvedeného v článku 2 ods. 2 rámcového rozhodnutia Rady 2002/584/SVV ([62]), za ktorý možno podľa právnych predpisov dotknutého členského štátu v tomto členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie s hornou hranicou trestnej sadzby najmenej tri roky, alebo osoby podozrivej zo spáchania takéhoto trestného činu.

    Zdôvodnenie

    Podprahové techniky môžu vo všeobecnosti ohrozovať slobodu, ľudské práva, a tým aj fungovanie demokratického právneho štátu. Umelá inteligencia zároveň môže oslabovať práva spotrebiteľov. Doplnením znenia sa má táto skutočnosť objasniť.

    Pokiaľ ide o sociálnu klasifikáciu orgánmi verejnej moci alebo v ich mene, mala by sa zakázať, ak sa vykonáva na všeobecné účely, a to vzhľadom na riziká vyplývajúce z takýchto praktík, ako sa vysvetľuje v odôvodnení 17. Vytváranie alebo zhromažďovanie údajov na osobitné účely by sa malo povoliť len vtedy, ak sa vykonáva pod ľudským dohľadom a za predpokladu, že sa tým neporušujú právo na dôstojnosť a nediskrimináciu a hodnoty rovnosti a spravodlivosti.

    Pozmeňovací návrh 18

    Článok 5 ods. 4

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Členský štát sa môže rozhodnúť, že na účely presadzovania práva v rámci obmedzení a za podmienok uvedených v odseku 1 písm. d) a odsekoch 2 a 3 stanoví možnosť úplne alebo čiastočne povoliť používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch. Tento členský štát vo svojom vnútroštátnom práve stanoví potrebné podrobné pravidlá na podávanie žiadostí o povolenia uvedené v odseku 3, ich vydávanie a výkon, ako aj pre dohľad nad nimi. V týchto pravidlách sa takisto uvedie, v súvislosti s ktorým z cieľov uvedených v odseku 1 písm. d) a s ktorým z trestných činov uvedených v jeho bode iii) môžu byť príslušné orgány oprávnené používať tieto systémy na účely presadzovania práva.

    Členský štát sa môže rozhodnúť, že na účely presadzovania práva v rámci obmedzení a za podmienok uvedených v odseku 1 písm. d) a odsekoch 2 a 3 stanoví možnosť úplne alebo čiastočne povoliť používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch. Tento členský štát vo svojom vnútroštátnom práve stanoví potrebné podrobné pravidlá na podávanie žiadostí o povolenia uvedené v odseku 3, ich vydávanie a výkon, ako aj pre dohľad nad nimi. V týchto pravidlách sa takisto uvedie, v súvislosti s ktorým z cieľov uvedených v odseku 1 písm. d) a s ktorým z trestných činov uvedených v jeho bode iii) môžu byť príslušné orgány oprávnené používať tieto systémy na účely presadzovania práva. Rovnako sa v nich stanoví spôsob splnenia informačnej povinnosti, pokiaľ ide o konzultácie s miestnymi a regionálnymi samosprávami. Konzultácie sa musia uskutočniť pred osobitným používaním týchto systémov vo verejne prístupných priestoroch. V naliehavých situáciách, keď odôvodnene nemožno očakávať predchádzajúce konzultácie, bude príslušná miestna alebo regionálna samospráva bezodkladne informovaná o použití zodpovedajúcich postupov umelej inteligencie.

    Zdôvodnenie

    Politickú a administratívnu zodpovednosť za správu verejne prístupných priestorov a dohľad nad nimi nesú miestne a regionálne samosprávy. Preto musia mať možnosť poskytovať vstupné informácie pred zavedením takýchto postupov umelej inteligencie a byť riadne informované o osobitnom používaní systémov umelej inteligencie na presadzovanie práva.

    V naliehavej situácii, keď odôvodnene nemožno očakávať predchádzajúce konzultácie, bude príslušná miestna alebo regionálna samospráva bezodkladne informovaná.

    Pozmeňovací návrh 19

    Článok 13

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Článok 13  – Transparentnosť a poskytovanie informácií používateľom

    Článok 13a  – Transparentnosť a poskytovanie informácií používateľom

    1.   Vysokorizikové systémy umelej inteligencie musia byť koncipované a vyvinuté tak, aby sa zabezpečilo, že ich prevádzka je dostatočne transparentná na to, aby používateľom umožnila interpretovať výstupy systému a vhodne ich používať. Musí sa zabezpečiť primeraný druh a stupeň transparentnosti, aby používatelia a poskytovatelia mohli dodržiavať príslušné povinnosti stanovené v kapitole 3 tejto hlavy.

    1.   Vysokorizikové systémy umelej inteligencie musia byť koncipované a vyvinuté tak, aby sa zabezpečilo, že ich prevádzka je dostatočne transparentná na to, aby používateľom umožnila interpretovať výstupy systému a vhodne ich používať. Musí sa zabezpečiť primeraný druh a stupeň transparentnosti a zrozumiteľný výklad , aby používatelia a poskytovatelia mohli dodržiavať príslušné povinnosti stanovené v kapitole 3 tejto hlavy. Výklad sa poskytne aspoň v jazyku krajiny, v ktorej sa systém umelej inteligencie použije.

    2.   K vysokorizikovým systémom umelej inteligencie musí byť vo vhodnom digitálnom formáte alebo inak priložený návod na použitie obsahujúci stručné, úplné, správne a jasné informácie, ktoré sú pre používateľov relevantné, prístupné a zrozumiteľné.

    2.   K vysokorizikovým systémom umelej inteligencie musí byť vo vhodnom digitálnom formáte alebo inak priložený verejný, zrozumiteľný a každému prístupný návod na použitie obsahujúci stručné, úplné, správne a jasné informácie, ktoré sú pre používateľov relevantné, prístupné a zrozumiteľné.

    3.   V informáciách podľa odseku 2 sa uvádzajú:

    3.   V informáciách podľa odseku 2 sa uvádzajú:

    a)

    totožnosť a kontaktné údaje prevádzkovateľa a v príslušných prípadoch jeho splnomocneného zástupcu;

    a)

    totožnosť a kontaktné údaje prevádzkovateľa a v príslušných prípadoch jeho splnomocneného zástupcu;

    b)

    charakteristiky, schopnosti a obmedzenia výkonnosti vysokorizikového systému umelej inteligencie vrátane:

    b)

    charakteristiky, schopnosti a obmedzenia výkonnosti vysokorizikového systému umelej inteligencie vrátane:

     

    i)

    jeho zamýšľaného účelu;

     

    i)

    jeho zamýšľaného účelu;

     

    ii)

    úrovne presnosti, spoľahlivosti a kybernetickej bezpečnosti podľa článku 15, na základe ktorej bol vysokorizikový systém umelej inteligencie testovaný a validovaný a ktorú možno očakávať, ako aj všetky známe a predvídateľné okolnosti, ktoré môžu mať vplyv na túto očakávanú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti;

     

    ii)

    úrovne presnosti (vyjadrenej v relevantnom systéme merania na vyhodnocovanie modelov) , spoľahlivosti a kybernetickej bezpečnosti podľa článku 15, na základe ktorej bol vysokorizikový systém umelej inteligencie testovaný a validovaný a ktorú možno očakávať, ako aj všetky známe a predvídateľné okolnosti, ktoré môžu mať vplyv na túto očakávanú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti;

     

    iii)

    všetkých známych alebo predvídateľných okolností súvisiacich s používaním vysokorizikového systému umelej inteligencie v súlade s jeho zamýšľaným účelom alebo za podmienok logicky predvídateľného nesprávneho použitia, ktoré môžu viesť k rizikám pre zdravie a bezpečnosť alebo pre základné práva;

     

    iii)

    všetkých známych alebo predvídateľných okolností súvisiacich s používaním vysokorizikového systému umelej inteligencie v súlade s jeho zamýšľaným účelom alebo za podmienok logicky predvídateľného nesprávneho použitia, ktoré môžu viesť k rizikám pre zdravie a bezpečnosť alebo pre základné práva;

     

    iv)

    jeho výkonnosti, pokiaľ ide o osoby alebo skupiny osôb, v prípade ktorých sa má systém používať;

     

    iv)

    jeho výkonnosti, pokiaľ ide o osoby alebo skupiny osôb, v prípade ktorých sa má systém používať;

     

    v)

    prípadne špecifikácií vstupných údajov alebo akýchkoľvek iných relevantných informácií z hľadiska použitých súborov trénovacích, validačných a testovacích údajov, pričom sa zohľadní zamýšľaný účel systému umelej inteligencie;

     

    v)

    prípadne špecifikácií vstupných údajov alebo akýchkoľvek iných relevantných informácií z hľadiska použitých súborov trénovacích, validačných a testovacích údajov, pričom sa zohľadní zamýšľaný účel systému umelej inteligencie;

    vi)

    parametrov používaných na nastavenie modelu a opatrení prijatých na zabránenie tomu, aby mal model priveľa alebo primálo parametrov (overfitting/underfitting);

    c)

    prípadné zmeny vysokorizikového systému umelej inteligencie a jeho výkonnosti, ktoré v čase počiatočného posudzovania zhody vopred určil poskytovateľ;

    c)

    prípadné zmeny vysokorizikového systému umelej inteligencie a jeho výkonnosti, ktoré v čase počiatočného posudzovania zhody vopred určil poskytovateľ;

    d)

    opatrenia na zabezpečenie ľudského dohľadu uvedené v článku 14 vrátane technických opatrení zavedených na uľahčenie výkladu výstupov systémov umelej inteligencie používateľmi;

    d)

    opatrenia na zabezpečenie ľudského dohľadu uvedené v článku 14 vrátane technických opatrení zavedených na uľahčenie výkladu výstupov systémov umelej inteligencie používateľmi;

    e)

    očakávaná životnosť vysokorizikového systému umelej inteligencie a všetky potrebné opatrenia na údržbu a starostlivosť, ktorými sa má zabezpečiť riadne fungovanie tohto systému umelej inteligencie, a to aj pokiaľ ide o aktualizácie softvéru.

    e)

    očakávaná životnosť vysokorizikového systému umelej inteligencie a všetky potrebné opatrenia na údržbu a starostlivosť, ktorými sa má zabezpečiť riadne fungovanie tohto systému umelej inteligencie, a to aj pokiaľ ide o aktualizácie softvéru.

     

    Článok 13b – Transparentnosť a poskytovanie informácií dotknutým osobám

    Osoby alebo skupiny osôb, pre ktoré sa má použiť vysokorizikový systém umelej inteligencie, musia byť o takomto použití informované vhodným, ľahko prístupným a zrozumiteľným spôsobom a musia mať prístup k výslovným, ľahko prístupným a verejne dostupným informáciám.

    Zdôvodnenie

    Na posilnenie ekosystému dôvery by sa návod na používanie vysokorizikových systémov umelej inteligencie mal voľne sprístupniť verejnosti. Návod musí byť napísaný v jazyku zrozumiteľnom čitateľovi tej krajiny, v ktorej sa systém umelej inteligencie použije.

    V súvislosti s transparentnosťou a výkladom algoritmov musí byť možné vysvetliť, s akými parametrami bol model nastavený a aké opatrenia sa prijali na zabránenie tomu, aby mal model priveľa alebo primálo parametrov.

    V článku 13b sa upravujú povinnosti týkajúce sa transparentnosti a informovania osôb, ktoré sú v interakcii so systémom umelej inteligencie alebo by ním mohli byť ovplyvnené.

    Pozmeňovací návrh 20

    Článok 14 ods. 4

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Opatrenia uvedené v odseku 3 musia osobám, ktorým je zverený ľudský dohľad, umožniť, aby podľa okolností:

    Opatrenia uvedené v odseku 3 musia osobám, ktorým je zverený ľudský dohľad, umožniť, aby podľa okolností:

    a)

    plne pochopili kapacity a obmedzenia vysokorizikového systému umelej inteligencie a boli schopné riadne monitorovať jeho prevádzku tak, aby bolo možné čo najskôr odhaliť a odstrániť príznaky anomálií, porúch a neočakávaného správania systému;

    a)

    plne pochopili kapacity a obmedzenia vysokorizikového systému umelej inteligencie a boli schopné riadne monitorovať jeho prevádzku tak, aby bolo možné čo najskôr odhaliť a odstrániť príznaky anomálií, porúch a neočakávaného správania systému;

    b)

    si boli neustále vedomé možnej tendencie automatického spoliehania sa alebo nadmerného spoliehania sa na výstupy vytvorené vysokorizikovým systémom umelej inteligencie („automatizačné skreslenie“), a to najmä v prípade vysokorizikových systémov umelej inteligencie používaných na poskytovanie informácií alebo odporúčaní pre rozhodnutia, ktoré majú prijať fyzické osoby;

    b)

    si boli neustále vedomé možnej tendencie automatického spoliehania sa alebo nadmerného spoliehania sa na výstupy vytvorené vysokorizikovým systémom umelej inteligencie („automatizačné skreslenie“) alebo niektorých iných foriem skreslenia , a to najmä v prípade vysokorizikových systémov umelej inteligencie používaných na poskytovanie informácií alebo odporúčaní pre rozhodnutia, ktoré majú prijať fyzické osoby;

    c)

    boli schopné správne interpretovať výstupy vysokorizikového systému umelej inteligencie, najmä s prihliadnutím na charakteristiky systému a dostupné interpretačné nástroje a metódy;

    c)

    boli schopné správne interpretovať výstupy vysokorizikového systému umelej inteligencie, najmä s prihliadnutím na charakteristiky systému a dostupné interpretačné nástroje a metódy;

    d)

    boli schopné v akejkoľvek konkrétnej situácii rozhodnúť, že sa vysokorizikový systém umelej inteligencie nebude používať alebo sa výstup vysokorizikového systému umelej inteligencie inak nezohľadní, potlačí alebo zvráti;

    d)

    boli schopné v akejkoľvek konkrétnej situácii rozhodnúť, že sa vysokorizikový systém umelej inteligencie nebude používať alebo sa výstup vysokorizikového systému umelej inteligencie inak nezohľadní, potlačí alebo zvráti;

    e)

    boli schopné zasiahnuť do prevádzky vysokorizikového systému umelej inteligencie alebo ho prerušiť tlačidlom zastavenia alebo podobným postupom.

    e)

    boli schopné zasiahnuť do prevádzky vysokorizikového systému umelej inteligencie alebo ho prerušiť tlačidlom zastavenia alebo podobným postupom.

    Zdôvodnenie

    Existuje viacero foriem skreslenia, ktoré môžu byť problematické. Príkladom môže byť skreslenie spôsobené zaujatosťou pôvodcu alebo používateľa systému umelej inteligencie (sociálne skreslenie) alebo zaujatým posudzovaním, či použitý systém umelej inteligencie je primeraným riešením problému (technické skreslenie), a štatistické formy skreslenia.

    Pozmeňovací návrh 21

    Článok 14, nový odsek za ods. 5

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

     

    Každé rozhodnutie prijaté systémami umelej inteligencie v zmysle prílohy III bod 5 písm. a) a b) musí podliehať ľudskému zásahu a byť založené na starostlivom rozhodovacom procese. V súvislosti s týmito rozhodnutiami sa musí zaručiť ľudský kontakt.

    Zdôvodnenie

    Článok 14 je venovaný len ľudskému dohľadu nad vysokorizikovými systémami umelej inteligencie. V prípade rozhodnutí orgánov verejnej moci je dôležité zdôrazniť, že je zaručený ľudský zásah, kontakt a riadny proces.

    Pozmeňovací návrh 22

    Článok 17 ods. 1, nové písmená za písmenom m)

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Poskytovatelia vysokorizikových systémov umelej inteligencie zavedú systém riadenia kvality, ktorým sa zabezpečí súlad s týmto nariadením. Tento systém sa systematicky a usporiadane zdokumentuje vo forme písomných zásad, postupov a pokynov a musí zahŕňať aspoň tieto aspekty:

    Poskytovatelia vysokorizikových systémov umelej inteligencie zavedú systém riadenia kvality, ktorým sa zabezpečí súlad s týmto nariadením. Tento systém sa systematicky a usporiadane zdokumentuje vo forme písomných zásad, postupov a pokynov a musí zahŕňať aspoň tieto aspekty:

    a)

    stratégiu dodržiavania regulačných požiadaviek vrátane dodržiavania postupov posudzovania zhody a postupov riadenia zmien vysokorizikového systému umelej inteligencie;

    a)

    stratégiu dodržiavania regulačných požiadaviek vrátane dodržiavania postupov posudzovania zhody a postupov riadenia zmien vysokorizikového systému umelej inteligencie;

    b)

    techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri koncipovaní vysokorizikového systému umelej inteligencie, kontrole jeho koncepcie a jej overovaní;

    b)

    techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri koncipovaní vysokorizikového systému umelej inteligencie, kontrole jeho koncepcie a jej overovaní;

    c)

    techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri vývoji vysokorizikového systému umelej inteligencie a pri kontrole a zabezpečení jeho kvality;

    c)

    techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri vývoji vysokorizikového systému umelej inteligencie a pri kontrole a zabezpečení jeho kvality;

    d)

    postupy preskúmania, testovania a validácie, ktoré sa majú vykonávať pred vývojom vysokorizikového systému umelej inteligencie, počas neho a po ňom, a častosť, s akou sa musia vykonávať;

    d)

    postupy preskúmania, testovania a validácie, ktoré sa majú vykonávať pred vývojom vysokorizikového systému umelej inteligencie, počas neho a po ňom, a častosť, s akou sa musia vykonávať;

    e)

    technické špecifikácie vrátane noriem, ktoré sa majú uplatňovať, a v prípade, že sa príslušné harmonizované normy neuplatňujú v plnom rozsahu, prostriedky, ktoré sa majú použiť na zabezpečenie toho, aby vysokorizikový systém umelej inteligencie spĺňal požiadavky stanovené v kapitole 2 tejto hlavy;

    e)

    technické špecifikácie vrátane noriem, ktoré sa majú uplatňovať, a v prípade, že sa príslušné harmonizované normy neuplatňujú v plnom rozsahu, prostriedky, ktoré sa majú použiť na zabezpečenie toho, aby vysokorizikový systém umelej inteligencie spĺňal požiadavky stanovené v kapitole 2 tejto hlavy;

    f)

    systémy a postupy správy údajov vrátane zberu údajov, ich analýzy, označovania, ukladania, filtrovania, hĺbkovej analýzy, agregácie, uchovávania a všetkých ďalších operácií týkajúcich sa údajov, ktoré sa vykonávajú pred uvedením vysokorizikových systémov umelej inteligencie na trh alebo do prevádzky a na účely ich uvedenia na trh alebo do prevádzky;

    f)

    systémy a postupy správy údajov vrátane zberu údajov, ich analýzy, označovania, ukladania, filtrovania, hĺbkovej analýzy, agregácie, uchovávania a všetkých ďalších operácií týkajúcich sa údajov, ktoré sa vykonávajú pred uvedením vysokorizikových systémov umelej inteligencie na trh alebo do prevádzky a na účely ich uvedenia na trh alebo do prevádzky;

    g)

    systém riadenia rizík uvedený v článku 9;

    g)

    systém riadenia rizík uvedený v článku 9;

    h)

    vytvorenie, zavedenie a vedenie systému monitorovania po uvedení na trh v súlade s článkom 61;

    h)

    vytvorenie, zavedenie a vedenie systému monitorovania po uvedení na trh v súlade s článkom 61;

    i)

    postupy týkajúce sa podávania správ o závažných incidentoch a poruchách v súlade s článkom 62;

    i)

    postupy týkajúce sa podávania správ o závažných incidentoch a poruchách v súlade s článkom 62;

    j)

    vybavovanie komunikácie s príslušnými vnútroštátnymi orgánmi, príslušnými orgánmi vrátane odvetvových orgánov, ktoré poskytujú alebo podporujú prístup k údajom, s notifikovanými osobami, inými prevádzkovateľmi, zákazníkmi alebo inými zainteresovanými stranami;

    j)

    vybavovanie komunikácie s príslušnými vnútroštátnymi orgánmi, príslušnými orgánmi vrátane odvetvových orgánov, ktoré poskytujú alebo podporujú prístup k údajom, s notifikovanými osobami, inými prevádzkovateľmi, zákazníkmi alebo inými zainteresovanými stranami;

    k)

    systémy a postupy vedenia záznamov o všetkých príslušných dokumentoch a informáciách;

    k)

    systémy a postupy vedenia záznamov o všetkých príslušných dokumentoch a informáciách;

    l)

    riadenie zdrojov vrátane opatrení týkajúcich sa bezpečnosti dodávok;

    l)

    riadenie zdrojov vrátane opatrení týkajúcich sa bezpečnosti dodávok;

    m)

    rámec zodpovednosti, v ktorom sa stanovia povinnosti manažmentu a ostatných zamestnancov, pokiaľ ide o všetky aspekty uvedené v tomto odseku.

    m)

    rámec zodpovednosti, v ktorom sa stanovia povinnosti manažmentu a ostatných zamestnancov, pokiaľ ide o všetky aspekty uvedené v tomto odseku;

     

    n)

    opatrenia na predchádzanie neoprávnenej diskriminácii na základe pohlavia, etnického pôvodu, vierovyznania alebo presvedčenia, zdravotného postihnutia, veku, sexuálnej orientácie alebo diskriminácii na akomkoľvek inom základe;

    o)

    vysvetlenie toho, ako sa pri navrhovaní vysokorizikového systému umelej inteligencie zohľadnili konkrétne etické hodnoty.

    Zdôvodnenie

    Doplnením sa zdôrazní, že inkluzívnosť a boj proti neoprávnenej diskriminácii by mali byť dôležitými prvkami systému kvality.

    Systém musí byť v súlade s etickými hodnotami, ktoré chce používateľ systému umelej inteligencie stanoviť alebo pri ktorých môže poskytovateľ odôvodnene očakávať, že im vysokorizikový systém umelej inteligencie má zodpovedať. Poskytovateľ musí byť schopný vysvetliť, ako ich zohľadnil.

    Pozmeňovací návrh 23

    Článok 19 ods. 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Poskytovatelia vysokorizikových systémov umelej inteligencie musia zabezpečiť, aby sa ich systémy pred uvedením na trh alebo do prevádzky podrobili príslušnému postupu posudzovania zhody v súlade s článkom 43. Ak sa po tomto posúdení zhody preukáže súlad systémov umelej inteligencie s požiadavkami stanovenými v kapitole 2 tejto hlavy, poskytovatelia vypracujú EÚ vyhlásenie o zhode v súlade s článkom 48 a umiestnia označenie zhody CE v súlade s článkom 49.

    Poskytovatelia vysokorizikových systémov umelej inteligencie musia zabezpečiť, aby sa ich systémy pred uvedením na trh alebo do prevádzky podrobili príslušnému postupu posudzovania zhody v súlade s článkom 43. Ak sa po tomto posúdení zhody preukáže súlad systémov umelej inteligencie s požiadavkami stanovenými v kapitole 2 tejto hlavy, poskytovatelia vypracujú EÚ vyhlásenie o zhode v súlade s článkom 48 a umiestnia označenie zhody CE v súlade s článkom 49. Poskytovateľ vysokorizikových systémov umelej inteligencie zverejní EÚ vyhlásenie o zhode a súhrn posudzovania zhody na verejne prístupnom mieste.

    Zdôvodnenie

    Na posilnenie dôvery v systémy umelej inteligencie musia poskytovatelia vysokorizikových systémov umelej inteligencie zabezpečiť otvorenosť. Verejnosť preto musí mať možnosť kontrolovať, či bolo posudzovanie zhody vykonané správne a v súlade s pravidlami nariadenia.

    Pozmeňovací návrh 24

    Článok 29, nový odsek po odseku 6

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

     

    Používatelia vysokorizikových systémov umelej inteligencie musia pred ich uvedením do prevádzky zvážiť etické aspekty ich používania. Musia byť schopní objasniť možné účinky používania tejto technológie na ľudí a spoločnosť. Spresnia svoj zamýšľaný účel používania systému umelej inteligencie, všeobecné hodnoty a spôsob, akým tieto hodnoty zvážili, a či ich do systému zapracovali. Zhodnotia skutočný vplyv systému umelej inteligencie na ľudí a spoločnosť počas celej jeho životnosti.

    Zdôvodnenie

    Etika je široký pojem. Jestvuje veľa spôsobov uplatňovania etiky vo vzťahu k technológiám, a to z hľadiska teoretických odôvodnení, ako aj konkrétnych metodík, nástrojov a koncepčných hodnôt. Hodnoty sú vecou, ktorú niektorí ľudia (resp. skupiny ľudí) považujú za dôležitú. Môžu mať konkrétnu alebo koncepčnejšiu povahu. Je dôležité ich podľa možnosti implementovať, morálne hodnoty prezentovať otvorene a pokračovať v posudzovaní životného cyklu systému umelej inteligencie.

    Pozmeňovací návrh 25

    Článok 52 ods. 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Poskytovatelia zabezpečia, aby systémy umelej inteligencie určené na interakciu s fyzickými osobami boli koncipované a vyvinuté tak, aby boli fyzické osoby informované o tom, že komunikujú so systémom umelej inteligencie , pokiaľ to nie je zrejmé z okolností a kontextu používania . Táto povinnosť sa nevzťahuje na systémy umelej inteligencie, ktoré sa podľa zákona môžu používať na odhaľovanie, prevenciu, vyšetrovanie a stíhanie trestných činov, pokiaľ tieto systémy nie sú sprístupnené verejnosti na oznamovanie trestných činov.

    Poskytovatelia zabezpečia, aby systémy umelej inteligencie určené na interakciu s fyzickými osobami boli koncipované a vyvinuté tak, aby boli fyzické osoby informované o tom, že komunikujú so systémom umelej inteligencie. Táto povinnosť sa nevzťahuje na systémy umelej inteligencie, ktoré sa podľa zákona môžu používať na odhaľovanie, prevenciu, vyšetrovanie a stíhanie trestných činov, pokiaľ tieto systémy nie sú sprístupnené verejnosti na oznamovanie trestných činov. Táto interakcia nesmie obmedzovať rozsah možností ani právne postavenie fyzických osôb, ktoré sú v interakcii so systémami umelej inteligencie.

    Zdôvodnenie

    Ak sa technologické artefakty používajú ako prostriedok na interakciu s fyzickými osobami, môže vzniknúť riziko obmedzenia voľby fyzických osôb, ktoré sú v interakcii s týmito artefaktmi. Fyzické osoby musia byť náležite informované vždy, keď sa stretnú so systémami umelej inteligencie a to by nemalo podliehať výkladu danej situácie. Ich práva musia byť pri interakcii so systémami umelej inteligencie vždy zaručené.

    Pozmeňovací návrh 26

    Článok 57 ods. 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Rada pre umelú inteligenciu pozostáva z vnútroštátnych dozorných orgánov, ktoré sú zastúpené vedúcimi alebo rovnocennými vysokopostavenými úradníkmi týchto orgánov, a z európskeho dozorného úradníka pre ochranu údajov. Na zasadnutia môžu byť prizvané iné vnútroštátne orgány, ak sú pre ne prerokúvané otázky relevantné.

    Rada pre umelú inteligenciu pozostáva z vnútroštátnych dozorných orgánov, ktoré sú zastúpené vedúcimi alebo rovnocennými vysokopostavenými úradníkmi týchto orgánov, a z európskeho dozorného úradníka pre ochranu údajov. Na zasadnutia môžu byť prizvané iné národné orgány a regionálne a miestne samosprávy , ak sú pre ne prerokúvané otázky relevantné.

    Zdôvodnenie

    Miestne a regionálne samosprávy musia mať možnosť zúčastňovať sa na dohľade nad systémami umelej inteligencie a podávať správy o jeho praktickom vykonávaní.

    Pozmeňovací návrh 27

    Článok 58

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Pri poskytovaní poradenstva a pomoci Komisii v kontexte článku 56 ods. 2 plní rada pre umelú inteligenciu najmä tieto úlohy:

    Pri poskytovaní poradenstva a pomoci Komisii v kontexte článku 56 ods. 2 plní rada pre umelú inteligenciu najmä tieto úlohy:

    a)

    zhromažďovanie a výmena odborných znalostí a najlepších postupov medzi členskými štátmi;

    a)

    zhromažďovanie a výmena odborných znalostí a najlepších postupov medzi členskými štátmi , regionálnymi a miestnymi samosprávami ;

    b)

    prispievanie k jednotným administratívnym postupom v členských štátoch, a to aj pokiaľ ide o fungovanie regulačných prostredí uvedených v článku 53;

    b)

    prispievanie k jednotným administratívnym postupom v členských štátoch, a to aj pokiaľ ide o fungovanie regulačných prostredí uvedených v článku 53;

    c)

    vydávanie stanovísk, odporúčaní alebo písomných príspevkov k otázkam týkajúcim sa vykonávania tohto nariadenia, najmä

    c)

    vydávanie stanovísk, odporúčaní alebo písomných príspevkov k otázkam týkajúcim sa vykonávania tohto nariadenia, najmä

     

    i)

    k technickým špecifikáciám alebo existujúcim normám v súvislosti s požiadavkami stanovenými v hlave III kapitole 2;

    ii)

    k používaniu harmonizovaných noriem alebo spoločných špecifikácií uvedených v článkoch 40 a 41;

    iii)

    k vypracovaniu usmerňujúcich dokumentov vrátane usmernení týkajúcich sa stanovovania správnych pokút uvedených v článku 71.

     

    i)

    k technickým špecifikáciám alebo existujúcim normám v súvislosti s požiadavkami stanovenými v hlave III kapitole 2;

    ii)

    k používaniu harmonizovaných noriem alebo spoločných špecifikácií uvedených v článkoch 40 a 41;

    iii)

    k vypracovaniu usmerňujúcich dokumentov vrátane usmernení týkajúcich sa stanovovania správnych pokút uvedených v článku 71.

    Zdôvodnenie

    Miestne a regionálne samosprávy sú najbližšie k miestnym obyvateľom a hospodárstvam. V súvislosti s výmenou ich poznatkov musia mať jednoznačné postavenie.

    Pozmeňovací návrh 28

    Článok 59 ods. 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Na účely zabezpečenia uplatňovania a vykonávania tohto nariadenia každý členský štát zriadi alebo určí príslušné vnútroštátne orgány. Príslušné vnútroštátne orgány majú takú organizačnú štruktúru, aby zabezpečili objektivitu a nestrannosť vykonávania svojich činností a úloh.

    Na účely zabezpečenia uplatňovania a vykonávania tohto nariadenia každý členský štát zriadi alebo určí príslušné vnútroštátne orgány. Príslušné vnútroštátne orgány majú takú organizačnú štruktúru, aby zabezpečili objektivitu a nestrannosť vykonávania svojich činností a úloh. Ak to členský štát považuje za vhodné, úlohy v oblasti dohľadu alebo presadzovania môžu vykonávať miestne a regionálne samosprávy.

    Zdôvodnenie

    Aby sa zabezpečila vykonateľnosť nariadenia a stanoveného rámca dohľadu a presadzovania, musí mať členský štát možnosť poveriť miestne a regionálne orgány územnej samosprávy dohľadom alebo presadzovaním, a to v prípade potreby a tam, kde je to možné. V tejto súvislosti sa musí miestnym a regionálnym samosprávam poskytnúť podpora a odborná príprava, aby mohli v plnej miere vykonávať úlohy v oblasti dohľadu alebo presadzovania.

    Pozmeňovací návrh 29

    Článok 69 ods. 3

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Kódexy správania môžu vypracovať jednotliví poskytovatelia systémov umelej inteligencie alebo organizácie, ktoré ich zastupujú, alebo obaja, a to aj v spolupráci s používateľmi a akýmikoľvek zainteresovanými stranami a organizáciami, ktoré ich zastupujú. Kódexy správania sa môžu vzťahovať na jeden alebo viacero systémov umelej inteligencie, pričom sa zohľadní podobnosť zamýšľaného účelu príslušných systémov.

    Kódexy správania môžu vypracovať národné orgány, regionálne alebo miestne samosprávy , jednotliví poskytovatelia systémov umelej inteligencie alebo organizácie, ktoré ich zastupujú, alebo obaja, a to aj v spolupráci s používateľmi a akýmikoľvek zainteresovanými stranami a organizáciami, ktoré ich zastupujú. Kódexy správania sa môžu vzťahovať na jeden alebo viacero systémov umelej inteligencie, pričom sa zohľadní podobnosť zamýšľaného účelu príslušných systémov.

    Zdôvodnenie

    Národné orgány a miestne a regionálne samosprávy by mali mať právomoc vypracovať kódexy správania pre systémy umelej inteligencie, ktoré vyvíjajú alebo používajú.

    Pozmeňovací návrh 30

    PRÍLOHA I – Techniky a prístupy umelej inteligencie uvedené v článku 3 bode 1

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

     

    S prihliadnutím na súčasný stav vedy zahŕňa umelá inteligencia tieto techniky a metódy:

    a)

    prístupy strojového učenia vrátane učenia s učiteľom, bez učiteľa a učenia posilňovaním pomocou širokého spektra metód vrátane hĺbkového učenia;

    a)

    prístupy strojového učenia vrátane učenia s učiteľom, bez učiteľa a učenia posilňovaním pomocou širokého spektra metód vrátane hĺbkového učenia;

    b)

    prístupy založené na logike a poznatkoch vrátane reprezentácie poznatkov, induktívneho (logického) programovania, vedomostných základní, inferenčných a deduktívnych mechanizmov, (symbolického) uvažovania a expertných systémov;

    b)

    prístupy založené na logike a poznatkoch vrátane reprezentácie poznatkov, induktívneho (logického) programovania, vedomostných základní, inferenčných a deduktívnych mechanizmov, (symbolického) uvažovania a expertných systémov;

    c)

    štatistické prístupy, bayesovský odhad, metódy vyhľadávania a optimalizácie.

    c)

    štatistické prístupy, bayesovský odhad, metódy vyhľadávania a optimalizácie;

    Zdôvodnenie

    Vymedzenie a zoznam techník umelej inteligencie majú byť nadčasové. Zoznam špecifických techník a prístupov používaných pri vývoji systémov umelej inteligencie by nemal byť vyčerpávajúcim zoznamom a musí byť jasné, že vychádza zo súčasného stavu vedeckých poznatkov.

    Pozmeňovací návrh 31

    Príloha III body 1 až 5

    Text navrhnutý Európskou komisiou

    Zmena navrhnutá VR

    Vysokorizikové systémy umelej inteligencie podľa článku 6 ods. 2 sú systémy umelej inteligencie uvedené v ktorejkoľvek z týchto oblastí:

    Vysokorizikové systémy umelej inteligencie podľa článku 6 ods. 2 sú systémy umelej inteligencie uvedené v ktorejkoľvek z týchto oblastí:

    1.

    Biometrická identifikácia a kategorizácia fyzických osôb:

    1.

    Biometrická identifikácia a kategorizácia fyzických osôb:

    a)

    systémy umelej inteligencie určené na používanie na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ a „následne“.

    a)

    systémy umelej inteligencie určené na používanie na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ a „následne“.

    2.

    Riadenie a prevádzka kritickej infraštruktúry:

    2.

    Riadenie a prevádzka kritickej infraštruktúry:

    a)

    systémy umelej inteligencie, ktoré sa majú používať ako bezpečnostné komponenty pri riadení a prevádzke cestnej premávky a pri dodávkach vody, plynu, tepla a elektriny.

    a)

    systémy umelej inteligencie, ktoré sa majú používať ako bezpečnostné komponenty pri riadení a prevádzke cestnej premávky a pri dodávkach vody, plynu, tepla a elektriny a v telekomunikačnej, vodohospodárskej a internetovej infraštruktúre ;

    3.

    Vzdelávanie a odborná príprava:

    3.

    Vzdelávanie a odborná príprava:

    a)

    systémy umelej inteligencie, ktoré sa majú používať na určovanie prístupu fyzických osôb do inštitúcií vzdelávania a odbornej prípravy alebo na ich priradenie k týmto inštitúciám;

    a)

    systémy umelej inteligencie, ktoré sa majú používať na určovanie prístupu fyzických osôb do inštitúcií vzdelávania a odbornej prípravy alebo na ich priradenie k týmto inštitúciám;

    b)

    systémy umelej inteligencie, ktoré sa majú používať na hodnotenie študentov vo vzdelávacích inštitúciách a inštitúciách odbornej prípravy a na hodnotenie účastníkov skúšok, ktoré sa bežne vyžadujú na prijatie do vzdelávacích inštitúcií.

    b)

    systémy umelej inteligencie, ktoré sa majú používať na hodnotenie študentov vo vzdelávacích inštitúciách a inštitúciách odbornej prípravy a na hodnotenie účastníkov skúšok, ktoré sa bežne vyžadujú na prijatie do vzdelávacích inštitúcií.

    4.

    Zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti:

    4.

    Zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti:

    a)

    systémy umelej inteligencie určené na nábor alebo výber fyzických osôb, najmä na inzerovanie voľných pracovných miest, preverovanie alebo filtrovanie žiadostí, hodnotenie uchádzačov počas pohovorov alebo skúšok;

    a)

    systémy umelej inteligencie určené na nábor alebo výber fyzických osôb, najmä na inzerovanie voľných pracovných miest, preverovanie alebo filtrovanie žiadostí, hodnotenie uchádzačov počas pohovorov alebo skúšok;

    b)

    systémy umelej inteligencie, ktoré sa majú používať pri rozhodovaní o postupe v zamestnaní a ukončení zmluvných pracovných vzťahov, pri prideľovaní úloh a monitorovaní a hodnotení výkonnosti a správania osôb v rámci takýchto vzťahov.

    b)

    systémy umelej inteligencie, ktoré sa majú používať pri rozhodovaní o postupe v zamestnaní a ukončení zmluvných pracovných vzťahov, pri prideľovaní úloh a monitorovaní a hodnotení výkonnosti a správania osôb v rámci takýchto vzťahov.

    5.

    Prístup k základným súkromným a verejným službám a dávkam a ich využívanie:

    5.

    Prístup k základným súkromným a verejným službám a dávkam a ich využívanie:

    a)

    systémy umelej inteligencie, ktoré sa majú používať orgánmi verejnej moci alebo v ich mene na hodnotenie oprávnenosti fyzických osôb na dávky a služby verejnej pomoci, ako aj na poskytovanie, zníženie či zrušenie takýchto dávok a služieb alebo na žiadosti o ich vrátenie;

    a)

    systémy umelej inteligencie, ktoré sa majú používať orgánmi verejnej moci alebo v ich mene na hodnotenie a rozhodnutie o oprávnenosti fyzických osôb na dávky a služby verejnej pomoci, ako aj na poskytovanie, zníženie či zrušenie takýchto dávok a služieb alebo na žiadosti o ich vrátenie;

    b)

    systémy umelej inteligencie, ktoré sa majú používať na hodnotenie úverovej bonity fyzických osôb alebo stanovenie ich bodového hodnotenia kreditného rizika, s výnimkou systémov umelej inteligencie prevádzkovaných malými poskytovateľmi na vlastnú potrebu;

    b)

    systémy umelej inteligencie, ktoré sa majú používať na určenie úverovej bonity fyzických osôb alebo ich bodového hodnotenia kreditného rizika, s výnimkou systémov umelej inteligencie prevádzkovaných malými poskytovateľmi na vlastnú potrebu;

    c)

    systémy umelej inteligencie určené na vysielanie záchranných služieb prvej reakcie vrátane hasičov a zdravotníckej pomoci alebo na stanovovanie priority ich vysielania.

    c)

    systémy umelej inteligencie určené na vysielanie záchranných služieb prvej reakcie vrátane hasičov a zdravotníckej pomoci alebo na stanovovanie priority ich vysielania.

    Zdôvodnenie

    Telekomunikačná, vodohospodárska a internetová infraštruktúra sú neoddeliteľnou súčasťou kritickej infraštruktúry.

    Pri kvalifikovaní vysokorizikových systémov ide o to, či by takéto systémy mohli pre občanov predstavovať skutočné riziko. Výlučne analytické a teoretické posúdenie nárokov obyvateľov na verejné služby ešte nepredstavuje veľké riziko. Doplnením slova „hodnotenie“ k slovám „rozhodnutie o“ sa zdôrazňuje, že toto riziko sa v rozhodovaní účinne odráža, najmä pokiaľ ide o obyvateľov.

    II.   POLITICKÉ ODPORÚČANIA

    EURÓPSKY VÝBOR REGIÓNOV

    Ekosystém excelentnosti

    1.

    zdôrazňuje, že ambíciu Komisie urobiť z EÚ svetového lídra v oblasti zodpovedného rozvoja umelej inteligencie sústredeného na človeka možno naplniť len vtedy, ak sa miestnym a regionálnym samosprávam prizná dôležitá úloha. Orgány územnej samosprávy majú najlepšie predpoklady na to, aby prispeli k vytvoreniu vhodného prostredia na podporu zvýšenia investícií do umelej inteligencie v nadchádzajúcich rokoch a posilnenie dôvery v umelú inteligenciu.

    2.

    Zdôrazňuje, že okrem zapojenia miestnych a regionálnych samospráv je dôležité poskytovať im podporu a odbornú prípravu s cieľom posilniť ich spôsobilosti v tejto oblasti, najmä preto, že môžu plniť úlohy v oblasti dohľadu a presadzovania.

    3.

    Konštatuje, že na rozvoj umelej inteligencie budú k dispozícii finančné prostriedky EÚ, ale poukazuje na roztrieštený prístup k tomuto rozvoju v dôsledku rozmanitosti programov, čo zväčšuje riziko fragmentácie a prekrývania.

    4.

    Vyzýva preto Komisiu, aby vytvorila a prepojila odolné a pluralistické spoločné dátové priestory, ktoré vyriešia prípady spoločenského používania s využitím verejných a súkromných údajov. Vyžaduje si to aj zosúladenie s legislatívnymi iniciatívami v rámci Európskej dátovej stratégie.

    Ekosystém dôvery

    5.

    Vyjadruje poľutovanie nad tým, že v návrhu nariadenia chýba odkaz na miestne a regionálne samosprávy, hoci právny rámec sa vzťahuje na verejné aj súkromné subjekty.

    6.

    Konštatuje v tejto súvislosti, že systémy umelej inteligencie môžu byť významnou pomocou pri interakcii miestnych a regionálnych samospráv s občanmi a pri poskytovaní služieb. Systémy umelej inteligencie môžu okrem iného zvýšiť efektívnosť verejného sektora a pomôcť miestnym a regionálnym samosprávam reagovať na úpravy, ktoré treba prijať na miestnej a regionálnej úrovni v súvislosti s ekologickou a digitálnou transformáciou. Je preto dôležité, aby sa skúsenosti miestnych a regionálnych samospráv aktívne zohľadnili pri prebiehajúcej revízii nariadenia.

    7.

    Dôrazne žiada ďalšie objasnenie vymedzení pojmov „poskytovateľ“ a „používateľ“, najmä v situáciách, keď podniky, výskumné ústavy, verejné orgány a obyvatelia spoločne vyvíjajú a testujú systémy umelej inteligencie v živých laboratóriách. Náležitá pozornosť by sa mala venovať aj občanom alebo spotrebiteľom, na ktorých vplývajú rozhodnutia systémov používaných profesionálnymi používateľmi založené na umelej inteligencii.

    8.

    Poukazuje na potrebu predchádzajúcej konzultácie so zainteresovanými miestnymi a regionálnymi samosprávami v prípade používania systémov umelej inteligencie na diaľkovú biometrickú identifikáciu fyzických osôb v reálnom čase vo verejne prístupných priestoroch na presadzovanie práva.

    9.

    Víta verejnú konzultáciu Európskej komisie o prispôsobení pravidiel občianskoprávnej zodpovednosti osobitným výzvam digitálneho veku a umelej inteligencie (1) a očakáva, že to povedie k aktualizovanému rámcu zameranému na zabezpečenie odškodnenia spotrebiteľov za škody spôsobené aplikáciami umelej inteligencie.

    10.

    Kladie si otázku, prečo systémy umelej inteligencie používané v demokratických procesoch, napríklad vo voľbách, nie sú na zozname vysokorizikových systémov umelej inteligencie.

    11.

    Dôrazne žiada, aby vysokorizikové systémy umelej inteligencie podliehali rovnakým požiadavkám na transparentnosť a informovanie pre fyzické osoby, ako je tomu v súčasnosti v prípade používateľov.

    12.

    Poukazuje na veľké riziko a dôsledky v oblasti ľudských práv súvisiace s používaním sociálnych klasifikácií.

    13.

    V tejto súvislosti je veľmi skeptický, pokiaľ ide o dva dôvody uvedené v nariadení (2), ktorými sa má určiť, kedy sociálna klasifikácia vedie k škodlivému alebo nepriaznivému zaobchádzaniu s jednotlivcami alebo skupinami osôb, keďže je mimoriadne ťažké preukázať existenciu takýchto dôvodov. Zároveň naliehavo žiada jasné vymedzenie dôsledných záruk s cieľom zabezpečiť, aby sa neobchádzal zákaz praktík sociálnej klasifikácie.

    14.

    Konštatuje, že v odôvodneniach nariadenia sa uvádzajú riziká, ktorým sú jednotlivci vystavení v dôsledku ich interakcie s vysokorizikovými systémami umelej inteligencie okrem iného v súvislosti so vzdelávaním, odbornou prípravou, zamestnanosťou, riadením ľudských zdrojov, prístupom k samostatnej zárobkovej činnosti alebo určitým základným súkromným a verejným službám a ich využívaním.

    15.

    Vyzýva Komisiu, aby ďalej skúmala kvalifikáciu vysokej rizikovosti systémov umelej inteligencie určených na používanie orgánmi verejnej moci (3).

    16.

    Žiada zriadiť orgán, ktorý by ex ante poskytoval dôležité poradenstvo týkajúce sa výkladu ustanovení nariadenia, a to aj v súvislosti so všeobecným nariadením o ochrane údajov. Posilní sa tým právna istota a znížia náklady na navrhovanie a zavádzanie systémov umelej inteligencie.

    17.

    V tejto súvislosti zdôrazňuje význam jasnosti pri formulovaní nariadenia, ktoré má zásadný význam pre budovanie ekosystému dôvery a odstránenie právnej neistoty týkajúcej sa vývoja a používania systémov umelej inteligencie. Tým by sa predišlo nesprávnemu výkladu navrhovaných požiadaviek a zmenšilo by sa riziko následného nesprávneho riadenia aplikácií umelej inteligencie, čím by sa maximalizovala účinnosť a dôveryhodnosť nariadenia, pokiaľ ide o sankcie. V súlade s programom lepšej právnej regulácie Európskej komisie má zároveň kľúčový význam včasné odhalenie a odstránenie možných prekrývaní a/alebo rozporov s existujúcimi pravidlami.

    18.

    Konštatuje, že mnohé miestne a regionálne samosprávy používajú na porovnateľné úlohy tie isté systémy umelej inteligencie. Vo veľkej väčšine prípadov tieto systémy navrhujú súkromné spoločnosti.

    19.

    Poukazuje na to, že návrh nariadenia nie je izolovaný, pokiaľ ide o zaručenie práv občanov, ale treba ho vnímať v spojení s existujúcimi právnymi predpismi. Členským štátom sa preto adresuje výzva, aby priebežne zabezpečovali administratívne opatrenia potrebné na zohľadnenie príležitostí a rizík spojených s používaním umelej inteligencie vo verejnom sektore.

    20.

    V súvislosti s tým poukazuje na to, že pri posudzovaní zhody podniky a notifikované osoby interpretujú európske a vnútroštátne predpisy, čo sa prejaví v praxi miestnych a regionálnych samospráv, ktoré tieto systémy umelej inteligencie využívajú. V dôsledku toho je ťažké určiť, do akej miery môžu miestne a regionálne politiky ovplyvniť tieto systémy umelej inteligencie. Výbor preto upozorňuje na osobitné potreby miestnych a regionálnych samospráv a na skutočnosť, že univerzálny prístup môže oslabiť účinnosť systémov umelej inteligencie pri uspokojovaní týchto potrieb. Okrem toho navrhuje, aby členské štáty boli oprávnené regulovať vysokorizikové systémy umelej inteligencie na základe zjavných a opodstatnených dôvodov verejného záujmu.

    21.

    V tejto súvislosti žiada, aby boli posúdenia zhody transparentné a dostupné verejnosti. Miestne a regionálne samosprávy musia mať možnosť zúčastňovať sa na dohľade nad systémami umelej inteligencie, podávať správy o jeho praktickom vykonávaní a formálne prispievať k hodnoteniu uplatňovania nariadenia, ktoré vypracúva Európska komisia.

    22.

    Zdôrazňuje, že na uplatňovanie regulačného rámca je potrebné vytvoriť primerané právne, metodické a etické podmienky, ktoré umožnia vývoj technológie a právnych predpisov a hodnotenie týchto predpisov. Zároveň sa musia stanoviť jasné kritériá sprístupnenia tohto regulačného rámca podnikateľom. Aby sa zabezpečilo, že spotrebiteľské organizácie budú môcť presadzovať ustanovenia aktu o umelej inteligencii, musia sa tieto ustanovenia začleniť do prílohy I smernice (EÚ) 2020/1828 o žalobách v zastúpení na ochranu kolektívnych záujmov spotrebiteľov.

    Informačné kampane

    23.

    Poukazuje na význam verejných kampaní, ktorých cieľom je informovať širokú verejnosť o existencii, užitočnosti, ako aj o potenciálnych rizikách systémov umelej inteligencie, a oboznámiť ju s nimi. Ďalej zdôrazňuje, že je naliehavo potrebné poskytnúť spotrebiteľom obsiahle informácie o umelej inteligencii a strojovo riadenom rozhodovaní. Žiada preto Európsku komisiu, aby na takéto kampane vyčlenila finančné prostriedky.

    Administratívna záťaž

    24.

    Vyjadruje znepokojenie nad možným administratívnym zaťažením, ktoré môže navrhované nariadenie spôsobiť. Administratívne zaťaženie môže malé a stredné podniky a miestne a regionálne samosprávy obmedzovať pri podpore inovácií a používania systémov umelej inteligencie (4).

    Proporcionalita a subsidiarita

    25.

    Domnieva sa, že návrh nariadenia je v súlade s požiadavkami zásad proporcionality a subsidiarity. Pridaná hodnota opatrení EÚ v tejto oblasti a vhodnosť právneho základu zvoleného Komisiou sú jasné a konzistentné. Posúdenie vplyvu obsahovalo samostatnú časť o subsidiarite. Okrem toho žiadny národný parlament nevydal do stanoveného termínu 2. septembra 2021 odôvodnené stanovisko, ktoré by sa týkalo porušenia zásady subsidiarity.

    V Bruseli 2. decembra 2021

    Predseda Európskeho výboru regiónov

    Apostolos TZITZIKOSTAS


    ([62])  Rámcové rozhodnutie Rady 2002/584/SVV z 13. júna 2002 o európskom zatykači a postupoch odovzdávania osôb medzi členskými štátmi (Ú. v. ES L 190, 18.7.2002, s. 1).

    ([62])  Rámcové rozhodnutie Rady 2002/584/SVV z 13. júna 2002 o európskom zatykači a postupoch odovzdávania osôb medzi členskými štátmi (Ú. v. ES L 190, 18.7.2002, s. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_sk

    (2)  Článok 5 ods. 1 písm. c).

    (3)  Príloha III bod 5 písm. a).

    (4)  V nedávnej štúdii vypracovanej s podporou Európskej komisie sa na základe primeraných predpokladov odhaduje, že získanie osvedčenia pre systém umelej inteligencie by mohlo stáť v priemere 16 800 – 23 000 EUR, čo zodpovedá približne 10 – 14 % nákladov na vývoj (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, s. 12).


    Top