Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020IP0275

    Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o okviru za etične vidike umetne inteligence, robotike in sorodne tehnologije (2020/2012(INL))

    UL C 404, 6.10.2021, p. 63–106 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    6.10.2021   

    SL

    Uradni list Evropske unije

    C 404/63


    P9_TA(2020)0275

    Okvir za etične vidike umetne inteligence, robotike in sorodne tehnologije

    Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o okviru za etične vidike umetne inteligence, robotike in sorodne tehnologije (2020/2012(INL))

    (2021/C 404/04)

    Evropski parlament,

    ob upoštevanju člena 225 Pogodbe o delovanju Evropske unije,

    ob upoštevanju člena 114 Pogodbe o delovanju Evropske unije,

    ob upoštevanju Listine Evropske unije o temeljnih pravicah,

    ob upoštevanju Uredbe Sveta (EU) 2018/1488 z dne 28. septembra 2018 o ustanovitvi Skupnega podjetja za evropsko visokozmogljivostno računalništvo (1),

    ob upoštevanju Direktive Sveta 2000/43/ES z dne 29. junija 2000 o izvajanju načela enakega obravnavanja oseb ne glede na raso ali narodnost (2) (direktiva o rasni enakosti),

    ob upoštevanju Direktive Sveta 2000/78/ES z dne 27. novembra 2000 o splošnih okvirih enakega obravnavanja pri zaposlovanju in delu (3) (direktiva o enakem obravnavanju pri zaposlovanju),

    ob upoštevanju Uredbe (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (splošna uredba o varstvu podatkov) (4) ter Direktive (EU) 2016/680 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov, ki jih pristojni organi obdelujejo za namene preprečevanja, preiskovanja, odkrivanja ali pregona kaznivih dejanj ali izvrševanja kazenskih sankcij, in o prostem pretoku takih podatkov ter o razveljavitvi Okvirnega sklepa Sveta 2008/977/PNZ (5),

    ob upoštevanju Medinstitucionalnega sporazuma z dne 13. aprila 2016 o boljši pripravi zakonodaje (6),

    ob upoštevanju predloga uredbe Evropskega parlamenta in Sveta z dne 6. junija 2018 o vzpostavitvi programa za digitalno Evropo za obdobje 2021–2027 (COM(2018)0434),

    ob upoštevanju sporočila Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij z dne 11. decembra 2019 o evropskem zelenem dogovoru (COM(2019)0640),

    ob upoštevanju sporočila Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij z dne 19. februarja 2020 o umetni inteligenci – evropski pristop k odličnosti in zaupanju (COM(2020)0065),

    ob upoštevanju sporočila Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij z dne 19. februarja 2020 evropski strategiji za podatke (COM(2020)0066),

    ob upoštevanju sporočila Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij z dne 19. februarja 2020 o oblikovanju digitalne prihodnosti Evrope (COM(2020)0067),

    ob upoštevanju sklepov Sveta Evropske unije o oblikovanju digitalne prihodnosti Evrope iz junija 2020,

    ob upoštevanju svoje resolucije z dne 16. februarja 2017 s priporočili Komisiji o pravilih civilnega prava o robotiki (7),

    ob upoštevanju svoje resolucije z dne 1. junija 2017 o digitalizaciji evropske industrije (8),

    ob upoštevanju svoje resolucije z dne 12. septembra 2018 o avtonomnih orožnih sistemih (9),

    ob upoštevanju svoje resolucije z dne 11. septembra 2018 o enakopravnosti jezikov v digitalni dobi (10),

    ob upoštevanju svoje resolucije z dne 12. februarja 2019 o celoviti evropski industrijski politiki na področju umetne inteligence in robotike (11),

    ob upoštevanju poročila strokovne skupine na visoki ravni za umetno inteligenco, ki jo je ustanovila Komisija, z dne 8. aprila 2019 z naslovom „Etične smernice za zaupanja vredno umetno inteligenco“,

    ob upoštevanju študije o oceni evropske dodane vrednosti, ki jo je pripravila služba Evropskega parlamenta za raziskave, z naslovom Evropski okvir za etične vidike umetne inteligence, robotike in sorodne tehnologije: ocena evropske dodane vrednosti„“ (12),

    ob upoštevanju briefingov in študij, pripravljenih na zahtevo strokovne skupine za prihodnost znanosti in tehnologije pod vodstvom Oddelka za znanstvene napovedi Službe Evropskega parlamenta za raziskave, z naslovi What if algorithms could abide by ethical principles? (Kaj če bi bili algoritmi zmožni spoštovati etična načela?), Artificial Intelligence ante portas: Legal & ethical reflections (Umetna inteligenca pred vrati: pravni in etični razmislek), A governance framework for algorithmic accountability and transparency (Okvir upravljanja za algoritmično odgovornost in preglednost), Should we fear artificial intelligence? (Bi se morali bati umetne inteligence?) in The ethics of artificial intelligence: Issues and initiatives (Etika umetne inteligence: vprašanja in pobude),

    ob upoštevanju Okvirne konvencije Sveta Evrope za varstvo narodnih manjšin, protokola št. 12 h Konvenciji o varstvu človekovih pravic in temeljnih svoboščin ter Evropske listine o regionalnih ali manjšinskih jezikih,

    ob upoštevanju priporočil sveta Organizacije za gospodarsko sodelovanje in razvoj o umetni inteligenci, sprejetih 22. maja 2019,

    ob upoštevanju členov 47 in 54 Poslovnika,

    ob upoštevanju mnenj Odbora za zunanje zadeve, Odbora za notranji trg in varstvo potrošnikov, Odbora za promet in turizem, Odbora za državljanske svoboščine, pravosodje in notranje zadeve, Odbora za zaposlovanje in socialne zadeve, Odbora za okolje, javno zdravje in varnost hrane ter Odbora za kulturo in izobraževanje,

    ob upoštevanju poročila Odbora za pravne zadeve (A9-0186/2020),

    Uvod

    A.

    ker so ljudje tisti, ki razvijajo, uvajajo in uporabljajo umetno inteligenco, robotiko in sorodno tehnologijo ter s svojimi izbirami določajo, kakšen bo potencial tehnologije, da bo koristil družbi;

    B.

    ker umetna inteligenca, robotika in sorodna tehnologija, ki bi lahko ustvarile priložnosti za podjetja in koristi za državljane in ki neposredno vplivajo na vse vidike naše družbe, tudi na temeljne pravice ter socialna in gospodarska načela in vrednote, ter trajno vplivajo na vsa področja dejavnosti, napredujejo in se hitro razvijajo;

    C.

    ker bo zaradi umetne inteligence, robotike in sorodne tehnologije prišlo do znatnih sprememb na trgu dela in delovnem mestu; ker lahko nadomestijo delavce, ki opravljajo repetitivno delo, olajšajo sodelovalne delovne sisteme človek-stroj, povečajo konkurenčnost in blaginjo ter ustvarijo nove zaposlitvene priložnosti za kvalificirane delavce, obenem pa predstavljajo resen izziv za reorganizacijo delovne sile;

    D.

    ker lahko razvoj umetne inteligence, robotike in sorodne tehnologije prispeva tudi k doseganju trajnostnih ciljev evropskega zelenega dogovora v številnih različnih sektorjih; ker lahko digitalne tehnologije povečajo učinek politik za varstvo okolja; ker lahko prispevajo tudi k zmanjšanju prometnih zastojev ter izpustov toplogrednih plinov in onesnaževal zraka;

    E.

    ker se lahko v sektorjih, kot je javni prevoz, pametni prometni sistemi, podprti z umetno inteligenco, uporabijo za zmanjšanje čakanja v vrsti, optimizacijo prevoza, večjo neodvisnost invalidov in povečanje energetske učinkovitosti, s tem pa se krepijo prizadevanja za razogljičenje in zmanjšuje okoljski odtis;

    F.

    ker lahko te tehnologije prinesejo nove poslovne priložnosti, ki lahko prispevajo k okrevanju industrije Unije po trenutni zdravstveni in gospodarski krizi, če bodo bolj uporabljene, na primer v prometnem sektorju; ker lahko te priložnosti ustvarijo nova delovna mesta, saj lahko uporaba teh tehnologij poveča produktivnost podjetij in prispeva k večji učinkovitosti; ker lahko inovacijski programi na tem področju omogočijo razcvet regionalnih grozdov;

    G.

    ker so Unija in njene države članice še posebej odgovorne za izkoriščanje, spodbujanje in povečevanje dodane vrednosti, ki jo ima umetna inteligenca, ter da zagotovijo, da bodo tehnologije umetne inteligence varne in prispevale k dobremu počutju in splošni koristi njihovih državljanov, saj lahko s prispevanjem k razvoju boljših strategij in inovacij na številnih področjih in sektorjih znatno prispevajo k skupnemu cilju, ki je izboljšati življenje državljanov in spodbujati blaginjo v Uniji; ker je treba vprašanje umetne inteligence in digitalne pismenosti obravnavati v okviru izobraževanja in usposabljanja, tudi v obliki spodbujanja digitalnega vključevanja, ter na ravni Unije izvajati informacijske kampanje, ki pravilno predstavljajo vse vidike razvoja umetne inteligence, da bi izkoristili celoten potencial umetne inteligence in uporabnike seznanili s koristmi in izzivi, ki jih prinašajo tehnologije umetne inteligence;

    H.

    ker bi moral skupni regulativni okvir Unije za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije (regulativni okvir za umetno inteligenco) državljanom omogočiti, da delijo koristi, ki jih morda prinašajo, ter ščititi državljane pred potencialnimi tveganji teh tehnologij in spodbujati njihovo zanesljivost v Uniji in po svetu; ker bi moral ta okvir temeljiti na pravu in vrednotah Unije ter slediti načelom preglednosti, razložljivosti, pravičnosti in odgovornosti;

    I.

    ker je takšen regulativni okvir ključnega pomena za preprečevanje razdrobljenosti notranjega trga, ki je posledica različnih nacionalnih zakonodaj, in bo pomagal spodbujati prepotrebne naložbe, razvoj podatkovne infrastrukture in podporo razvoju; ker bi ga morale sestavljati skupne pravne obveznosti in etična načela, iz predloga uredbe, zahtevanem v prilogi k tej resoluciji; ker bi ga bilo treba vzpostaviti v skladu s smernicami za boljšo pravno ureditev;

    J.

    ker ima Unija strog pravni okvir, ki med drugim zagotavlja varstvo osebnih podatkov ter zasebnosti in nediskriminacijo, za spodbujanje enakosti spolov, varstva okolja in pravic potrošnikov; ker se bo takšen pravni okvir, ki ga sestavlja obsežen sklop horizontalne in sektorske zakonodaje ter vključuje veljavna pravila o varnosti izdelkov in odgovornosti, še naprej uporabljal v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo, čeprav bodo morda potrebne nekatere prilagoditve določenih pravnih instrumentov, da bi upoštevali digitalno preobrazbo in reševali nove izzive, ki jih prinaša uporaba umetne inteligence;

    K.

    ker obstajajo pomisleki, da sedanji pravni okvir Unije, vključno s pravnim redom na področju varstva potrošnikov ter s področja zaposlovanja in socialnega varstva, zakonodajo o varstvu podatkov varnosti proizvodov in nadzoru trga ter protidiskriminacijsko zakonodajo, morda ni več primeren za učinkovito obvladovanje tveganj, ki jih povzročajo umetna inteligenca, robotika in sorodna tehnologija;

    L.

    ker bi bilo treba pravna in etična vprašanja, povezana s tehnologijami umetne inteligence, reševati ne le s prilagoditvijo veljavne zakonodaje, ampak tudi z učinkovitim in celovitim regulativnim okvirom Unije, ki bo primeren za prihodnost in bo odražal načela in vrednote Unije, zapisana v Pogodbah in Listini o temeljnih pravicah Evropske unije (v nadaljnjem besedilu: Listina) ter ne bo nagnjen k prekomernemu zakonskemu urejanju, ampak bo samo odpravil obstoječe pravne vrzeli ter povečal pravno varnost za podjetja in državljane, in sicer z vključitvijo obveznih ukrepov za preprečevanje praks, ki bi nedvomno ogrožale temeljne pravice;

    M.

    ker mora vsak nov regulativni okvir upoštevati interese vseh strani; ker bi moral biti pogoj za nadaljnje zakonodajne ukrepe podrobna preučitev posledic za vse akterje kot del ocene učinka novega zakonodajnega okvira; ker imajo v gospodarstvu Unije mala in srednja ter zlasti zagonska podjetja osrednjo vlogo, ki opravičuje strogo sorazmeren pristop, da bi jim omogočili razvoj in inovacije;

    N.

    ker imajo lahko umetna inteligenca, robotika in sorodna tehnologija resne posledice za materialno in nematerialno integriteto posameznikov, skupin in družbe kot celote, to morebitno posamezno in kolektivno škodo pa je treba upoštevati v zakonodajnih odzivih;

    O.

    ker je morda treba sprejeti posebna pravila za prometni sektor, da bi spoštovali regulativni okvir Unije za umetno inteligenco;

    P.

    ker so tehnologije umetne inteligence strateško pomembne za prometni sektor, tudi zato, ker naj bi izboljšale varnost in dostopnost vseh oblik prometa ter ustvarile nove zaposlitvene možnosti in bolj trajnostne poslovne modele; ker lahko pristop na ravni Unije k razvoju umetne inteligence, robotike in sorodne tehnologije v prometu poveča konkurenčnost evropskega gospodarstva v svetovnem merilu in njegovo strateško avtonomijo;

    Q.

    ker je človeška napaka še vedno prisotna pri približno 95 % vseh prometnih nesreč v Uniji; ker je bil cilj Unije do leta 2020 zmanjšati število smrtnih žrtev na leto na svojih cestah za 50 % v primerjavi z letom 2010, vendar je zaradi premajhnega napredka obnovila svoja prizadevanja v okviru EU politike varnosti v cestnem prometu za obdobje 2021–2030 o nadaljnjih ukrepih za odpravo smrtnih žrtev v prometu; ker imajo v zvezi s tem umetna inteligenca, avtomatizacija in druge nove tehnologije velik potencial in so izjemno pomembne za povečanje varnosti v cestnem prometu z zmanjšanjem možnosti za človeške napake;

    R.

    ker bi moral regulativni okvir Unije odražati tudi potrebo po spoštovanju pravic delavcev; ker bi bilo treba v zvezi s tem spoštovati okvirni sporazum evropskih socialnih partnerjev o digitalizaciji iz junija 2020;

    S.

    ker bi moral biti obseg regulativnega okvira Unije ustrezen, sorazmeren in temeljito ocenjen; ker bi moral zajemati širok nabor tehnologij in njihovih sestavnih delov, vključno z algoritmi, programsko opremo in podatki, ki jih uporabljajo ali proizvajajo, in ker je potreben ciljni pristop, da bi se izognili oviranju prihodnjih inovacij in ustvarjanju nepotrebnih bremen, zlasti za mala in srednja podjetja; ker je iskanje enotne rešitve za celotni nabor tveganj zapleteno zaradi raznolikosti aplikacij, ki uporabljajo umetno inteligenco, robotiko in sorodno tehnologijo;

    T.

    ker analiza podatkov in umetna inteligenca čedalje bolj vplivata na informacije, dostopne državljanom; ker so lahko ob zlorabi tovrstnih tehnologij ogrožene temeljne pravice do svobode izražanja in obveščenosti ter svoboda in pluralnost medijev;

    U.

    ker bi moralo geografsko področje uporabe regulativnega okvira Unije za umetno inteligenco pokrivati vse sestavne dele umetne inteligence, robotike in sorodne tehnologije, ki se razvijajo, uvajajo ali uporabljajo v Uniji, vključno s primeri, v katerih se del tehnologij morda nahaja zunaj Unije ali nima konkretne lokacije;

    V.

    ker bi moral regulativni okvir Unije za umetno inteligenco zajemati vse ustrezne faze, se pravi razvoj, uvajanje in uporabo ustreznih tehnologij in njihovih sestavnih delov, pri čemer je treba ustrezno upoštevati ustrezne pravne obveznosti in etična načela, ter bi moral določiti pogoje za zagotovitev, da bodo razvijalci, izvajalci in uporabniki v celoti skladni s temi obveznostmi in načeli;

    W.

    ker je za usklajen pristop k etičnim načelom v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo v Uniji potrebno skupno razumevanje teh konceptov, ki so podlaga teh tehnologij, kot so algoritmi, programska oprema, podatki ali biometrično prepoznavanje;

    X.

    ker je ukrepanje na ravni Unije upravičeno zaradi potrebe po preprečevanju regulativne razdrobljenosti ali nizu nacionalnih regulativnih določb brez skupnega imenovalca ter po enotni uporabi skupnih, zakonsko predpisanih etičnih načel pri razvoju, uvedbi in uporabi umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem; ker so potrebna jasna pravila tam, kjer so tveganja velika;

    Y.

    ker so skupna etična načela učinkovita samo, če so zakonsko predpisana in je v njih opredeljeno, kdo je odgovoren za zagotavljanje, ocenjevanje in spremljanje skladnosti;

    Z.

    ker etične smernice, kot so načela, ki jih je sprejela strokovna skupina na visoki ravni za umetno inteligenco, zagotavljajo dobro izhodišče, vendar niso dovolj, da bi se zagotovila pošteno ravnanje razvijalcev, izvajalcev in uporabnikov in učinkovito varstvo posameznikov; ker so takšne smernice še toliko bolj potrebne za umetno inteligenco, robotiko in sorodno tehnologijo z visokim tveganjem;

    AA.

    ker bi morala vsaka država članica imenovati nacionalni nadzorni organ, odgovoren za zagotavljanje, ocenjevanje in spremljanje skladnosti razvoja, izvajanja in uporabe umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem z regulativnim okvirom Unije za umetno inteligenco ter omogočati razprave in izmenjave mnenj v tesnem sodelovanju z ustreznimi deležniki in civilno družbo; ker bi morali nacionalni nadzorni organi medsebojno sodelovati;

    AB.

    ker je za zagotovitev usklajenega pristopa po vsej Uniji in optimalnega delovanja enotnega digitalnega trga treba z vidika novih priložnosti in izzivov, zlasti čezmejne narave, ki so posledica nenehnega tehnološkega razvoja, oceniti usklajevanje na ravni Unije, ki ga izvajajo Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije; ker bi morala biti naloga Komisije, da najde ustrezne rešitve za strukturiranje takšnega usklajevanja na ravni Unije;

    Umetna inteligenca, ki je osredotočena na človeka in jo je ustvaril človek

    1.

    meni, da je brez poseganja v sektorsko zakonodajo potreben učinkovit in usklajen regulativni okvir, ki temelji na pravu Unije, Listini in mednarodnem pravu človekovih pravic ter se uporablja zlasti za tehnologije z visokim tveganjem, da se vzpostavijo enaki standardi po vsej Uniji in učinkovito zaščitijo vrednote Unije;

    2.

    meni, da bi moral vsak nov regulativni okvir za umetno inteligenco, ki ga sestavljajo pravne obveznosti in etična načela za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije, popolnoma spoštovati Listino in s tem spoštovati človekovo dostojanstvo, samostojnost in samoodločanje posameznika, preprečevati škodo, spodbujati pravičnost, vključenost in preglednost, odpravljati pristranskost in diskriminacijo, tudi manjšinskih skupin, ter spoštovati načela omejevanja negativnih zunanjih učinkov uporabljene tehnologije, zagotavljanja razložljivosti tehnologij in da tehnologija služi ljudem, ne pa, da jih nadomešča ali namesto njih odloča, ter ravnanje v skladu s temi načeli, končni cilj pa je več koristi za vse ljudi;

    3.

    poudarja, da obstaja nesorazmerje med tistimi, ki uporabljajo tehnologijo umetne inteligence, in tistimi, ki so z njo v stiku ali so ji podvrženi; v zvezi s tem poudarja, da zaupanje državljanov v umetno inteligenco lahko temelji le na „privzeti in vgrajeni etiki“, ki zagotavlja, da vsaka uporabljena umetna inteligenca v celoti spoštuje Pogodbi, Listino in sekundarno pravo Unije; meni, da bi to moral biti takšen pristop v skladu s previdnostnim načelom, ki usmerja zakonodajo Unije, in bi moralo biti v središču vsakega okvira za umetno inteligenco; v zvezi s tem poziva k jasnemu in skladnemu modelu upravljanja, ki bo gospodarskim družbam in inovatorjem omogočil nadaljnji razvoj umetne inteligence, robotike in sorodne tehnologije;

    4.

    meni, da morajo biti vsi zakonodajni ukrepi v zvezi umetno inteligenco, robotiko in sorodno tehnologijo skladni z načeli nujnosti in sorazmernosti;

    5.

    meni, da bi s takim pristopom podjetjem omogočili uvedbo inovativnih proizvodov na trg in ustvarili nove priložnosti, hkrati pa zagotovili zaščito vrednot Unije z usmerjanjem v razvoj sistemov umetne inteligence, ki bodo oblikovani tako, da bodo vključevali etična načela Unije; meni, da bi takšen regulativni okvir, ki bi temeljil na vrednotah, predstavljal dodano vrednost, ki bi Uniji zagotavljala edinstveno konkurenčno prednost ter znatno prispevala k dobrobiti in blaginji državljanov in podjetij Unije ter krepila notranji trg; poudarja, da pomeni takšen regulativni okvir za umetno inteligenco dodano vrednost tudi kar zadeva spodbujanje inovacij na notranjem trgu; meni, da se s tem pristopom podjetjem Unije nudi možnost, da postanejo vodilna v svetu, na primer v prometnem sektorju;

    6.

    ugotavlja, da bi se moral pravni okvir Unije uporabljati za umetno inteligenco, robotiko in sorodno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo;

    7.

    ugotavlja, da priložnosti, ki temeljijo na umetni inteligenci, robotiki in sorodni tehnologiji, izhajajo iz velepodatkov, pri čemer je treba zagotoviti kritično maso podatkov za usposabljanje algoritmov in izboljšanje rezultatov; v zvezi s tem pozdravlja predlog Komisije o oblikovanju skupnega podatkovnega prostora v Uniji za spodbujanje izmenjave podatkov in podpiranje raziskav ob polnem spoštovanju evropskih pravil za varstvo podatkov;

    8.

    meni, da bo moral sedanji pravni okvir Unije, zlasti o varstvu zasebnosti ter osebnih podatkov, popolnoma veljati za umetno inteligenco, robotiko in sorodno tehnologijo ter ga bo treba redno pregledovati in po potrebi posodabljati, da bi se učinkovito spopadli s tveganji, ki jih povzročajo te tehnologije, ter da bi bilo v zvezi s tem koristno, če bi ga dopolnili s trdnimi vodilnimi etičnimi načeli; opozarja, da bi bilo treba v primerih, ko je prezgodaj za sprejemanje zakonodajnih aktov, uporabiti okvir mehkega prava;

    9.

    pričakuje, da bo Komisija kot nadaljnji ukrep po beli knjigi o umetni inteligenci v prihodnji zakonodajni predlog vključila trden etični pristop, zahtevan v prilogi k tej resoluciji, ki bo med drugim zajemal varnost, odgovornost in temeljne pravice, tako da se bodo čim bolj povečale priložnosti in čim bolj zmanjšala tveganja, povezana s tehnologijo umetne inteligence; pričakuje, da bo zahtevani zakonodajni predlog vseboval rešitve politike za pomembna tveganja, opredeljena v zvezi z umetno inteligenco, med drugim za etično zbiranje in uporabo velepodatkov ter vprašanje diskriminacije in pristranskosti v algoritmih; poziva Komisijo, naj oblikuje merila in kazalnike za označevanje tehnologije umetne inteligence, da bi se spodbudila preglednost, razložljivost in odgovornost ter da bi se razvijalci spodbudili k uporabi dodatnih previdnostnih ukrepov; poudarja, da je treba vlagati v vključevanje netehničnih disciplin v študije in raziskave umetne inteligence in pri tem upoštevati socialni kontekst;

    10.

    meni, da morajo biti umetna inteligenca, robotika in sorodna tehnologija prilagojene človekovim potrebam v skladu z načelom, da bi morali biti njihov razvoj, uvedba in uporaba vedno v službi človeka in nikoli obratno, ter da bi si morali prizadevati za povečanje blaginje in posameznikove svobode, pa tudi za ohranjanje miru, preprečevanje konfliktov in krepitev mednarodne varnosti, hkrati pa čim bolj povečati koristi, ki jih ponuja, ter preprečiti in zmanjšati tveganja;

    11.

    izjavlja, da je treba pri razvoju, uvedbi in uporabi umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem, vključno vendar ne izključno tudi s strani ljudi, vedno slediti etičnim načelom in da jih oblikovati tako, da spoštujejo človekovo delovanje in omogočajo demokratičen nadzor ter da mora biti kadar koli mogoča ponovna vzpostavitev človekovega nadzora z uporabo ustreznih kontrolnih ukrepov;

    Ocena tveganja

    12.

    poziva k pristopu k regulaciji umetne inteligence, robotike in sorodne tehnologije, ki bo diferenciran ter bo temeljil na tveganju in bo usmerjen v prihodnost, vključno s tehnološko nevtralnimi standardi v vseh sektorjih ter po potrebi s posebnimi sektorskimi standardi; ugotavlja, da je za enotno izvajanje sistema ocenjevanja tveganja in skladnost s povezanimi pravnimi obveznostmi, da bi zagotovili enake konkurenčne pogoje med državami članicami in preprečili razdrobljenost notranjega trga, potreben izčrpen in kumulativen seznam sektorjev z visokim tveganjem in načinov uporab ali namenov z visokim tveganjem; poudarja, da je treba takšen seznam redno ponovno oceniti, in ugotavlja, da bi bilo morda treba v prihodnosti ponovno oceniti tveganje teh tehnologij, ker se stalno razvijajo;

    13.

    meni, da bi morala opredelitev, ali je treba umetno inteligenco, robotiko in sorodno tehnologijo obravnavati kot visoko tvegane in da morajo zato biti obvezno skladne s pravnimi obveznostmi in etičnimi načeli iz regulativnega okvira za umetno inteligenco, vedno temeljiti na nepristranski, regulirani in zunanji predhodni oceni na podlagi konkretnih in opredeljenih meril;

    14.

    v zvezi s tem meni, da bi bilo treba umetno inteligenco, robotiko in sorodno tehnologijo obravnavati za visoko tvegane, kadar njihov razvoj, uvedba in uporaba pomenijo znatno tveganje za poškodbe ali škodo posameznikom ali družbi, kar krši temeljne pravice in varnostna pravila, kot so določena v pravu Unije; meni, da bi bilo treba pri ocenjevanju, ali tehnologije umetne inteligence prinašajo takšno tveganje, upoštevati sektor, v katerem se razvijajo, uvajajo ali uporabljajo, njihovo posebno uporabo ali namen ter resnost pričakovane poškodbe ali škode; prvo in drugo merilo (sektor in posebna uporabo ali namen) naj se obravnavata kumulativno;

    15.

    poudarja, da je treba oceno tveganja teh tehnologij opraviti na podlagi izčrpnega in kumulativnega seznama sektorjev z visokim tveganjem ter načinov uporabe in namenov z visokim tveganjem; je trdno prepričan, da je na ravni Unije potrebna usklajenost ocenjevanja tveganja teh tehnologij, zlasti ko se ocenjuje z vidika njihove skladnosti z regulativnim okvirom za umetno inteligenco in drugo sektorsko zakonodajo, ki se uporablja;

    16.

    meni, da je treba ta pristop na podlagi tveganja razviti tako, da bi z uporabo obstoječih orodij čim bolj omejili upravno breme za podjetja, zlasti MSP; med ta orodja med drugim spada tudi seznam ocen učinka na varstvo podatkov iz Uredbe (EU) 2016/679;

    Varnostne značilnosti, preglednost in odgovornost

    17.

    spominja, da je pravica potrošnikov do obveščenosti zasidrana kot temeljno načelo prava Unije, in poudarja, da bi ga zato bilo treba v celoti izvajati v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo; meni, da bi se morala zlasti nanašati na preglednost interakcije s sistemi umetne inteligence, vključno s postopki avtomatizacije, in na način, kako delujejo, njihove zmogljivosti, na primer način filtriranja in predstavitve informacij, natančnost in omejitve; meni, da bi bilo treba te informacije posredovati nacionalnim nadzornim organom in nacionalnim organom za varstvo potrošnikov;

    18.

    poudarja, da je zaupanje potrošnikov bistveno za razvoj in uvedbo teh tehnologij, ki lahko predstavljajo tveganje, če temeljijo na nepreglednih algoritmih in pristranskih podatkovnih nizih; meni, da bi morali imeti potrošniki pravico, da so na razumljiv, pravočasen, standardiziran, natančen in dostopen način ustrezno obveščeni o obstoju, utemeljitvi, morebitnih rezultatih in vplivih algoritemskih sistemov za potrošnike, o tem, kako priti do ljudi s pristojnostmi odločanja, in o tem, kako je mogoče nadzirati odločitve sistema, jih smiselno izpodbijati in popraviti; v zvezi s tem poudarja, da je treba upoštevati in spoštovati načela obveščanja in razkritja, na katerih temelji pravni red o varstvu potrošnikov: meni, da je treba končnim uporabnikom ponuditi natančne informacije o delovanju prometnih sistemov in vozil, podprtih z umetno inteligenco;

    19.

    ugotavlja, da je ključnega pomena, da so algoritmi in podatkovni nizi, ki jih umetna inteligenca, robotika in sorodna tehnologija uporabljajo ali se z njimi pridobivajo, razložljivi in, kadar je to nujno potrebno ter ob popolnem spoštovanju zakonodaje Unije o varstvu podatkov, zasebnosti in pravicah intelektualne lastnine ter poslovnih skrivnostih, dostopni javnim organom, kot so nacionalni nadzorni organi in organi za nadzor trga; ugotavlja tudi, da bi morali v skladu z najvišjimi možnimi in veljavnimi standardi za ta sektor to dokumentacijo shraniti tisti, ki so vključeni v različne faze razvoja algoritemskih sistemov z visokim tveganjem; ugotavlja, da bi lahko organom za nadzor trga v zvezi s tem dodelili dodatne pristojnosti; v zvezi s tem poudarja vlogo zakonitega obratnega inženiringa; meni, da bi bilo morda treba preučiti sedanjo zakonodajo o nadzoru trga, da bi z etičnega vidika odgovarjala na pojav umetne inteligence, robotike in sorodne tehnologije;

    20.

    poziva, naj razvijalci in izvajalci tehnologij z visokim tveganjem, kadar je to ugotovljeno v oceni tveganja, javnim organom zagotovijo ustrezno dokumentacijo o uporabi, zasnovi in varnostnih navodilih, kadar je to nujno potrebno in ob popolnem spoštovanju zakonodaje Unije o varstvu podatkov, zasebnosti, pravicah intelektualne lastnine in poslovnih skrivnostih, pa tudi izvorno kodo, razvijalska orodja in podatke, ki jih uporablja sistem; ugotavlja, da bi s takšno obveznostjo omogočili oceno njihove skladnosti s pravom Unije in etičnimi načeli, ter je v zvezi s tem seznanjen s primerom obveznih izvodov publikacij nacionalne knjižnice; ugotavlja, da je velika razlika med preglednostjo algoritmov in preglednostjo njihove uporabe;

    21.

    poleg tega ugotavlja, da bi bilo treba zaradi spoštovanja človekovega dostojanstva, avtonomije in varnosti ustrezno upoštevati bistvene in napredne medicinske pripomočke ter ugotavlja potrebo, da neodvisni, zaupanja vredni organi ohranijo sredstva, potrebna za zagotavljanje storitev osebam, ki nosijo te naprave, če jih prvotni razvijalec ali izvajalec ne zagotavlja več; takšne storitve bi na primer zajemale vzdrževanje, popravila in izboljšave, tudi posodobitve programske opreme, ki odpravljajo napake in pomanjkljivosti;

    22.

    meni, da bi bilo treba umetno inteligenco, robotiko in sorodno tehnologijo z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali proizvajajo, v zasnovi razvijati, uvajati in uporabljati na varen, ,sledljiv, tehnično stabilen, zanesljiv, etičen in pravno zavezujoč način ter da morajo biti pod neodvisno kontrolo in nadzorom; zlasti meni, da bi morali biti vsi akterji v celotni razvojni in dobavni verigi izdelkov in storitev umetne inteligence pravno odgovorni, in poudarja, da so potrebni mehanizmi za zagotavljanje odgovornosti;

    23.

    poudarja, da so predpisi in smernice o razložljivosti, možnosti revizije, sledljivosti in preglednosti, pa tudi dostop javnih organov do tehnologije, podatkov in računalniških sistemov, na katerih temeljijo take tehnologije, kadar je to potrebno za oceno tveganja in ob popolnem spoštovanju zakonodaje Unije o varstvu podatkov, zasebnosti, pravicah intelektualne lastnine in poslovnih skrivnostih, nujni za zagotovitev zaupanja državljanov v te tehnologije, tudi če je stopnja razložljivosti odvisna od zapletenosti tehnologij; poudarja, da včasih ni mogoče razložiti, zakaj je model privedel do določenega izida ali odločitve, kot kaže primer algoritmov črne skrinjice; zato meni, da je spoštovanje teh načel pogoj za zagotavljanje odgovornosti;

    24.

    meni, da bi morali biti državljani, vključno s potrošniki, obveščeni, kadar imajo stik s sistemom, ki uporablja umetno inteligenco, zlasti za personalizacijo izdelka ali storitve za uporabnike, ali in kako lahko izklopijo ali omejijo personalizacijo;

    25.

    v zvezi s tem poudarja, da morajo biti umetna inteligenca, robotika in sorodna tehnologija tehnično stabilne in natančne, da bodo vredne zaupanja;

    26.

    poudarja, da je treba zaščititi omrežja medsebojno povezanih umetnih inteligenc in robotike ter sprejeti zanesljive ukrepe za preprečitev kršitev varnosti, uhajanja podatkov, zastrupitve podatkov, kibernetskih napadov in zlorabe osebnih podatkov ter da bodo zaradi tega morale ustrezne agencije, organi in institucije na ravni Unije in nacionalni ravni sodelovati s končnimi uporabniki teh tehnologij; poziva Komisijo in države članice, naj zagotovijo, da se pri razvoju in uporabi tehnologije umetne inteligence vedno spoštujejo vrednote Unije in temeljne pravice, da bi zagotovili varnost in odpornost digitalne infrastrukture Unije;

    Nepristranskost in nediskriminacija

    27.

    poudarja, da lahko umetna inteligenca, odvisno od tega, kako se razvija, uporablja in izvaja, ustvari in okrepi pristranskost, tudi z inherentno pristranskostjo v osnovnih naborih podatkov, in tako ustvari različne oblike avtomatizirane diskriminacije, vključno s posredno diskriminacijo, zlasti v zvezi s skupinami ljudi s podobnimi značilnostmi; poziva Komisijo in države članice, naj sprejmejo vse možne ukrepe, da bi se izognili takšni pristranskosti in zagotovili popolno varstvo temeljnih pravic;

    28.

    je zaskrbljen, da so pri razvoju, uvajanju in uporabi umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali proizvajajo, prisotna tveganja za pristranskost in diskriminacijo; opozarja, da je treba v vseh okoliščinah spoštovati pravo Unije, tako kot tudi človekove pravice in dostojanstvo, avtonomnost in samoodločbo posameznika ter zagotavljati enako obravnavo in nediskriminacijo vseh;

    29.

    meni, da bi morale biti tehnologije umetne inteligence oblikovane tako, da bi spoštovale in varovale vrednote Unije ter telesno in duševno celovitost in jim služile, ohranjale kulturno in jezikovno raznolikost Unije ter pomagale pri zadovoljevanju osnovnih potreb; poudarja, da se je treba izogibati vsaki uporabi, ki bi lahko povzročila nedopustno neposredno ali posredno prisilo, ogrozila psihološko neodvisnost in duševno zdravje ali privedla do neupravičenega nadzora, prevare ali nedopustne manipulacije;

    30.

    je trdno prepričan, da je treba temeljne človekove pravice, zapisane v Listini, strogo spoštovati, da te nastajajoče tehnologije ne bi ustvarile vrzeli na področju varstva;

    31.

    potrjuje, da lahko morebitna pristranskost programske opreme, algoritmov in podatkov ter diskriminacija, ki bi jo povzročila, povzročita očitno škodo posameznikom in družbi, zato bi ju bilo treba obravnavati s spodbujanjem razvoja in izmenjave strategij za boj proti njima, kot je odstranjevanje pristranskih podatkovnih nizov v raziskavah in razvoju, ter z oblikovanjem pravil obdelave podatkov; meni, da bi lahko s tem pristopom programsko opremo, algoritme in podatke spremenili v sredstvo za boj proti pristranskosti in diskriminaciji v določenih razmerah in močan dejavnik na področju enakih pravic in pozitivne družbene spremembe;

    32.

    meni, da morajo biti etične vrednote pravičnosti, točnosti, zaupnosti in preglednosti osnova za umetno inteligenco, kar vključuje, da mora biti delovanje sistema takšno, da pri njem ne more priti do pristranskih rezultatov;

    33.

    poudarja pomen kakovostnih podatkovnih nizov, ki se uporabljajo v umetni inteligenci, robotiki in sorodni tehnologiji, glede na namen njegove uporabe, predvsem glede reprezentativnosti uporabljenih učnih podatkov, odprave pristranskosti podatkovnih nizov, pa tudi o samih algoritmih ter o podatkovnih in agregacijskih standardih; poudarja, da bi morali biti ti podatkovni nizi preverljivi s strani nacionalnih nadzornih organov, kadar je to potrebno, da se zagotovi njihova skladnost s predhodno izpostavljenimi načeli;

    34.

    poudarja, da bi lahko imele tehnologije umetne inteligence ob vsesplošni vojni dezinformacij, ki jo vodijo predvsem neevropski akterji, škodljive učinke, če bi izkoriščale pristranskost podatkov in algoritmov ali če bi tretja država namerno spreminjala podatke za učenje, in bi lahko bile izpostavljene tudi drugim oblikam nevarnega zlonamernega ravnanja na nepredvidljive načine in z nepredvidljivimi posledicami; zato mora Unija več vlagati več v nadaljnje raziskave, analize, inovacije in čezmejni ter medsektorski prenos znanja za razvoj tehnologij umetne inteligence, ki ne bi vključevala nobenega profiliranja, pristranskosti in diskriminacije in bi lahko učinkovito prispevala k boju proti lažnim novicam in dezinformacijam, hkrati pa spoštovala zasebnost podatkov in pravni okvir Unije;

    35.

    poudarja, kako pomembno je zagotoviti učinkovita pravna sredstva za posameznike, in poziva države članice, naj zagotovijo, da bodo na voljo dostopni, cenovno ugodni, neodvisni in učinkoviti postopki in mehanizmi pregleda, da bi zagotovili nepristranski človeški pregled vseh trditev o kršitvah pravic potrošnikov, kot so pravice potrošnika ali državljanske pravice, z uporabo algoritemskih sistemov, ne glede na to, ali jih podajo subjekti javnega ali zasebnega sektorja; poudarja pomen osnutka direktive Evropskega parlamenta in Sveta o zastopniških tožbah za varstvo kolektivnih interesov potrošnikov in razveljavitvi Direktive 2009/22/ES, o katerem je bil 22. junija 2020 dosežen politični dogovor, v zvezi s prihodnjimi primeri, s katerimi bi izpodbijali uvedbo ali stalno uporabo sistema umetne inteligence, ki pomeni tveganje kršitev pravic potrošnika, ali bi uveljavljali pravna sredstva za kršitev pravic; poziva Komisijo in države članice, naj zagotovijo, da bodo imele nacionalne organizacije in organizacije Unije za varstvo potrošnikov zadostna sredstva za financiranje pomoči potrošnikom pri njihovem uveljavljanju pravice do popravnih ukrepov v primerih kršitev njihovih pravic;

    36.

    zato meni, da bi morala imeti vsaka fizična ali pravna oseba možnost pritožbe zoper odločitev, ki jo je v njeno škodo sprejela umetna inteligenca, robotika ali sorodna tehnologija, ob kršenju prava Unije ali nacionalnega prava;

    37.

    meni, da bi se lahko potrošniki v primeru domnevnih kršitev regulativnega okvira Unije z zahtevki za povračilo škode najprej obrnili tudi na nacionalne nadzorne organe, da bi zagotovili učinkovito izvrševanje prej navedenega okvira;

    Družbena odgovornost in uravnotežena zastopanost spolov

    38.

    poudarja, da imajo družbeno odgovorna umetna inteligenca, robotika in sorodna tehnologija vlogo pri iskanju rešitev, ki varujejo in spodbujajo temeljne pravice in vrednote naše družbe, kot so demokracija, pravna država, raznoliki in neodvisni mediji ter objektivne in prosto dostopne informacije, zdravje in gospodarska blaginja, enake možnosti, delavske in socialne pravice, kakovostno izobraževanje, zaščita otrok, kulturna in jezikovna raznolikost, enakost spolov, digitalna pismenost, inovacije in ustvarjalnost; opozarja, da je treba zagotoviti ustrezno upoštevanje in zastopanje interesov vseh državljanov, tudi tistih, ki so marginalizirani ali v ranljivem položaju, kot so invalidi;

    39.

    poudarja, kako pomembno je doseganje visoke ravni splošne digitalne pismenosti, izobraževanje visoko usposobljenih strokovnjakov na tem področju ter zagotavljanje vzajemnega priznavanja teh kvalifikacij po vsej Uniji; poudarja, da so potrebne raznolike skupine razvijalcev in inženirjev, ki bodo sodelovali z ključnimi družbenimi akterji, da ne bi spolne in kulturne pristranskosti nenamerno vključili v algoritme, sisteme in aplikacije umetne inteligence; podpira pripravo izobraževalnih učnih načrtov in dejavnosti ozaveščanja javnosti glede družbenih, pravnih in etičnih posledic umetne inteligence;

    40.

    poudarja velik pomen zagotavljanja svobode misli in izražanja, s čimer se zagotovi, da te tehnologije ne spodbujajo sovražnega govora ali nasilja; zato meni, da je oviranje ali omejevanje svobode izražanja, ki se izvaja digitalno, v skladu s temeljnimi načeli Unije nezakonito, razen če uveljavljanje te temeljne pravice vključuje nezakonita dejanja;

    41.

    poudarja, da lahko umetna inteligenca, robotika in sorodna tehnologija prispevajo k zmanjšanju družbenih neenakosti, in trdi, da mora evropski model za njihov razvoj temeljiti na zaupanju državljanov in večji socialni koheziji;

    42.

    poudarja, da uvedba sistemov umetne inteligence ne bi smela neupravičeno omejevati dostopa uporabnikov do javnih storitev, kot je socialna varnost; zato poziva Komisijo, naj oceni, kako je ta cilj mogoče doseči;

    43.

    poudarja pomen odgovornih raziskav in razvoja s ciljem čim bolj povečati celoten potencial umetne inteligence, robotike in sorodne tehnologije za državljane in javno dobro; poziva k mobilizaciji sredstev Unije in njenih držav članic za razvoj in podpiranje odgovornih inovacij;

    44.

    poudarja, da bo tehnološko strokovno znanje vse pomembnejše, zato bo treba stalno posodabljati usposabljanja, zlasti za prihodnje generacije, in spodbujati poklicno prekvalifikacijo tistih, ki so že na trgu dela; v zvezi s tem vztraja, da je treba inovacije in usposabljanje spodbujati ne le v zasebnem, temveč tudi v javnem sektorju;

    45.

    trdi, da razvoj, uvedba in uporaba teh tehnologij ne bi smeli povzročiti nikakršne poškodbe ali škode posameznikom, družbi ali okolju in da bi morali biti zato razvijalci, uvajalci in uporabniki teh tehnologij odgovorni za to poškodbo ali škodo v skladu z ustreznimi pravili Unije in nacionalnimi pravili o odgovornosti;

    46.

    poziva države članice, naj ocenijo, ali bi morale biti zaradi izgube delovnih mest, ki je posledica uvedbe teh tehnologij, sprejete ustrezne javne politike, kot je skrajšanje delovnega časa;

    47.

    vztraja, da je nujno potreben pristop k oblikovanju, ki temelji na vrednotah in etičnih načelih Unije, da bi ustvarili pogoje za široko družbeno sprejemljivost umetne inteligence, robotike in sorodne tehnologije; meni, da je ta pristop, usmerjen na razvoj zaupanja vredne, etično odgovorne in tehnično stabilne umetne inteligence, pomemben dejavnik pri omogočanju trajnostne in pametne mobilnosti, ki je varna in dostopna;

    48.

    želi poudariti visoko dodano vrednost, ki jo imajo avtonomna vozila za osebe z omejeno mobilnostjo, saj jim omogočajo boljšo udeležbo v individualnem cestnem prometu in jim s tem olajšajo vsakdan; poudarja pomen dostopnosti, zlasti pri zasnovi sistemov MaaS (mobilnost kot storitev);

    49.

    poziva Komisijo, naj še naprej podpira razvoj zanesljivih sistemov umetne inteligence, da bi promet postal varnejši, učinkovitejši, dostopnejši, cenovno ugodnejši in bolj vključujoč tudi za osebe z zmanjšano mobilnostjo, zlasti invalide, ob upoštevanju Direktive (EU) 2019/882 Evropskega parlamenta in Sveta (13) ter prava Unije o pravicah potnikov;

    50.

    meni, da lahko umetna inteligenca pripomore k boljši uporabi spretnosti in znanj invalidov ter da lahko uporaba umetne inteligence na delovnem mestu prispeva k vključujočim trgom dela in višji stopnji zaposlenosti invalidov;

    Okolje in trajnost

    51.

    ugotavlja, da bi morale vlade in podjetja uporabljati umetno inteligenco, robotiko in sorodno tehnologijo, da bi koristile ljudem in planetu ter prispevale k doseganju trajnostnega razvoja, ohranjanju okolja, podnebne nevtralnosti in ciljev krožnega gospodarstva; razvoj, uvedba in uporaba teh tehnologij bi morali prispevati k zelenemu prehodu, ohranjanju okolja ter zmanjšanju in odpravi škode za okolje, povzročene med njihovim življenjskim ciklom in vzdolž njihove celotne dobavne verige v skladu s pravom Unije;

    52.

    glede na njihov znaten vpliv na okolje bi lahko za namene prejšnjega odstavka presojo vpliva razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije na okolje po potrebi in kjer je to primerno skozi njihovo celotno življenjsko dobo izvedli organi, specifični za posamezni sektor; ta ocena bi lahko vključevala presojo vpliva pridobivanja potrebnih materialov ter porabe energije in nastanka emisij toplogrednih plinov zaradi njihovega razvoja, uvedbe in uporabe;

    53.

    predlaga, da bi bilo treba za razvoj odgovornih najsodobnejših rešitev na področju umetne inteligence raziskati, spodbujati in čim bolj povečati potencial umetne inteligence, robotike in sorodne tehnologije z odgovornimi raziskavami in razvojem, za kar je potrebna mobilizacija sredstev Unije in njenih držav članic;

    54.

    poudarja dejstvo, da se pri razvoju, uvedbi in uporabi teh tehnologij odpirajo priložnosti za spodbujanje ciljev trajnostnega razvoja Organizacije združenih narodov, globalnega energetskega prehoda in razogljičenja;

    55.

    meni, da cilji družbene odgovornosti, enakosti spolov, varstva okolja in trajnosti ne bi smeli posegati v obstoječe splošne in sektorske obveznosti na teh področjih; meni, da bi bilo treba določiti nezavezujoče izvedbene smernice za razvijalce, uvajalce in uporabnike zlasti tehnologij z visokim tveganjem v zvezi z metodologijo za ocenjevanje skladnosti s to uredbo in doseganjem teh ciljev;

    56.

    poziva Unijo, naj spodbuja in financira razvoj na človeka osredotočenih umetne inteligence, robotike in sorodne tehnologije, ki obravnavajo okolje in podnebne izzive ter zagotavljajo spoštovanje temeljnih pravic prek davkov, javnega naročanja ali drugih pobud;

    57.

    poudarja, da lahko kljub visokemu ogljičnemu odtisu razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije, vključno z avtomatiziranimi odločitvami in strojnim učenjem, te tehnologije prispevajo k zmanjšanju sedanjega okoljskega odtisa sektorja IKT; poudarja, da bi morale biti te in druge ustrezno regulirane sorodne tehnologije ključni dejavniki za doseganje ciljev zelenega dogovora, ciljev OZN za trajnostni razvoj in Pariškega sporazuma v številnih različnih sektorjih ter da bi morale povečati učinek politik, ki zagotavljajo varstvo okolja, na primer politik v zvezi z zmanjšanjem količine odpadkov in degradacijo okolja;

    58.

    poziva Komisijo, naj pripravi študijo o učinku ogljičnega odtisa, ki ga ima tehnologija umetne inteligence, ter o pozitivnih in negativnih posledicah prehoda potrošnikov na uporabo tehnologije umetne inteligence;

    59.

    ugotavlja, da je treba glede na vse večji razvoj aplikacij umetne inteligence, za kar so potrebne računalniške zmogljivosti, skladiščenje in energijski viri, upoštevati učinek sistemov umetne inteligence na okolje v celotnem življenjskem ciklu;

    60.

    meni, da mora biti na področjih, kot je zdravstvo, končno odgovorna fizična ali pravna oseba; poudarja, da morajo biti učni podatki za algoritme sledljivi in javno dostopni;

    61.

    močno podpira oblikovanje evropskega prostora zdravstvenih podatkov, ki ga je predlagala Komisija v svojem sporočilu o evropski strategiji za podatke in katerega cilj je spodbujanje izmenjave zdravstvenih podatkov in podpiranje raziskav ob polnem spoštovanju varstva podatkov, vključno z obdelavo podatkov s tehnologijo umetne inteligence, ter ki krepi in razširja uporabo in ponovno uporabo zdravstvenih podatkov; spodbuja razširitev čezmejne izmenjave zdravstvenih podatkov, njihovo povezovanje in uporabo posebnih vrst zdravstvenih informacij, kot so evropski zdravstveni zapisi, genomske informacije in digitalne zdravstvene slike, prek varnih, združenih repozitorijev, da bi omogočili vseevropske interoperabilne registre ali podatkovne zbirke na področjih, kot so raziskovalni, znanstveni in zdravstveni sektor;

    62.

    poudarja koristi umetne inteligence za preprečevanje, zdravljenje in obvladovanje bolezni, na kar kaže to, da je umetna inteligenca napovedala pandemijo COVID-19 pred Svetovno zdravstveno organizacijo; poziva Komisijo, naj za Evropski center za preprečevanje in obvladovanje bolezni zagotovi regulativni okvir in vire za neodvisno zbiranje potrebnih anonimiziranih globalnih zdravstvenih podatkov v realnem času v sodelovanju z državami članicami, med drugim za reševanje vprašanj, ki jih je razkrila kriza zaradi pandemije COVID-19;

    Zasebnost in biometrično prepoznavanje

    63.

    ugotavlja, da se zaradi razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije hitro povečujeta pridobivanje in uporaba podatkov, vključno z osebnimi podatki, kot so biometrični podatki, kar poudarja potrebo po spoštovanju in zagotavljanju pravic državljanov do zasebnosti in varstva osebnih podatkov v skladu s pravom Unije;

    64.

    poudarja, da te tehnologije omogočajo uporabo osebnih in neosebnih podatkov za kategorizacijo ljudi in izjemno natančno ciljno usmerjanje nanje, prepoznavanje ranljivosti posameznikov ter izkoriščanje natančnega napovednega znanja, zato je potrebna protiutež v obliki učinkovitega izvrševanja načel varstva podatkov in zasebnosti, kot so najmanjši obseg podatkov, pravica do ugovora oblikovanju profila in do nadzora nad lastnimi podatki, pravica do pojasnila o odločitvi, sprejeti na podlagi avtomatizirane obdelave, in vgrajena zasebnost, pa tudi načel sorazmernosti, nujnosti in omejitve glede na strogo opredeljen namen v skladu s Splošno uredba o varstvu podatkov;

    65.

    poudarja, da bi morala, kadar javni organi uporabljajo tehnologije prepoznavanja na daljavo, kot je prepoznavanje biometričnih značilnosti, zlasti prepoznavanje obraza, za namene bistvenega javnega interesa, biti ta uporaba vedno razkrita, sorazmerna, ciljno usmerjena in omejena na posebne cilje, časovno omejena v skladu s pravom Unije ter ustrezno upoštevati človekovo dostojanstvo in avtonomijo ter temeljne pravice iz Listine. Za ta merila in omejitve bi morala veljati sodni pregled in demokratični nadzor ter bi morala upoštevati psihološki in družbeno-kulturni vpliv na civilno družbo;

    66.

    poudarja, da lahko uvedba umetne inteligence, robotike in sorodne tehnologije v okviru odločitev javne oblasti, ki sicer ima koristi, privede do hudih zlorab, kot so množični nadzor, napovedno policijsko delo in kršitve procesnih pravic;

    67.

    meni, da bi bilo treba tehnologije, ki lahko sprejemajo avtomatizirane odločitve in tako nadomestijo odločitve javnih oblasti, obravnavati izredno previdno, zlasti na področju pravosodja in kazenskega pregona;

    68.

    meni, da bi morale države članice uporabljati te tehnologije le, če obstaja trden dokaz, da so zanesljive, in da sta v primerih, povezanih s temeljnimi pravicami, mogoča človeško posredovanje in pregled oziroma da potekata sistematično; poudarja, kako pomembno je, da nacionalni organi izvedejo strogo oceno učinka na temeljne pravice za sisteme umetne inteligence, ki se uporabljajo v teh primerih, zlasti po oceni teh tehnologij kot tehnologij z visokim tveganjem;

    69.

    meni, da bi morala za vsako odločitev, ki jo sprejmejo umetna inteligenca, robotika ali sorodna tehnologija v okviru pristojnosti javne oblasti, veljati smiselno človeško posredovanje in dolžno pravno postopanje, zlasti po oceni teh tehnologij kot tehnologij z visokim tveganjem;

    70.

    verjame, da tehnološki napredek ne bi smel privesti do uporabe umetne inteligence, robotike in sorodne tehnologije za avtomatizirano sprejemanje odločitev javnega sektorja, ki neposredno in pomembno vplivajo na pravice in obveznosti državljanov;

    71.

    ugotavlja, da bi umetna inteligenca, robotika in sorodna tehnologija na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter nadzora meja lahko izboljšale javno varnost in zaščito, vendar so potrebni tudi obsežen in strog javni nadzor ter najvišja možna raven preglednosti, kar zadeva oceno tveganja posameznih aplikacij, pa tudi splošni pregled uporabe umetne inteligence, robotike in sorodne tehnologije na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter nadzora meja; meni, da te tehnologije prinašajo precejšnja etična tveganja, ki jih je treba ustrezno obravnavati, ob upoštevanju morebitnih škodljivih učinkov na posameznike, zlasti v zvezi z njihovimi pravicami do zasebnosti, varstva podatkov in nediskriminacije; poudarja, da lahko njihova zloraba neposredno ogrozi demokracijo ter da je treba pri njihovi uvedbi in uporabi spoštovati načeli sorazmernosti in nujnosti, Listino o temeljnih pravicah kot tudi ustrezno sekundarno pravo Unije, kot so predpisi o varstvu podatkov; poudarja, da umetna inteligenca ne bi smela nikoli nadomestiti ljudi pri izrekanju sodb; meni, da morajo odločitve, kot so odobritev varščine ali pogojnega odpusta, ki se obravnavajo na sodišču, ali odločitve, ki temeljijo izključno na avtomatizirani obdelavi in imajo pravni učinek za posameznike ali znatno vplivajo nanje, vedno vključevati smiselno oceno in sodbo človeka;

    Dobro upravljanje

    72.

    poudarja, da se lahko z ustreznim upravljanjem razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije, zlasti tehnologij z visokim tveganjem, z ukrepi za prevzemanje odgovornosti ter obravnavo možnih tveganj pristranskosti in diskriminacije, povečata varnost državljanov in njihovo zaupanje v te tehnologije;

    73.

    meni, da bi skupni okvir za upravljanje teh tehnologij, ki bi ga usklajevali Komisija in/ali vse ustrezne institucije, organi, uradi ali agencije Unije, ki bi jim lahko bila v zvezi s tem zaupana ta naloga, in bi ga izvajali nacionalni nadzorni organi v vsaki državi članici, zagotovil skladen pristop Unije in preprečil razdrobljenost enotnega trga;

    74.

    ugotavlja, da se pri razvoju umetne inteligence, robotike in sorodne tehnologije uporablja veliko podatkov ter da je treba obdelavo in izmenjavo teh podatkov ter dostop do njih in njihovo uporabo urejati v skladu z zakonom in tam določenimi zahtevami glede kakovosti, verodostojnosti, interoperabilnosti, preglednosti, varnosti, zasebnosti in nadzora;

    75.

    opozarja, da je dostop do podatkov bistven za rast digitalnega gospodarstva; v zvezi s tem poudarja, da ima interoperabilnost podatkov z omejevanjem učinkov vezave ključno vlogo pri zagotavljanju poštenih tržnih pogojev in spodbujanju enakih konkurenčnih pogojev na enotnem digitalnem trgu;

    76.

    poudarja, da je treba zagotoviti ustrezno varstvo osebnih podatkov, zlasti podatkov o ranljivih skupinah, kot so invalidi, bolniki, otroci, starejši, manjšine, migranti in druge skupine, ki jim grozi izključenost;

    77.

    ugotavlja, da javni organi razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije pogosto oddajo v zunanje izvajanje zasebnim strankam; meni, da to nikakor ne bi smelo ogroziti varstva javnih vrednot in temeljnih pravic; meni, da bi morali pogoji za javna naročila odražati etične standarde, ki veljajo za javne organe, kadar je to primerno;

    Potrošniki in notranji trg

    78.

    poudarja, kako pomembno je, da se regulativni okvir za umetno inteligenco uporablja, ko so uporabniki algoritemskega sistema potrošniki v Uniji, ta zanje velja ali so usmerjeni na njega, ne glede na sedež subjektov, ki razvijajo, prodajajo ali uporabljajo sistem; poleg tega meni, da bi se morala zaradi pravne varnosti pravila, določena v tem okviru, uporabljati za vse razvijalce in v celotni vrednostni verigi, in sicer za razvoj, uvedbo in uporabo teh tehnologij in njihovih sestavnih delov, in bi morala zagotavljati visoko raven varstva potrošnikov;

    79.

    opozarja na neločljivo povezavo med umetno inteligenco, robotiko in sorodno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih uporabljajo ali proizvajajo te tehnologije, ter področji, kot so internet stvari, strojno učenje, na pravilih temelječi sistemi ali avtomatizirani in podprti postopki odločanja; ugotavlja tudi, da bi bilo mogoče oblikovati standardizirane ikone, ki bi pomagale pojasniti te sisteme potrošnikom, kadar je za te sisteme značilna zapletenost ali jim je omogočeno sprejemanje odločitev, ki pomembno vplivajo na življenje potrošnikov;

    80.

    želi spomniti, da bi morala Komisija preučiti obstoječi pravni okvir in njegovo uporabo, vključno s pravnim redom na področju varstva potrošnikov, zakonodajo o odgovornosti za proizvode in zakonodajo o nadzoru trga, da bi odkrila pravne vrzeli, pa tudi opredelila veljavne regulativne obveznosti; meni, da je to nujno, da bi ugotovili, ali se je mogoče s tem okvirom odzvati na nove izzive, ki jih prinaša pojav umetne inteligence, robotike in sorodne tehnologije, in zagotoviti visoko raven varstva potrošnikov;

    81.

    poudarja, da je treba učinkovito obravnavati izzive, ki jih prinašajo umetna inteligenca, robotika in sorodna tehnologija, in zagotoviti, da je vloga potrošnikov okrepljena in so ustrezno zaščiteni; poudarja, da je treba preseči tradicionalna načela obveščanja in razkritja, na katerih temelji pravni red o varstvu potrošnikov, ker bo treba okrepiti pravice potrošnikov in določiti jasne omejitve razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije, da bo ta tehnologija prispevala k izboljšanju življenja potrošnikov in se razvijala na način, ki bo spoštoval temeljne pravice in pravice potrošnika ter evropske vrednote;

    82.

    poudarja, da zakonodajni okvir, uveden s Sklepom št. 768/2008/ES (14), določa usklajen seznam obveznosti za proizvajalce, uvoznike in distributerje, spodbuja uporabo standardov in omogoča več ravni nadzora glede na nevarnost proizvoda; meni, da bi moral ta okvir veljati tudi za proizvode z vgrajeno umetno inteligenco;

    83.

    ugotavlja, da bi se lahko za analizo učinkov umetne inteligence, robotike in sorodne tehnologije na potrošnike dostop do podatkov ob popolnem spoštovanju prava Unije, kot je pravo o varstvu podatkov, zasebnosti in poslovnih skrivnostih, razširil na nacionalne pristojne organe; opozarja na pomen izobraževanja potrošnikov, da bodo bolje seznanjeni z umetno inteligenco, robotiko in sorodno tehnologijo in vešči upravljanja z njimi, da bi jih zaščitili pred morebitnimi tveganji in spoštovali njihove pravice;

    84.

    poziva Komisijo, naj predlaga ukrepe za sledljivost podatkov, pri čemer naj upošteva zakonitost pridobivanja podatkov ter varstvo pravic potrošnikov in temeljnih pravic, hkrati pa v celoti spoštuje pravo Unije, kot je zakonodaja o varstvu podatkov, zasebnosti, pravicah intelektualne lastnine in poslovnih skrivnostih;

    85.

    ugotavlja, da bi morale biti te tehnologije usmerjene na uporabnika in zasnovane tako, da bi lahko produkte ali storitve umetne inteligence uporabljal vsak ne glede na starost, spol, sposobnosti ali značilnosti; ugotavlja, da je še posebej pomembna njihova dostopnost za invalide; ugotavlja, da ne bi smelo biti enotnega pristopa za vse in bi bilo treba upoštevati načela univerzalnega oblikovanja, ki nagovarja čim širši krog uporabnikov, in ustrezne standarde dostopnosti; poudarja, da bo to posameznikom omogočilo enakopraven dostop in dejavno udeležbo pri obstoječih in nastajajočih človekovih dejavnostih z računalniško pomočjo ter pri podpornih tehnologijah.

    86.

    poudarja, da bi v primeru, ko sredstva iz javnih virov znatno prispevajo k razvoju, uvedbi ali uporabi umetne inteligence, robotike in sorodne tehnologije, skupaj z odprtim javnim naročanjem in standardi odprtih naročil, veljalo razmisliti o možnosti, da bi postali koda, ustvarjeni podatki – če niso osebni – in naučen model privzeto javni po dogovoru z razvijalcem, da bi zagotovili preglednost, okrepili kibernetsko varnost ter omogočili njihovo ponovno uporabo, da bi tako spodbudili inovacije; poudarja, da bi lahko tako v celoti izkoristili potencial enotnega trga in preprečili razdrobljenost trga;

    87.

    meni, da imajo umetna inteligenca, robotika in sorodna tehnologija ogromen potencial, da potrošnikom zagotovijo dostop do številnih ugodnosti v mnogih vidikih njihovega življenja, skupaj z boljšimi izdelki in storitvami, ter koristi boljšega nadzora trga, pod pogojem, da se še naprej uporabljajo vsa veljavna načela, pogoji, vključno s preglednostjo in možnostjo revizije, in ureditve;

    Varnost in obramba

    88.

    poudarja, da varnostne in obrambne politike Evropske unije in njenih držav članic temeljijo na načelih, zapisanih v Listini in Ustanovni listini Organizacije združenih narodov in na skupnem razumevanju univerzalnih vrednot spoštovanja nedotakljivosti in neodtujljivosti človekovih pravic, človekovega dostojanstva, svobode, demokracije, enakosti in pravne države; poudarja, da je treba pri vseh prizadevanjih na obrambnem področju v okviru Unije spoštovati te univerzalne vrednote, hkrati pa spodbujati mir, varnost in napredek v Evropi in svetu;

    89.

    pozdravlja, da je bilo na srečanju pogodbenic Konvencije OZN o nekaterih vrstah klasičnega orožja leta 2019 sprejetih 11 vodilnih načel za razvoj in uporabo avtonomnih orožnih sistemov; vendar obžaluje, da ni prišlo do dogovora o pravno zavezujočem instrumentu, ki bi smrtonosne avtonomne orožne sisteme urejal z učinkovitim mehanizmom izvrševanja; pozdravlja in podpira poročilo strokovne skupine Komisije na visoki ravni za umetno inteligenco z dne 9. aprila 2019 z naslovom Etične smernice za zaupanja vredno umetno inteligenco, in njeno stališče o smrtonosnih avtonomnih orožnih sistemih; poziva države članice, naj razvijejo nacionalne strategije za opredelitev in status smrtonosnih avtonomnih orožnih sistemov, ki bi vodile k celoviti strategiji na ravni Unije, ter skupaj z visokim predstavnikom Unije/podpredsednikom Komisije in Svetom spodbujajo razprave o teh sistemih v okviru konvencije OZN o klasičnem orožju in v drugih ustreznih forumih ter vzpostavitev mednarodnih norm glede etičnih in pravnih parametrov razvoja in uporabe popolnoma avtonomnih, polavtonomnih in daljinsko vodenih smrtonosnih orožnih sistemov; pri tem opozarja na svojo resolucijo o smrtonosnih avtonomnih orožnih sistemih z dne 12. septembra 2018 in v skladu z izjavo najuglednejših raziskovalcev umetne inteligence v odprtem pismu iz leta 2015 ponovno poziva k nujnemu oblikovanju in sprejetju skupnega stališča o smrtonosnih avtonomnih orožnih sistemih, mednarodni prepovedi razvoja, proizvodnje in uporabe smrtonosnih avtonomnih orožnih sistemov, ki omogočajo izvedbo napadov brez smiselnega človeškega nadzora in brez spoštovanja načela vključenosti človeka; pozdravlja dogovor Sveta in Parlamenta o izključitvi smrtonosnega avtonomnega orožja „brez možnosti smiselnega človeškega nadzora nad odločitvami o izbiri in sodelovanju pri izvajanju napadov“ iz ukrepov, ki se financirajo iz Evropskega obrambnega sklada; meni, da ne smemo prezreti etičnih vidikov drugih področij uporabe umetne inteligence v obrambi, kot so obveščanje, nadzor, izvidovanje in kibernetske operacije, posebno pozornost pa je treba nameniti razvoju in uporabi dronov pri vojaških operacijah;

    90.

    poudarja, da bi bilo treba nastajajoče tehnologije v sektorju varnosti in obrambe, ki jih ne ureja mednarodno pravo, presojati ob upoštevanju načela spoštovanja človečnosti in meril javne vesti;

    91.

    priporoča, da mora vsak evropski okvir, ki ureja uporabo sistemov umetne inteligence na področju obrambe, v bojnih in nebojnih situacijah spoštovati vse veljavne pravne ureditve, zlasti mednarodno humanitarno pravo in mednarodno pravo o človekovih pravicah, ter biti skladen s pravom, načeli in vrednotami Unije, pri tem pa upošteva razlike v smislu tehnične in varnostne infrastrukture v vsej Uniji;

    92.

    priznava, da bi lahko kritične inovacije na področju umetne inteligence za razliko od industrijskih baz obrambe prihajale iz majhnih držav članic, zato bi moral standardiziran pristop SVOP preprečiti izpodrivanje manjših držav članic ter malih in srednjih podjetij; poudarja, da lahko sklop skupnih zmogljivosti EU na področju umetne inteligence, usklajen z operativnimi zasnovami držav članic, zapolni tehnične vrzeli, zaradi katerih bi lahko bile izključene države, ki nimajo ustrezne tehnologije, strokovnega znanja ali sposobnosti za uporabo sistemov umetne inteligence v svojih ministrstvih za obrambo;

    93.

    meni, da bodo sedanje in prihodnje dejavnosti v okviru Unije, povezane z varnostjo in obrambo, temeljile na umetni inteligenci, robotiki in avtonomiji ter na sorodni tehnologiji, in da lahko zanesljiva, stabilna in zaupanja vredna umetna inteligenca prispeva k sodobni in učinkoviti vojski; zato mora Unija prevzeti vodilno vlogo pri raziskavah in razvoju sistemov umetne inteligence na področju varnosti in obrambe; meni, da bi lahko uporaba aplikacij umetne inteligence za varnost in obrambo prinesla številne neposredne koristi poveljnikom operacij, kot so podatki višje kakovosti, večja ozaveščenost o razmerah, hitrejše sprejemanje odločitev, manjše tveganje postranske škode zaradi boljših omrežnih povezav, zaščita sil na terenu in večja zanesljivost vojaške opreme, s tem pa manjše tveganje za ljudi in človeške žrtve; poudarja, da je razvoj zanesljive umetne inteligence na področju obrambe bistven za zagotavljanje evropske strateške neodvisnosti na področju zmogljivosti in operacij; opozarja, da sistemi umetne inteligence postajajo tudi ključni elementi v boju proti novim varnostnim grožnjam, kot je kibernetsko in hibridno vojskovanje na spletu in drugje; hkrati poudarja vsa tveganja in izzive neurejene uporabe umetne inteligence; ugotavlja, da bi bila lahko umetna inteligenca izpostavljena manipulacijam, napakam in nepravilnostim;

    94.

    poudarja, da so tehnologije umetne inteligence v bistvu namenjene dvojni rabi, izmenjava med vojaško in civilno tehnologijo pa prinaša koristi razvoju umetne inteligence za potrebe dejavnosti, vezanih na obrambo; poudarja, da je umetna inteligenca v dejavnostih, povezanih z obrambo, prelomna tehnologija, katere razvoj je lahko priložnost za konkurenčnost in strateško avtonomijo Unije;

    95.

    priznava, da sta lahko v sedanjem okviru hibridnega in naprednega vojskovanja obseg in hitrost informacij v zgodnjih fazah krize neobvladljiva za človeške analitike in da bi lahko informacije obdeloval sistem umetne inteligence, da bi zagotovili, da nosilci odločanja spremljajo vse informacije v ustreznem časovnem okviru za hiter odziv;

    96.

    poudarja pomen naložb v razvoj človeškega kapitala za umetno inteligenco, spodbujanja potrebnih spretnosti in znanja ter usposabljanja na področju varnostnih in obrambnih tehnologij umetne inteligence s posebnim poudarkom na etiki polavtonomnih in avtonomnih operativnih sistemov, ki temeljijo na človeški odgovornosti v svetu umetne inteligence; poudarja zlasti, kako pomembno je, da se etikom na tem področju zagotovijo ustrezne spretnosti in znanja ter usposabljanje; poziva Evropsko komisijo, naj čim prej predstavi svojo agendo za okrepitev spretnosti in znanj, ki jo je 19. februarja 2020 napovedala v beli knjigi o umetni inteligenci;

    97.

    poudarja, da bi bilo lahko kvantno računalništvo najbolj revolucionarna sprememba pri vojskovanju od uvedbe jedrskega orožja, zato poziva, naj bo nadaljnji razvoj tehnologij kvantnega računalništva prednostna naloge Unije in držav članic; priznava, da bodo agresivna dejanja s pomočjo kvantnega računalništva, vključno z napadi na kritično infrastrukturo, ustvarila konfliktno okolje, v katerem se bo čas za odločanje iz dni in ur dramatično skrčil na minute in sekunde in države članice prisilil v razvoj zmogljivosti za lastno zaščito in usposabljanje odločevalcev in vojaškega osebja, da se bodo lahko učinkovito odzivali v teh časovnih okvirih;

    98.

    poziva k večjim naložbam v evropsko umetno inteligenco na področju obrambe in v kritično infrastrukturo, potrebno za ta namen;

    99.

    opozarja, da je večina sedanjih vojaških sil po svetu že veliko vložila v raziskave in razvoj vojaške razsežnosti umetne inteligence; meni, da mora Unija zagotoviti, da pri tem ne bo zaostajala;

    100.

    poziva Komisijo, naj v svojo industrijsko politiko vključi krepitev zmogljivosti na področju kibernetske varnosti, da zagotovi razvoj in uvedbo varnih, odpornih in trdnih sistemov umetne inteligence in robotike; poziva Komisijo, naj preuči možnost uporabe protokolov in aplikacij na področju kibernetske varnosti, ki temeljijo na blokovnih verigah, da bi izboljšali odpornost, zanesljivost in trdnost infrastruktur umetne inteligence z neposredniškimi modeli šifriranja podatkov; spodbuja evropske deležnike, naj raziščejo in izdelajo napredne možnosti za odkrivanje koruptnih in zlonamernih sistemov umetne inteligence in robotike, ki bi lahko spodkopavali varnost Unije in državljanov;

    101.

    poudarja, da morajo imeti vsi sistemi umetne inteligence na področju obrambe konkreten in dobro opredeljen okvir, pri čemer mora človek ohraniti funkcijo, da odkrije in odpokliče ali dezaktivira uporabljene sisteme, če presežejo okvir nalog, ki so bile opredeljene in dodeljene na človeški ukaz, ali začnejo kakršne koli dodatne ali nenamerne dejavnosti; meni, da bi morali biti sistemi, izdelki in tehnologija umetne inteligence za uporabo v vojaške namene opremljeni s „črno skrinjico“ za beleženje vseh prenosov podatkov, ki jih stroj izvede;

    102.

    poudarja, da morajo vso odgovornost za odločitev o zasnovi, razvoju, napotitvi in uporabi sistemov umetne inteligence nositi človeški upravljavci, prav tako mora človek smiselno spremljati in nadzorovati orožne sisteme, za odločitvijo o uporabi sile pri izvrševanju katere koli odločitve orožnega sistema, ki temelji na umetni inteligenci, pa mora biti človeška namera; poudarja, da bi moral nadzor človeka po načelih, da je človek vključen, da človek vodi in da človek poveljuje, veljati za vse upravljanje in nadzor na ravni vojaškega poveljstva; poudarja, da morajo sistemi umetne inteligence, omogočiti, da vojaško vodstvo vojske prevzame popolno odgovornost za uporabo smrtonosne sile in izvaja ustrezno raven presoje, ki je ni mogoče prepustiti strojem, saj mora temeljiti na razlikovanju, sorazmernosti in previdnosti, za izvajanje smrtonosnih ali obsežnih uničevalnih ukrepov s pomočjo teh sistemov; poudarja, da je treba vzpostaviti jasne in sledljive okvire glede odobritve in odgovornosti za uporabo pametnega orožja in drugih sistemov umetne inteligence, pri čemer se s pomočjo edinstvenih uporabniških značilnosti, kot so biometrične specifikacije, njihova uporaba omogoči izključno pooblaščenemu osebju;

    Promet

    103.

    poudarja potencial uporabe umetne inteligence, robotike in sorodne tehnologije za vse avtonomne načine prevoza po cesti, železnici, vodi in zraku in tudi za spodbujanje prehoda na druge oblike prevoza in intermodalnosti, saj lahko te tehnologije prispevajo k iskanju optimalne kombinacije načinov prevoza za prevoz blaga in potnikov; nadalje poudarja, da lahko povečajo učinkovitost prometa, logistike in prometnih tokov ter naredijo vse načine prevoza varnejše, pametnejše in okolju prijaznejše; poudarja, da je etični pristop k umetni inteligenci mogoče obravnavati tudi kot sistem zgodnjega opozarjanja, zlasti glede varnosti in učinkovitosti prometa;

    104.

    poudarja, da mora zaradi svetovne konkurence med podjetji in gospodarskimi regijami Unije spodbujati naložbe in krepiti mednarodno konkurenčnost podjetij, ki delujejo v prometnem sektorju, tako da vzpostavi ugodno okolje za razvoj in uporabo rešitev umetne inteligence in drugih inovacij, v katerem lahko postanejo podjetja s sedežem v Uniji vodilna v svetu na področju razvoja tehnologij umetne inteligence;

    105.

    poudarja, da prometni sektor Unije potrebuje posodobitev regulativnega okvira glede teh nastajajočih tehnologij in njihove uporabe v prometnem sektorju ter jasen etični okvir za doseganje zaupanja vredne umetne inteligence, vključno z vidiki varnosti, zaščite, spoštovanja neodvisnosti človeka, nadzora in odgovornosti, ki bodo koristni za vse in bodo ključni za spodbujanje naložb v raziskave in inovacije, razvoj spretnosti ter uvajanje umetne inteligence v javnih storitvah, malih in srednjih podjetjih ter zagonskih in drugih podjetjih, ter za zagotavljanje varstva podatkov in interoperabilnosti, pri tem pa se ne bo naložilo nepotrebno upravno breme podjetjem in potrošnikom;

    106.

    ugotavlja, da razvoj in uvedba umetne inteligence v prometnem sektorju ne bosta mogoča brez moderne infrastrukture, ki je nujen del pametnih prevoznih sistemov; poudarja, da obstaja zaradi obstoječih razlik v stopnji razvoja držav članic tveganje, da bodo najmanj razvite regije in njihovi prebivalci prikrajšani za koristi razvoja avtonomne mobilnosti; poziva k zadostnemu financiranju modernizacije prometne infrastrukture v Uniji, tudi njenega vključevanja v omrežje 5G;

    107.

    priporoča oblikovanje zaupanja vrednih standardov za umetno inteligenco na ravni Unije za vse načine prevoza, vključno z avtomobilsko industrijo, ter za preskušanje vozil z umetno inteligenco in z njimi povezanih izdelkov in storitev;

    108.

    ugotavlja, da bi lahko sistemi umetne inteligence prispevali k znatnemu zmanjšanju števila smrtnih žrtev v cestnem prometu, na primer z boljšim odzivnim časom in boljšim upoštevanjem pravil; kljub temu meni, da uporaba avtonomnih vozil ne bo mogla odpraviti vseh nesreč, in poudarja, da je zato razložljivost odločitev umetne inteligence vse pomembnejša, da bi utemeljili njihove pomanjkljivosti in nenamerne posledice;

    Zaposlovanje, pravice delavcev, digitalne spretnosti in znanja ter delovno mesto

    109.

    ugotavlja, da lahko uporaba umetne inteligence, robotike in sorodne tehnologije na delovnem mestu prispeva k vključujočim trgom dela ter izboljšanju varnosti in zdravja pri delu, hkrati pa se lahko uporablja tudi za spremljanje, ocenjevanje, napovedovanje in usmerjanje uspešnosti delavcev, kar ima neposredne in posredne posledice za njihovo poklicno pot; ker bi morala umetna inteligenca pozitivno vplivati na delovne pogoje in temeljiti na spoštovanju človekovih pravic ter temeljnih pravic in vrednot Unije; ker bi morala biti umetna inteligenca osredotočena na človeka, povečati blaginjo ljudi in družbe ter prispevati k poštenemu in pravičnemu prehodu; zato bi morale te tehnologije pozitivno vplivati na delovne pogoje in temeljiti na spoštovanju človekovih pravic ter temeljnih pravic in vrednot Unije;

    110.

    poudarja potrebo po razvoju kompetenc z usposabljanjem in izobraževanjem delavcev in njihovih predstavnikov v zvezi z umetno inteligenco na delovnem mestu, da bi bolje razumeli posledice rešitev umetne inteligence; poudarja, da bi morali biti kandidati in delavci v primeru uporabe umetne inteligence med postopkom zaposlovanja in v drugih odločitvah na kadrovskem področju o tem ustrezno pisno obveščeni in seznanjeni, kako lahko zahtevajo pregled človeka, da bi dosegli razveljavitev avtomatizirane odločitve;

    111.

    poudarja, da je treba zagotoviti, da izboljšanje produktivnosti zaradi uvedbe in uporabe umetne inteligence in robotike ne bo koristilo samo lastnikom podjetij in delničarjem, temveč tudi podjetjem in delovni sili, in sicer prek boljših delovnih in zaposlitvenih pogojev, vštevši plače, povečalo gospodarsko rast in razvoj ter koristilo vsej družbi, zlasti kadar se to izboljšanje doseže na račun delovnih mest; poziva države članice, naj skrbno preučijo morebiten vpliv umetne inteligence na trg dela in sisteme socialne varnosti ter razvijejo strategije za zagotavljanje dolgoročne stabilnosti z reformo davkov in prispevkov ter drugimi ukrepi v primeru manjših javnih prihodkov;

    112.

    poudarja pomen naložb podjetij v formalno in neformalno usposabljanje ter vseživljenjsko učenje, da bi podprli pravičen prehod na digitalno gospodarstvo; v zvezi s tem poudarja, da so podjetja, ki uporabljajo umetno inteligenco, odgovorna za zagotavljanje ustreznega preusposabljanja in izpopolnjevanja za vse zadevne zaposlene, da bi se naučili uporabljati digitalna orodja in delati s sodelovalnimi roboti in drugimi novimi tehnologijami, s čimer bi se prilagodili spreminjajočim se potrebam trga dela in ostali zaposleni;

    113.

    meni, da bi bilo treba posebno pozornost nameniti novim oblikam dela, kot sta priložnostno in platformno delo, ki izhajajo iz uporabe novih tehnologij v tem okviru; poudarja, da morata ureditev pogojev dela na daljavo po vsej Uniji ter zagotovitev dostojnih delovnih in zaposlitvenih pogojev v digitalnem gospodarstvu upoštevati tudi učinek umetne inteligence; poziva Komisijo, naj se v zvezi s tem posvetuje s socialnimi partnerji, razvijalci umetne inteligence, raziskovalci in drugimi deležniki;

    114.

    poudarja, da umetna inteligenca, robotika in sorodna tehnologija nikakor ne smejo vplivati na izvajanje temeljnih pravic, kot so priznane v državah članicah in na ravni Unije, tudi pravice do stavke ali sprejemanja drugih ukrepov, zajetih v specifičnih sistemih odnosov med delodajalci in delojemalci v državah članicah, v skladu z nacionalnim pravom in/ali prakso, niti vplivati na pravico do pogajanja o kolektivnih pogodbah, njihovega sklepanja in izvrševanja ali na pravico do sprejemanja kolektivnih ukrepov v skladu z nacionalnim pravom in/ali prakso;

    115.

    ponovno poudarja pomen izobraževanja in stalnega učenja za razvoj kvalifikacij, potrebnih v digitalni dobi, in za preprečevanje digitalne izključenosti; poziva države članice, naj vlagajo v visoko kakovostne, odzivne in vključujoče sisteme izobraževanja, poklicnega usposabljanja in vseživljenjskega učenja ter v politike preusposabljanja in izpopolnjevanja delavcev v panogah, na katere bi lahko umetna inteligenca močno vplivala; poudarja, da je treba sedanji in prihodnji delovni sili zagotoviti potrebne bralne, matematične in digitalne spretnosti in znanja na področju naravoslovja, tehnologije, inženirstva in matematike ter medsektorske mehke veščine, kot so kritično razmišljanje, ustvarjalnost in podjetništvo; poudarja, da je treba v zvezi s tem posebno pozornost nameniti vključevanju prikrajšanih skupin;

    116.

    opozarja, da morajo biti umetna inteligenca, robotika in sorodna tehnologija, ki se uporabljajo na delovnem mestu, dostopne vsem na podlagi načel oblikovanja za vse;

    Izobraževanje in kultura

    117.

    poudarja, da je treba oblikovati merila za razvoj, uvedbo in uporabo umetne inteligence ob upoštevanju vpliva na izobraževalni, medijski, mladinski, raziskovalni, športni ter kulturni in ustvarjalni sektor, za kar je treba določiti standarde in načela za etično odgovorno in sprejeto uporabo tehnologij umetne inteligence, ki jih je mogoče ustrezno uporabljati na teh področjih, vključno z jasno ureditvijo odgovornosti za izdelke, ki so produkt uporabe umetne inteligence;

    118.

    ugotavlja, da ima vsak otrok pravico do kakovostnega javnega izobraževanja na vseh ravneh; zato poziva k razvoju, uvedbi in uporabi kakovostnih sistemov umetne inteligence, ki bodo omogočali in zagotavljali kakovostna izobraževalna orodja za vse na vseh ravneh, in poudarja, da se z uvedbo novih sistemov umetne inteligence v šolah ne bi smela povečati digitalna vrzel v družbi; se zaveda, da lahko umetna inteligenca in robotika veliko prispevata k izobraževanju; ugotavlja, da personalizirani učni sistemi umetne inteligence ne bi smeli nadomestiti izobraževalnih odnosov, v katerih sodelujejo učitelji, in da ne bi smeli zapostaviti tradicionalnih oblik izobraževanja, obenem pa opozarja, da je treba učiteljem, ki želijo pridobiti ustrezne spretnosti in znanja, zagotoviti finančno, tehnološko in izobraževalno podporo, vključno s specializiranim usposabljanjem na področju informacijske in komunikacijske tehnologije, da se bodo lahko prilagodili tehnološkim spremembam in ne samo izkoristili potencial umetne inteligence, ampak tudi razumeli njene omejitve; poziva k razvoju strategije na ravni Unije, da bi preobrazili in posodobili naše izobraževalne sisteme in pripravili naše izobraževalne ustanove na vseh ravneh, učitelje in učence pa opremili s potrebnimi znanji in spretnostmi;

    119.

    poudarja, da bi si morale izobraževalne ustanove prizadevati, da za namene izobraževanja uporabljajo sisteme umetne inteligence, ki so prejeli evropsko potrdilo o etični skladnosti;

    120.

    poudarja, da zaradi priložnosti, ki jih prinašajo digitalizacija in nove tehnologije, ne sme priti do splošne izgube delovnih mest v kulturnem in ustvarjalnem sektorju, zanemarjanja ohranjanja izvirnikov ali zmanjševanja tradicionalnega dostopa do kulturne dediščine, ki bi ga bilo treba prav tako spodbujati; opominja, da bi morali sistemi umetne inteligence, ki se razvijejo, uvedejo in uporabljajo v Uniji, odražati njeno kulturno raznolikost in večjezičnost;

    121.

    priznava, da ima umetna inteligenca vse večji potencial na področju obveščanja in medijev ter spletnih platform tudi kot orodje v boju proti dezinformacijam v skladu s pravom Unije; poudarja, da so lahko njene posledice tudi etično škodljive, če se to področje zakonsko ne uredi, saj se lahko z izkoriščanjem pristranskosti podatkov in algoritmov povzročijo širjenje dezinformacij in ustvarjanje informacijskih mehurčkov; poudarja pomen preglednosti in odgovornosti, kar zadeva algoritme, ki jih uporabljajo platforme za izmenjavo videov in platforme za pretakanje videoposnetkov, da se zagotovi dostop do kulturno in jezikovno raznolikih vsebin;

    Nacionalni nadzorni organi

    122.

    je seznanjen z dodano vrednost imenovanja nacionalnih nadzornih organov v vsaki državi članici, odgovornih za zagotavljanje, ocenjevanje in spremljanje skladnosti s pravnimi obveznostmi in etičnimi načeli za razvoj, uvajanje in uporabo umetne inteligence z visokim tveganjem, robotike in sorodnih tehnologij, s čimer prispeva k pravni in etični skladnosti teh tehnologij;

    123.

    meni, da morajo ti organi, ne da bi podvajali svoje naloge, sodelovati z organi, pristojnimi za izvajanje sektorske zakonodaje, da bi opredelili tehnologije, ki z etičnega vidika pomenijo veliko tveganje, in nadzorovali izvajanje potrebnih in ustreznih ukrepov za tako opredeljene tehnologije;

    124.

    meni, da bi se morali ti organi povezovati ne le med sabo, ampak tudi z Evropsko komisijo ter drugimi ustreznimi institucijami, organi, uradi in agencijami Unije, da bi zagotovili skladno čezmejno ukrepanje;

    125.

    predlaga, naj se v okviru tega sodelovanja oblikujejo skupna merila in prijavni postopek za podelitev evropskega certifikata skladnosti z etičnimi standardi, tudi za prošnje razvijalcev, uvajalcev ali uporabnikov, ki želijo za tehnologijo, ki ne velja za visoko tvegano, pridobiti certifikat o pozitivni oceni skladnosti, ki jo opravi ustrezni nacionalni nadzorni organ;

    126.

    poziva, naj bo ena od nalog teh organov spodbujanje rednih izmenjav s civilno družbo in inovacij v Uniji, tako da se raziskovalcem, razvijalcem in drugim deležnikom na tem področju, pa tudi digitalno manj razvitim podjetjem, zlasti malim in srednjim ter zagonskim podjetjem, zagotovi pomoč; poziva, naj bo ta pomoč zlasti v obliki ozaveščanja in podpore pri razvoju, uvajanju, usposabljanju in pridobivanju talentov, da se zagotovita učinkovit prenos tehnologije ter dostop do tehnologij, projektov, rezultatov in omrežij;

    127.

    poziva, naj vsaka država članica zagotovi zadostno financiranje svojih imenovanih nacionalnih nadzornih organov, in poudarja, da je treba nacionalne organe za nadzor trga okrepiti v smislu zmogljivosti, znanj in spretnosti ter kompetenc, pa tudi v smislu poznavanja posebnih tveganj, povezanih z umetno inteligenco, robotiko in sorodnimi tehnologijami;

    Usklajevanje na ravni Unije

    128.

    poudarja, kako pomembno je usklajevanje na ravni Unije, kot ga izvajajo Komisija in/ali vse morebitne ustrezne institucije, organi, uradi in agencije Unije, imenovane v tem okviru, da se prepreči razdrobljenost in zagotovi usklajen pristop po vsej Uniji; meni, da bi moralo biti usklajevanje osredotočeno na pooblastila in ukrepe nacionalnih nadzornih organov v vsaki državi članici, na katere se nanaša prejšnji pododdelek, pa tudi na izmenjavo primerov dobre prakse med temi organi in prispevanje k sodelovanju pri raziskavah in razvoju na tem področju po vsej Uniji; poziva Komisijo, naj oceni in poišče najustreznejšo rešitev za strukturo takšnega usklajevanja; primeri ustreznih obstoječih institucij, organov, uradov in agencij Unije so ENISA, Evropski nadzornik za varstvo podatkov (ENVP) in evropski varuh človekovih pravic;

    129.

    meni, da tako sodelovanje ter uvedba evropskega certifikata skladnosti z etičnimi standardi ne bi koristila le razvoju industrije in inovacij v Uniji v tem okviru, ampak bi se zaradi njiju tudi povečala ozaveščenost državljanov o priložnostih in tveganjih, povezanih s temi tehnologijami;

    130.

    predlaga ustanovitev strokovnega centra, ki bi zajemal akademski svet, strokovnjake na področju raziskovanja in te panoge ter posamezne strokovnjake na ravni Unije da bi spodbudili izmenjavo znanja in strokovnih izkušenj ter olajšali sodelovanje po vsej Uniji in zunaj nje; poleg tega poziva, naj se ta strokovni center posvetuje z organizacijami deležnikov, kot so organizacije za varstvo potrošnikov, da bi bili potrošniki široko zastopani; meni, da bi morale biti ravni odločanja v taki strukturi zaradi možnosti nesorazmernega učinka algoritemskih sistemov na ženske in manjšine raznolike in da bi morale zagotavljati enakost spolov; poudarja, da morajo države članice v nacionalnih strategijah za nadzor trga razviti strategije obvladovanja tveganja za umetno inteligenco;

    131.

    predlaga, naj Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki bi jih lahko v ta namen imenovali, zagotovijo vso potrebno pomoč nacionalnim nadzornim organom v zvezi z njihovo vlogo prve kontaktne točke v primerih domnevnih kršitev pravnih obveznosti in etičnih načel, določenih v regulativnem okviru Unije za umetno inteligenco, vključno z načelom nediskriminacije; nacionalnim nadzornim organom bi bilo treba zagotavljati vso potrebno pomoč tudi v primerih, ko ti izvajajo ocene skladnosti, da bi podprli pravico državljanov do izpodbijanja in pravnega varstva, in sicer tako, da po potrebi podprejo posvetovanje z drugimi pristojnimi organi v Uniji, zlasti z mrežo za sodelovanje na področju varstva potrošnikov in nacionalnimi organi za varstvo potrošnikov, organizacijami civilne družbe in socialnimi partnerji iz drugih držav članic;

    132.

    priznava dragocene rezultate strokovne skupine na visoki ravni za umetno inteligenco, ki jo sestavljajo predstavniki akademskih krogov, civilne družbe, industrije ter Evropske zveze za umetno inteligenco, zlasti „etične smernice za zaupanja vredno umetno inteligenco“, in predlaga, da lahko skupina zagotavlja strokovno znanje Komisiji in/ali vsem ustreznim institucijam, organom, uradom in agencijam Unije, ki bi jih lahko v ta namen imenovali;

    133.

    pozdravlja vključitev projektov, povezanih z umetno inteligenco, v evropski program za razvoj industrije; meni, da lahko prihodnji evropski obrambni sklad in stalno strukturno sodelovanje (PESCO) prav tako zagotavljata okvir za prihodnje projekte, povezane z umetno inteligenco, ki bi lahko pripomogli k večji racionalizaciji prizadevanj Unije na tem področju, in hkrati spodbujata cilj Unije okrepiti človekove pravice, mednarodno pravo in večstranske rešitve; poudarja, da bi morali biti projekti, povezani z umetno inteligenco, usklajeni s širšimi civilnimi programi Unije na področju umetne inteligence; ugotavlja, da bi bilo treba v skladu z belo knjigo Evropske komisije z dne 19. februarja 2020 o umetni inteligenci ustanoviti centre odličnosti in testiranja, ki se bodo ukvarjali z raziskavami in razvojem umetne inteligence na področju varnosti in obrambe, za njih pa bi morali veljati strogi predpisi glede sodelovanja in naložb zasebnih deležnikov;

    134.

    je seznanjen z belo knjigo Evropske komisije z dne 19. februarja 2020 o umetni inteligenci in obžaluje, da niso bili upoštevani vojaški vidiki; poziva Komisijo in podpredsednika/visokega predstavnika, naj kot del celovitega pristopa predstavita sektorsko strategijo za umetno inteligenco za dejavnosti, povezane z obrambo, v okviru Unije, ki bo zagotavljala spoštovanje pravic državljanov in strateške interese EU in bo temeljila na usklajenem pristopu, ki bo segal od zasnove sistemov umetne inteligence do njihove vojaške uporabe, in naj v okviru strokovne skupine na visoki ravni za umetno inteligenco ustanovi delovno skupino za varnost in obrambo, ki bo posebej obravnavala vprašanja politike in naložb ter etične vidike umetne inteligence na področju varnosti in obrambe; poziva Svet, Komisijo in podpredsednika/visokega predstavnika, naj v ta namen začnejo strukturiran dialog s Parlamentom.

    Evropski certifikat skladnosti z etičnimi standardi

    135.

    predlaga, naj se v okviru sodelovanja na ravni Unije oblikujejo skupna merila in prijavni postopek za podelitev evropskega certifikata skladnosti z etičnimi standardi, tudi za prošnje razvijalcev, uvajalcev ali uporabnikov, ki želijo za tehnologijo, ki ne velja za visoko tvegano, pridobiti certifikat o pozitivni oceni skladnosti, ki jo opravi ustrezni nacionalni nadzorni organ;

    136.

    meni, da bi tak evropski certifikat skladnosti z etičnimi standardi spodbujal načelo vgrajene etike v celotni dobavni verigi ekosistemov umetne inteligence; zato predlaga, naj bo ta certifikat v primeru tehnologij z visokim tveganjem obvezen pogoj za upravičenost do postopkov javnega naročanja na področju umetne inteligence, robotike in sorodnih tehnologij;

    Mednarodno sodelovanje

    137.

    meni, da je učinkovito čezmejno sodelovanje in etične standarde mogoče doseči le, če se vse zainteresirane strani zavežejo, da bodo zagotovile človeško delovanje in nadzor, tehnično zanesljivost in varnost, preglednost in odgovornost, raznolikost, nediskriminacijo in pravičnost, družbeno in okoljsko blaginjo ter spoštovanje uveljavljenih načela zasebnosti, upravljanja podatkov in varstva podatkov, zlasti tistih iz Uredbe (EU) 2016/679;

    138.

    poudarja, da bi lahko Evropa z uvedbo pravnih obveznosti in etičnih načel Unije za razvoj, uvajanje in uporabo teh tehnologij postala vodilna v svetu v sektorju umetne inteligence in zato bi jih bilo treba spodbujati po vsem svetu prek sodelovanja z mednarodnimi partnerji, hkrati pa nadaljevati kritični dialog o etičnih vprašanjih s tretjimi državami, ki imajo alternativne modele urejanja, razvoja in uporabe umetne inteligence;

    139.

    znova poudarja, da imajo priložnosti in tveganja, povezana s temi tehnologijami, svetovno razsežnost, saj se programska oprema in podatki, ki jih uporabljajo, pogosto uvažajo v Unijo in iz nje izvažajo, in zato je potreben dosleden pristop k sodelovanju na mednarodni ravni; poziva Komisijo, naj prevzame pobudo in naj oceni, katere dvostranske in večstranske pogodbe in sporazume bi bilo treba prilagoditi, da bi se zagotovil dosleden pristop in da bi se na svetovni ravni spodbudil evropski model skladnosti z etičnimi standardi;

    140.

    poudarja, da ima zgoraj opisano sodelovanje na ravni Unije dodano vrednost tudi v tem okviru;

    141.

    poziva k vzpostavitvi sinergij in povezovanju med različnimi evropskimi raziskovalnimi središči za umetno inteligenco in drugimi večstranskimi forumi, kot so Svet Evrope, Organizacija Združenih narodov za izobraževanje, znanost in kulturo (UNESCO), Organizacija za gospodarsko sodelovanje in razvoj (OECD), Svetovna trgovinska organizacija in Mednarodna telekomunikacijska zveza (ITU), da bi uskladili njihova prizadevanja in bolje usklajevali razvoj umetne inteligence, robotike in sorodnih tehnologij;

    142.

    poudarja, da mora imeti Unija vodilno vlogo pri podpiranju večstranskih prizadevanj v okviru skupine vladnih strokovnjakov konvencije OZN o klasičnem orožju in drugih ustreznih forumov, v katerih bi se razpravljalo o učinkovitem mednarodnem regulativnem okviru, ki bi zagotavljal pomenljiv človeški nadzor nad samostojnimi orožnimi sistemi, da bi obvladali te tehnologije z določitvijo dobro opredeljenih, referenčnih postopkov ter sprejetjem zakonodaje za njihovo etično uporabo v posvetovanju z vojsko, industrijo, pravosodjem, akademskim svetom in deležniki civilne družbe, da bi razumeli etične vidike in zmanjšali tveganje, povezano s temi tehnologijami, in preprečevali zlonamerno uporabo;

    143.

    priznava vlogo zveze NATO pri zagotavljanju evroatlantske varnosti in poziva, naj se v zvezi NATO okrepi sodelovanje za vzpostavitev skupnih standardov in interoperabilnosti sistemov umetne inteligence na področju obrambe; poudarja, da je čezatlantsko zavezništvo pomembno za ohranitev skupnih vrednot in v boju proti prihodnjim in novim grožnjam;

    144.

    poudarja, da je pomembno oblikovati etični kodeks ravnanja za uporabo orožnih sistemov umetne inteligence v vojaških operacijah, ki bo podoben obstoječemu regulativnemu okviru, ki prepoveduje uporabo kemičnega in biološkega orožja; meni, da bi morala Komisija začeti z oblikovanjem standardov bojne uporabe orožnih sistemov, ki temeljijo na umetni inteligenci, v skladu z mednarodnim humanitarnim pravom, Unija pa bi si morala prizadevati, da bi te standarde sprejeli na mednarodni ravni; meni, da bi morala Unija v mednarodnih forumih izvajati diplomacijo umetne inteligence s podobno mislečimi partnericami, kot so skupini G7 in G20 ter OECD;

    Končni vidiki

    145.

    po zgornjem razmisleku o etičnih vidikih, povezanih z umetno inteligenco, robotiko in sorodnimi tehnologijami, ugotavlja, da je treba pravno in etično razsežnost vključiti v učinkovit, v prihodnost usmerjen in celovit regulativni okvir na ravni Unije, ki ga podpirajo pristojni nacionalni organi, usklajuje in krepi Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki bi jih lahko v zvezi s tem imenovali, ter ga redno podpira prej omenjeni strokovni center, če bo ustanovljen, pri čemer se na notranjem trgu ta okvir ustrezno spoštuje in se zagotovi certificiranje v skladu z njim;

    146.

    v skladu s postopkom iz člena 225 Pogodbe o delovanju Evropske unije od Komisije zahteva predložitev predloga uredbe o etičnih načelih za razvoj, uvajanje in uporabo umetne inteligence, robotike in sorodnih tehnologij na podlagi člena 114 Pogodbe o delovanju Evropske unije ter ob upoštevanju podrobnih priporočil iz priloge; poudarja, da predlog ne bi smel omajati sektorske zakonodaje, temveč bi moral zapolniti le ugotovljene vrzeli;

    147.

    priporoča, naj Evropska komisija po posvetovanju z ustreznimi deležniki po potrebi pregleda obstoječe pravo Unije, ki se uporablja za umetno inteligenco, robotiko in sorodne tehnologije, da bi obravnavali hitrost njihovega razvoja v skladu s priporočili iz priloge ter preprečili prekomerno zakonsko urejanje, zlasti za mala in srednja podjetja;

    148.

    meni, da bosta redno ocenjevanje in po potrebi pregled regulativnega okvira Unije v zvezi z umetno inteligenco, robotiko in sorodnimi tehnologijami bistvena za zagotovitev, da bo veljavna zakonodaja posodobljena v skladu s hitrim tehnološkim napredkom;

    149.

    meni, da bi imel zahtevani zakonodajni predlog finančne posledice, če bi bil kateri koli evropski organ pooblaščen za zgoraj navedene usklajevalne funkcije in da bi se zagotovila potrebna tehnična sredstva in človeški viri za izpolnjevanje na novo dodeljenih nalog;

    o

    o o

    150.

    naroči svojemu predsedniku, naj to resolucijo in priložena podrobna priporočila posreduje Komisiji in Svetu.

    (1)  UL L 252, 8.10.2018, str. 1.

    (2)  UL L 180, 19.7.2000, str. 22.

    (3)  UL L 303, 2.12.2000, str. 16.

    (4)  UL L 119, 4.5.2016, str. 1.

    (5)  UL L 119, 4.5.2016, str. 89.

    (6)  UL L 123, 12.5.2016, str. 1.

    (7)  UL C 252, 18.7.2018, str. 239.

    (8)  UL C 307, 30.8.2018, str. 163.

    (9)  UL C 433, 23.12.2019, str. 86.

    (10)  Sprejeta besedila, P8_TA(2018)0332.

    (11)  Sprejeta besedila, P8_TA(2019)0081.

    (12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179

    (13)  Direktiva (EU) 2019/882 Evropskega parlamenta in Sveta z dne 17. aprila 2019 o zahtevah glede dostopnosti za proizvode in storitve (UL L 151, 7.6.2019, str. 70).

    (14)  Sklep št. 768/2008/ES Evropskega parlamenta in Sveta z dne 9. julija 2008 o skupnem okviru za trženje proizvodov in razveljavitvi Sklepa Sveta 93/465/EGS (UL L 218, 13.8.2008, str. 82).


    PRILOGA K RESOLUCIJI:

    PODROBNA PRIPOROČILA O VSEBINI ZAHTEVANEGA PREDLOGA

    A.   NAČELA IN CILJI ZAHTEVANEGA PREDLOGA

    I.

    Glavna načela in cilji predloga so:

    vzpostaviti zaupanje v umetno inteligenco, robotiko in sorodne tehnologije na vseh ravneh udeleženih deležnikov in družbe, zlasti kadar veljajo za visoko tvegane;

    podpirati razvoj umetne inteligence, robotike in sorodnih tehnologij v Uniji, tudi s tem, da se podjetjem, zagonskim ter malim in srednjim podjetjem pomaga oceniti in varno obvladati sedanje in prihodnje regulativne zahteve in tveganja, s katerimi se srečujejo v postopku inovacij in razvijanja poslov ter kasnejši uporabi v profesionalne in zasebne namene, tako da se zmanjšajo bremena in birokracija;

    podpirati uvajanje umetne inteligence, robotike in sorodnih tehnologije v Uniji, tako da se oblikuje ustrezen in sorazmeren regulativni okvir, ki bi moral veljati brez poseganja v obstoječo ali prihodnjo sektorsko zakonodajo, s čimer bi spodbudili regulativno varnost in inovacije, hkrati pa jamčili za temeljne pravice in varstvo potrošnikov;

    podpirati uporabo umetne inteligence, robotike in sorodnih tehnologij v Uniji, tako da so njihov razvoj, uvajanje in uporaba v skladu z etičnimi načeli;

    zahtevati preglednost in boljši pretok informacij med državljani in v organizacijah, ki razvijajo, uvajajo ali uporabljajo umetno inteligenco, robotiko in sorodne tehnologije, da bodo te tehnologije skladne s pravom Unije, temeljnimi pravicami in vrednotami ter etičnimi načeli zahtevanega predloga uredbe.

    II.

    Predlog sestavljajo naslednji elementi:

    „uredba o etičnih načelih za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodnih tehnologij“;

    usklajevanje na ravni Unije, ki ga izvajajo Komisija in/ali ustrezne institucije, organi, uradi in agencije Unije, ki se lahko v ta namen imenujejo, in evropski certifikat skladnosti z etičnimi standardi;

    podporna vloga Evropske komisije;

    vloga nadzornega organa v posamezni državi članici je zagotovitev da se bodo za umetno inteligenco, robotiko in sorodne tehnologije uporabljala etična načela;

    vključevanje in podpiranje ustreznih raziskovalnih in razvojnih projektov in deležnikov, vključno z zagonskimi, malimi in srednjimi ter drugimi podjetji, socialnimi partnerji in drugimi predstavniki civilne družbe, ter posvetovanje z njimi;

    priloga, ki določa izčrpen in kumulativen seznam sektorjev ter načinov uporabe in namenov z visokim tveganjem;

    III.

    Uredba o etičnih načelih za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodnih tehnologij temelji na naslednjih načelih:

    človek v središču umetne inteligence, robotike in sorodnih tehnologij, ki jih ustvarja in nadzoruje človek;

    obvezna ocena skladnosti umetne inteligence, robotike in sorodnih tehnologij z visokim tveganjem;

    varnost, preglednost in odgovornost;

    zaščitni ukrepi in sredstva proti pristranskosti in diskriminaciji;

    pravica do pravnega sredstva;

    družbena odgovornost in enakost spolov pri umetni inteligenci, robotiki in sorodnih tehnologijah z visokim tveganjem;

    okoljska trajnost umetne inteligence, robotike in sorodnih tehnologij;

    spoštovanje zasebnosti in omejitev uporabe biometričnega prepoznavanja;

    dobro upravljanje v zvezi z umetno inteligenco, robotiko in sorodnimi tehnologijami, vključno s podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo.

    IV.

    Za namene usklajevanja na ravni Unije bi morale Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki se v ta namen imenujejo, izvajati naslednje glavne naloge:

    sodelovati pri spremljanju izvajanja zahtevanega predloga uredbe in ustreznega sektorskega prava Unije;

    sodelovati pri izdaji smernic v zvezi z dosledno uporabo zahtevanega predloga uredbe, zlasti za uporabo meril za umetno inteligenco, robotiko in sorodne tehnologije, ki veljajo za visoko tvegane, ter seznama sektorjev, načinov uporabe in namenov z visokim tveganjem iz priloge k uredbi;

    sodelovati z nadzornimi organi v posameznih državah članicah pri oblikovanju evropskega potrdila o skladnosti z etičnimi načeli in pravnimi obveznostmi iz zahtevanega predloga uredbe in ustrezne zakonodaje Unije ter oblikovanju postopka za vse razvijalce, izvajalce ali uporabnike tehnologij, ki ne štejejo za zelo tvegane, da bi lahko pridobili potrdilo, da spoštujejo zahtevani predlog uredbe;

    sodelovati pri podpiranju medsektorskega in čezmejnega sodelovanja z rednimi izmenjavami z ustreznimi deležniki in civilno družbo v EU in po svetu, zlasti s podjetji, socialnimi partnerji, raziskovalci in pristojnimi organi, tudi v zvezi z razvojem tehničnih standardov na mednarodni ravni;

    sodelovati z nadzornimi organi v posameznih državah članicah pri določitvi zavezujočih smernic o metodologiji za ocenjevanje skladnosti, ki ga izvaja posamezni nadzorni organ;

    sodelovati pri povezovanju z nadzornimi organi v posameznih državah članicah ter usklajevanje njihovih pristojnosti in nalog;

    sodelovati pri ozaveščanju in obveščanju razvijalcev, uvajalcev in uporabnikov v Uniji ter sodelovati v izmenjavah z njimi;

    sodelovati pri ozaveščanju, obveščanju in spodbujanju digitalne pismenosti, usposabljanja ter znanj in spretnosti oblikovalcev, razvijalcev, uvajalcev, državljanov, uporabnikov in institucionalnih organov v vsej Uniji in na mednarodni ravni ter sodelovati v izmenjavah z njimi;

    sodelovati pri usklajevanju skupnega okvira upravljanja razvoja, uvajanja in uporabe umetne inteligence, robotike in sorodnih tehnologiji, ki ga morajo nadzorni organ izvajati v posameznih državah članicah;

    sodelovati v vlogi strokovnega centra s spodbujanjem izmenjave informacij in podpiranjem razvoja skupnega razumevanja na enotnem trgu;

    sodelovati pri gostovanju delovne skupine za varnost in obrambo.

    V.

    Poleg tega bi morala Komisija izvajati naslednje naloge:

    z delegiranimi akti in v sodelovanju z nadzornimi organi v posameznih državah članicah sestaviti in kasneje posodabljati skupni seznam visoko tveganih tehnologij, ki bi jih opredelili v Uniji;

    z delegiranimi akti posodabljati seznam iz priloge k tej uredbi.

    VI.

    Nadzorni organ v posamezni državi članici bi moral opravljati naslednje glavne naloge:

    prispevati k dosledni uporabi regulativnega okvira, določenega v zahtevanem predlogu uredbe v sodelovanju z nadzornim organom v drugih državah članicah ter drugimi organi, ki so pristojni za izvajanje sektorske zakonodaje, Komisijo in/ali vsemi ustreznimi institucijami, organi, uradi in agencijami Unije, ki se lahko v ta namen imenujejo, zlasti glede uporabe meril za oceno tveganja iz zahtevanega predloga uredbe ter seznama sektorjev, načinov uporabe in namenov z visokim tveganjem iz njene priloge ter kasnejšega nadzora nad izvajanjem potrebnih in primernih ukrepov, če se kot rezultat te uporabe opredelijo tehnologije z visokim tveganjem;

    oceniti, ali umetna inteligenca, robotika in sorodne tehnologije, ki se v Uniji razvijajo, uvajajo in uporabljajo, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, lahko v skladu z merili za oceno tveganja iz zahtevanega predloga uredbe in seznama iz priloge štejejo za tehnologije z visokim tveganjem;

    izdati evropsko potrdilo o skladnosti z etičnimi načeli in pravnimi obveznostmi iz zahtevanega predloga uredbe in ustrezne zakonodaje Unije, tudi če je rezultat postopka, za vse razvijalce, izvajalce ali uporabnike tehnologij, ki ne štejejo za zelo tvegane, da bi lahko pridobili potrditev, da spoštujejo zahtevani predlog uredbe, kot bodo potrdilo oblikovale Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki bi jih lahko v ta namen imenovali;

    oceniti in spremljati njihovo skladnost z etičnimi načeli in pravnimi obveznostmi iz zahtevanega predloga uredbe in ustrezne zakonodaje Unije;

    biti odgovoren za vzpostavitev in izvajanje standardov za upravljanje umetne inteligence, robotike in sorodnih tehnologij, med drugim s povezovanjem z vsemi ustreznimi deležnimi in predstavniki civilne družbe ter ohranjanjem rednega dialoga z njimi; v ta namen sodelovati s Komisijo in/ali drugimi ustreznimi institucijami, organi, uradi in agencijami Unije, ki se lahko v ta namen imenujejo, v zvezi z usklajevanjem skupnega okvira na ravni Unije;

    ozaveščati in obveščati javnost o umetni inteligenci, robotiki in sorodnih tehnologijah ter podpirati usposabljanje za ustrezne poklice, tudi v sodstvu, s tem pa omogočiti državljanom in delavcem, da bodo digitalno pismeni in bodo imeli vsa potrebna znanja, spretnosti in orodja za pravičen prehod;

    delovati kot prva kontaktna točka ob domnevnih kršitvah pravnih obveznosti in etičnih načel iz zahtevanega predloga uredbe in v teh primerih izvajati ocene skladnosti; pri oceni skladnosti se lahko posvetuje z drugimi pristojnimi organi v Uniji, zlasti mrežo za sodelovanje na področju varstva potrošnikov, nacionalnimi organi za varstvo potrošnikov, organizacijami civilne družbe in socialnimi partnerji, in/ali jih obvešča.

    VII.

    Ključna vloga deležnikov bi morala biti sodelovanje s Komisijo in/ali vsemi ustreznimi institucijami, organi, uradi in agencijami Unije, ki se v ta namen imenujejo, ter z nadzornimi organi v posameznih državah članicah.

    B.   BESEDILO ZAHTEVANEGA ZAKONODAJNEGA PREDLOGA

    Predlog

    UREDBE EVROPSKEGA PARLAMENTA IN SVETA

    o etičnih načelih za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije

    EVROPSKI PARLAMENT IN SVET EVROPSKE UNIJE STA –

    ob upoštevanju Pogodbe o delovanju Evropske unije in zlasti člena 114 Pogodbe,

    ob upoštevanju predloga Evropske komisije,

    po posredovanju osnutka zakonodajnega akta nacionalnim parlamentom,

    ob upoštevanju mnenja Evropskega ekonomsko-socialnega odbora,

    v skladu z rednim zakonodajnim postopkom,

    ob upoštevanju naslednjega:

    (1)

    Razvoj, uvedba in uporaba umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, temeljijo na želji po služenju družbi. Z njimi so lahko povezane priložnosti in tveganja, ki bi jih bilo treba obravnavati in urejati s celovitim regulativnim okvirom na ravni Unije, ki bo odražal etična načela, ta pa bi bilo treba spoštovati od trenutka razvoja in uvedbe takih tehnologij do njihove uporabe.

    (2)

    Skladnost s takim regulativnim okvirom glede razvoja, uvedbe in uporabe umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo v Uniji, bi morala biti na enaki ravni v vseh državah članicah, da bi učinkovito izkoristili priložnosti in dosledno obravnavali tveganja tovrstne tehnologije, pa tudi se izognili regulativni razdrobitvi. V vsej Uniji bi bilo treba zagotoviti enotno uporabo pravil iz te uredbe.

    (3)

    V tem kontekstu pomeni sedanja raznolikost pravil in praks, ki jih je treba upoštevati v Uniji, znatno tveganje za razdrobljenost enotnega trga in nevarnost za zaščito dobrobiti in blaginje posameznikov in družbe, pa tudi za usklajeno izkoriščanje polnega potenciala, ki ga imajo umetna inteligenca, robotika in sorodna tehnologija za spodbujanje inovacij in ohranitev te dobrobiti in blaginje. Razlike v stopnji upoštevanja etične razsežnosti teh tehnologij s strani razvijalcev, uvajalcev in uporabnikov lahko preprečijo njihov prost razvoj, uvedbo ali uporabo v Uniji ter ovirajo enakovredne pogoje in zasledovanje tehnološkega napredka ter izvajanje gospodarskih dejavnosti na ravni Unije, izkrivljajo konkurenco in ovirajo organe pri izpolnjevanju njihovih dolžnosti v skladu s pravom Unije. Poleg tega neobstoj skupnega regulativnega okvira, ki bi odražal etična načela, za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije pomeni pravno negotovost za vse vpletene, tj. razvijalce, uvajalce in uporabnike.

    (4)

    Kljub temu bi morala ta uredba, ki prispeva k doslednemu pristopu na ravni Unije, in v okviru omejitev, ki jih ima, državam članicam zagotoviti manevrski prostor za izvrševanje, vključno s tem, kako naj se ob upoštevanju tu določenega cilja nacionalnega nadzornega organa izvaja njegov mandat.

    (5)

    Ta uredba ne posega v obstoječo ali prihodnjo sektorsko zakonodajo. Morala bi biti sorazmerna glede na svoj cilj, da ne bi neupravičeno ovirala inovacij v Uniji, in biti skladna s pristopom, ki temelji na tveganju.

    (6)

    Geografsko področje uporabe takega okvira bi moralo pokrivati vse sestavine umetne inteligence, robotike in sorodne tehnologije med vsem postopkom razvoja, uvajanja in uporabe v Uniji, vključno s primeri, v katerih se del tehnologije morda nahaja zunaj Unije ali nima konkretne ali le ene lokacije, kot so storitve računalništva v oblaku.

    (7)

    V Uniji je potrebno skupno razumevanje pojmov, kot so umetna inteligenca, robotika, sorodna tehnologija in biometrično prepoznavanje, da se omogoči usklajen regulativni pristop in s tem pravna varnost za državljane in družbe. Biti morajo tehnološko nevtralni in jih je treba pregledati, kadar koli je to potrebno.

    (8)

    Poleg tega je treba upoštevati dejstvo, da obstaja tehnologija, povezana z umetno inteligenco in robotiko, ki programski opremi omogoča nadzor nad fizičnimi ali virtualnimi procesi ob različni stopnji avtonomije (1). Za avtomatizirano vožnjo vozil je bilo na primer v mednarodnem standardu SAE J3016 predlaganih šest ravni avtomatizacije vožnje.

    (9)

    Razvoj, uvedba in uporaba umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, bi morali dopolnjevati človeške zmogljivosti, ne pa jih nadomeščati, in zagotavljati, da njihova uporaba ne škodi največji koristi državljanov in da spoštujejo pravo Unije, temeljne pravice iz Listine Evropske unije o temeljnih pravicah (v nadaljevanju: Listina), ustaljeno sodno prakso Sodišča Evropske unije ter druge evropske in mednarodne instrumente, ki se uporabljajo v Uniji.

    (10)

    Odločitve, ki jih sprejmejo umetna inteligenca, robotika in sorodna tehnologija ali se z njimi take odločitve obveščajo, bi morale biti še naprej predmet smiselnega človeškega pregleda, presoje, posredovanja in nadzora. Tehnična in operativna zapletenost tovrstne tehnologije uvajalcu ali uporabniku nikoli ne bi smela preprečiti, da bi jih vsaj ugasnil v sili, spremenil ali ustavil, ali jih povrnil v prejšnje stanje z obnovitvijo varnega delovanja, kadar je ogrožena skladnost s pravom Unije in etičnimi načeli ter pravnimi obveznostmi iz te uredbe.

    (11)

    Umetno inteligenco, robotiko in sorodno tehnologijo bi bilo treba obravnavati kot visoko tvegane, kadar njihov razvoj, uvedba in uporaba pomenijo znatno tveganje za poškodbe ali škodo posameznikom ali družbi, kar krši temeljne pravice in varnostna pravila iz prava Unije. Zato, da se jih oceni kot take, bi bilo treba upoštevati sektor, v katerem se razvijajo, uvajajo ali uporabljajo, njihovo posebno uporabo ali namen ter resnost pričakovane poškodbe ali škode. Stopnjo resnosti bi bilo treba določiti na podlagi obsega morebitne poškodbe ali škode, števila prizadetih oseb, skupne vrednosti povzročene škode in škode za družbo kot celoto. Resne vrste poškodb in škode so na primer kršitve pravic otrok, potrošnikov ali delavcev, ki zaradi svojega obsega, števila prizadetih otrok, potrošnikov ali delavcev ali njihovega vpliva na družbo kot celoto pomenijo znatno tveganje za kršitev temeljnih pravic in varnostnih pravil iz prava Unije. Ta uredba bi morala določiti izčrpen in kumulativen seznam sektorjev ter načinov uporabe in namenov z visokim tveganjem.

    (12)

    Obveznosti iz te uredbe, zlasti tiste v zvezi s tehnologijo z visokim tveganjem, bi se morale uporabljati le za umetno inteligenco, robotiko in sorodno tehnologijo, ki se razvijajo, uvajajo ali uporabljajo v Uniji, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, in ki v skladu z oceno tveganja iz te uredbe veljajo za visoko tvegane. Te obveznosti se izpolnijo brez poseganja v splošno obveznost, da bi bilo treba vso umetno inteligenco, robotiko in sorodno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, razvijati, uvajati in uporabljati v Uniji na human način in na podlagi načel človeške samostojnosti in varnosti v skladu s pravom Unije ter ob polnem spoštovanju temeljnih pravic, kot so človekovo dostojanstvo, pravica do svobode in varnosti ter pravica do osebne celovitosti.

    (13)

    Tehnologije z visokim tveganjem bi morale po nepristranski, objektivni in zunanji oceni tveganja, ki jo opravi nacionalni nadzorni organ v skladu z merili iz te uredbe in seznama iz njene priloge, spoštovati načela varnosti, preglednosti, odgovornosti, nepristranskosti in nediskriminacije, družbene odgovornosti in enakosti spolov, pravice do pravnega varstva, okoljske trajnosti, zasebnosti in dobrega upravljanja. Pri tej oceni bi bilo treba upoštevati mnenja in morebitne samoocene razvijalca ali uvajalca.

    (14)

    Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki se lahko imenujejo v ta namen, bi morali pripraviti nezavezujoče izvedbene smernice za razvijalce, uvajalce in uporabnike o metodologiji za skladnost s to uredbo. Pri tem bi se morali posvetovati z ustreznimi deležniki.

    (15)

    Potrebna je doslednost na ravni Unije pri ocenjevanju tveganja teh tehnologij, zlasti ko se ocenjuje z vidika te uredbe in v skladu z drugo sektorsko zakonodajo, ki se uporablja. V skladu s tem bi morali nacionalni nadzorni organi obvestiti druge organe, ki izvajajo ocene tveganja v skladu s katero koli sektorsko zakonodajo, če so te tehnologije ocenijo kot tehnologije z visokim tveganjem na podlagi ocene tveganja iz te uredbe.

    (16)

    Umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, bi se, da bi bile zaupanja vredne, morale razvijati, uvajati in uporabljati varno, pregledno in odgovorno v skladu z varnostnimi lastnostmi trdnosti, odpornosti, sigurnosti, natančnosti in prepoznavanja napak, razložljivosti, razumljivosti, preverljivosti, preglednosti in določljivosti, tako da bi v primeru neskladnosti s temi varnostnimi lastnostmi morale omogočati začasno onemogočenje problematičnega delovanja in ponovno vzpostavitev varnih funkcionalnosti. Preglednost bi bilo treba zagotoviti z omogočanjem dostopa javnim organom do tehnologije, podatkov in računalniških sistemov, na katerih temeljijo takšne tehnologije, ko je to nujno potrebno.

    (17)

    Razvijalci, uvajalci in uporabniki umetne inteligence, robotike in sorodne tehnologije, zlasti tehnologije z visokim tveganjem, so v različnem obsegu odgovorni za skladnost z načeli varnosti, preglednosti in odgovornosti, in sicer do stopnje svoje vključenosti v tovrstno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo. Razvijalci bi morali zagotoviti, da so zadevne tehnologije zasnovane in oblikovane v skladu z varnostnimi značilnostmi iz te uredbe, uvajalci in uporabniki pa bi morali pri uvedbi in uporabi zadevnih tehnologij te značilnosti v celoti spoštovati. V ta namen bi morali razvijalci tehnologij z visokim tveganjem oceniti in predvideti tveganja zlorabe, ki jih je mogoče razumno pričakovati v zvezi s tehnologijami, ki jih razvijajo. Zagotoviti morajo tudi, da sistemi, ki jih razvijajo, v največji možni meri in z ustreznimi sredstvi, kot so sporočila o omejitvi odgovornosti, navajajo verjetnost napak ali netočnosti.

    (18)

    Razvijalci in uvajalci bi morali dati uporabnikom na voljo vse poznejše posodobitve zadevne tehnologije, kar zadeva programsko opremo, kot to določa pogodba ali pravo Unije ali nacionalno pravo. Poleg tega bi morali razvijalci in uvajalci, kadar je tako navedeno v oceni tveganja, javnim organom zagotoviti ustrezno dokumentacijo o uporabi zadevnih tehnologij in varnostna navodila v zvezi s tem, vključno z izvorno kodo, razvojnimi orodji in podatki, ki jih uporablja sistem, kadar je to nujno potrebno in ob popolnem spoštovanju prava Unije o varstvu podatkov, zasebnosti ter pravicah intelektualne lastnine in poslovnih skrivnostih.

    (19)

    Posamezniki imajo pravico pričakovati, da tehnologija, ki jo uporabljajo, deluje na primeren način in spoštuje njihovo zaupanje. Zaupanje državljanov v umetno inteligenco, robotiko in sorodno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, je odvisno od pojmovanja in razumevanja tehničnih postopkov. Stopnja razložljivosti takih procesov bi morala biti odvisna od konteksta teh tehničnih postopkov in resnosti posledic napačnega ali netočnega rezultata ter mora biti zadostna za njihovo izpodbijanje in uporabo pravnega varstva. Preverljivost, sledljivost in preglednost bi morale obravnavati vse morebitne nerazumljivosti takih tehnologij.

    (20)

    Zaupanje družbe v umetno inteligenco, robotiko in sorodno tehnologijo, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, je odvisno od tega, do kakšne stopnje so pri teh tehnologijah omogočeni njihovo ocenjevanje, možnost revizije in sledljivost. Kadar je to potrebno zaradi obsega vključenosti razvijalcev, bi morali slednji zagotoviti, da so take tehnologije zasnovane in zgrajene na način, ki omogoča tako ocenjevanje, možnost revizije in sledljivost. Razvijalci, uvajalci in uporabniki bi morali v mejah tehnične izvedljivosti zagotoviti, da se pri uvedbi in uporabi umetne inteligence, robotike in sorodne tehnologije v celoti spoštujejo zahteve glede preglednosti ter omogočita možnost revizije in sledljivost.

    (21)

    Da bi zagotovili preglednost in odgovornost, bi morali biti državljani obveščeni, kadar sistem uporablja umetno inteligenco in kadar sistemi umetne inteligence personalizirajo proizvod ali storitev za svoje uporabnike, ali lahko izklopijo ali omejijo personalizacijo, in kadar se soočajo s tehnologijo za avtomatizirano sprejemanje odločitev. Poleg tega bi bilo treba ukrepe za preglednost, kolikor je to tehnično izvedljivo, dopolniti z jasnimi in razumljivimi razlagami uporabljenih podatkov in algoritma, njegovega namena, rezultatov in morebitnih nevarnosti.

    (22)

    Pristranskost in diskriminacija, vgrajeni v programsko opremo, algoritme in podatke, sta nezakoniti in bi ju bilo treba onemogočiti z zakonsko ureditvijo postopkov, po katerih se programska oprema, algoritmi in podatki zasnujejo in uvedejo. Pristranskost je lahko posledica odločitev, sprejetih v avtomatiziranem sistemu ali ki se z njegovo pomočjo informirajo, pa tudi podatkovnih nizov, na katerih temelji tako odločanje ali na katerih se sistem uči.

    (23)

    Programska oprema, algoritmi in podatki, ki jih uporabljajo umetna inteligenca, robotika in sorodna tehnologija ali se z njimi pridobivajo, bi se morali šteti za pristranske, če na primer pokažejo neoptimalne rezultate v zvezi s katero koli osebo ali skupino ljudi na podlagi pristranskega osebnega ali družbenega dojemanja in posledične obdelave podatkov, povezanih z njihovimi lastnostmi.

    (24)

    Programska oprema, algoritmi in podatki, ki jih uporabljajo umetna inteligenca, robotika in sorodna tehnologija ali se z njimi pridobivajo, bi se morali v skladu s pravom Unije šteti za diskriminatorne, če proizvajajo rezultate, ki imajo nesorazmerno negativne učinke in zaradi teh osebo ali skupino ljudi obravnavajo drugače, vključno s tem, da jih v primerjavi z drugimi brez objektivne ali razumne utemeljitve postavijo v slabši položaj iz razlogov, kot so njihove osebne lastnosti, ne glede na trditve o nevtralnosti te tehnologije.

    (25)

    Zakoniti cilji, s katerimi se lahko v skladu s to uredbo objektivno utemelji različna obravnava oseb ali skupine ljudi, so v skladu s pravom Unije zaščita javne varnosti in zdravja, preprečevanje kaznivih dejanj, varstvo temeljnih pravic in svoboščin, pravično zastopanje ter objektivne zahteve za opravljanje določene službe.

    (26)

    Umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, bi morale prispevati k trajnostnemu napredku. Takšne tehnologije ne bi smele biti v nasprotju z varstvom okolja ali prehodom na zeleno gospodarstvo. Lahko bi imele pomembno vlogo pri doseganju ciljev trajnostnega razvoja Organizacije združenih narodov, da bi omogočili razcvet prihodnjih rodov. Te tehnologije bi lahko podpirale spremljanje ustreznega napredka na podlagi kazalnikov trajnostnosti in socialne kohezije ter z uporabo orodij za odgovorne raziskave in inovacije, zato bi morale Unija in njene države članice mobilizirati sredstva za podporo projektom, ki obravnavajo te cilje, in naložbe vanje.

    (27)

    Razvoj, uvedba in uporaba umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, posameznikom in družbi ne smejo namenoma povzročiti nikakršne poškodbe ali škode ali privzeto sprejeti povzročitev tako poškodbe ali škode. Zato bi bilo treba tehnologije z visokim tveganjem razvijati, uvajati in uporabljati družbeno odgovorno.

    (28)

    Zato bi morali biti razvijalci, uvajalci in uporabniki v obsegu, v katerem so vključeni v zadevno umetno inteligenco, robotiko in sorodno tehnologijo, v skladu z določbami Uniji ali nacionalnimi določbami o odgovornosti odgovorni za vsakršno poškodbo ali škodo, povzročeno posameznikom in družbi.

    (29)

    Zlasti razvijalci, ki sprejemajo odločitve, s katerimi se določa in upravlja potek ali način razvoja umetne inteligence, robotike in sorodne tehnologije, ter uvajalci, ki so vključeni v njihovo uvajanje tako, da sprejemajo odločitve v zvezi s tem ter z nadzorovanjem povezanih tveganj ali s tem, da imajo koristi od uvedbe, z nadzorno ali upravljavsko funkcijo, bi se morali na splošno šteti za odgovorne za preprečevanje takih poškodb ali škode z izvajanjem ustreznih ukrepov med razvojnim procesom in temeljitim spoštovanjem takih ukrepov v fazi uvajanja.

    (30)

    Družbeno odgovorno umetno inteligenco, robotiko in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, je mogoče opredeliti kot tehnologije, ki prispevajo k iskanju rešitev, ki varujejo in spodbujajo različne cilje v zvezi z družbo, zlasti demokracijo, zdravjem in gospodarsko blaginjo, enakimi možnostmi, pravicami delavcev in socialnimi pravicami, raznolikimi in neodvisnimi mediji ter objektivnimi in prosto dostopnimi informacijami, ki omogočajo javno razpravo, kakovostno izobraževanje, kulturno in jezikovno raznolikost, uravnoteženo zastopanost spolov, digitalno pismenost, inovacije in ustvarjalnost. Take tehnologije se tudi razvijajo, uvajajo in uporabljajo ob ustreznem upoštevanju njihovega končnega učinka na telesno in duševno počutje državljanov in ne spodbujajo sovražnega govora ali nasilja. Te cilje bi bilo treba doseči zlasti s tehnologijami z visokim tveganjem.

    (31)

    Umetno inteligenco, robotiko in sorodno tehnologijo bi bilo treba razvijati, uvajati in uporabljati tudi z namenom podpiranja socialne vključenosti, demokracije, pluralnosti, solidarnosti, pravičnosti, enakosti in sodelovanja, njihov potencial na teh področjih pa bi bilo treba povečati in proučiti z raziskovalnimi in inovacijskimi projekti. Zato bi morale Unija in njene države članice mobilizirati sredstva za komunikacijo ter upravne in finančne vire za podporo takim projektom in naložbe vanje.

    (32)

    Projekte, povezane s potencialom umetne inteligence, robotike in sorodne tehnologije za reševanje vprašanja socialne blaginje, bi bilo treba izvajati na podlagi orodij za odgovorne raziskave in inovacije, da se že od začetka zagotovi njihova skladnost z etičnimi načeli.

    (33)

    Pri razvoju, uvedbi in uporabi umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, bi morali upoštevati njihov okoljski odtis. V skladu z obveznostmi iz veljavnega prava Unije take tehnologije ne bi smele povzročati škode za okolje v svojem življenjskem ciklu in v vsej dobavni verigi ter bi jih bilo treba razvijati, uvajati in uporabljati na način, ki varuje okolje, zmanjšuje njihov okoljski odtis in ga popravlja, prispeva k zelenemu prehodu ter podpira doseganje ciljev podnebne nevtralnosti in krožnega gospodarstva.

    (34)

    Za namene te uredbe bi morali biti razvijalci, uvajalci in uporabniki v obsegu, v katerem so vključeni v razvoj, uvedbo ali uporabo zadevne umetne inteligence, robotike in sorodne tehnologije, za katero šteje, da ima visoko tveganje, odgovorni za vsakršno povzročeno okoljsko škodo v skladu z veljavnimi pravili o okoljski odgovornosti.

    (35)

    Te tehnologije bi bilo treba razvijati, uvajati in uporabljati tudi z mislijo na doseganje okoljskih ciljev v skladu z obveznostmi iz veljavnega prava Unije, kot so zmanjšanje nastajanja odpadkov, zmanjšanje ogljičnega odtisa ter boj proti podnebnim spremembam in ohranjanje okolja, njihov potencial na teh področjih pa bi bilo treba povečati in proučiti z raziskovalnimi in inovacijskimi projekti. Zato bi morale Unija in države članice mobilizirati sredstva za komunikacijo ter upravne in finančne vire za podporo takim projektom in naložbe vanje.

    (36)

    Projekte, povezane s potencialom umetne inteligence, robotike in sorodne tehnologije za reševanje okoljskih vprašanj, bi bilo treba izvajati na podlagi orodij za odgovorne raziskave in inovacije, da se že od začetka zagotovi njihova skladnost z etičnimi načeli.

    (37)

    Vsa umetna inteligenca, robotika in sorodna tehnologija, ki se razvijajo, uvajajo ali uporabljajo v Uniji, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, bi morale v celoti spoštovati pravico državljanov Unije do zasebnosti in varstva osebnih podatkov. Zlasti bi morali biti njihov razvoj, uvedba in uporaba v skladu z Uredbo (EU) 2016/679 Evropskega parlamenta in Sveta (2) ter Direktivo 2002/58/ES Evropskega parlamenta in Sveta (3).

    (38)

    Pri uporabi tehnologij daljinskega prepoznavanja, kot je prepoznavanje biometričnih značilnosti, zlasti prepoznavanje obraza, za samodejno identifikacijo posameznikov bi bilo treba ustrezno upoštevati zlasti etične omejitve uporabe umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo. Kadar javni organi uporabljajo te tehnologije iz razlogov bistvenega javnega interesa, in sicer za zagotavljanje varnosti posameznikov in reševanje nacionalnih izrednih razmer, ne pa za zagotavljanje varnosti nepremičnin, bi bilo treba uporabo vedno razkriti, morala bi biti sorazmerna, ciljno usmerjena in omejena na posebne cilje ter časovno omejena v skladu s pravom Unije in ob ustreznem upoštevanju človekovega dostojanstva in avtonomije ter temeljnih pravic iz Listine. Merila in omejitve za to uporabo bi morala biti predmet sodnega in demokratičnega nadzora ter razprav, v katerih bi sodelovala civilna družba;

    (39)

    Upravljanje, ki temelji na ustreznih standardih, krepi varnost ter spodbuja večje zaupanje državljanov v razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo.

    (40)

    Javni organi bi morali pred uvedbo tehnologij z visokim tveganjem, ki podpirajo odločitve, sprejete v javnem sektorju, in ki neposredno in močno vplivajo na pravice in obveznosti državljanov, izvesti ocene učinka v zvezi s temeljnimi pravicami.

    (41)

    Med obstoječimi ustreznimi standardi upravljanja so na primer Etične smernice za zaupanja vredno umetno inteligenco, ki jih je pripravila strokovna skupina na visoki ravni za umetno inteligenco, ki jo je ustanovila Evropska komisija, in drugi tehnični standardi, kot so tisti, ki so jih na evropski ravni sprejeli Evropski odbor za standardizacijo (CEN), Evropski odbor za elektrotehnično standardizacijo (Cenelec) in Evropski inštitut za telekomunikacijske standarde (ETSI), na mednarodni ravni pa Mednarodna organizacija za standardizacijo (ISO) ter Inštitut inženirjev elektrotehnike in elektronike (IEEE).

    (42)

    Ker sta izmenjava podatkov med več udeleženci in način, kako jih ti uporabljajo, občutljiva, bi bilo treba razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije urediti z ustreznimi pravili, standardi in protokoli, v katerih bi se upoštevale zahteve glede kakovosti, celovitosti, varnosti, zanesljivosti, zasebnosti in nadzora. Strategija upravljanja podatkov bi morala biti usmerjena v obdelavo takih podatkov, njihovo izmenjavo in dostop do njih, vključno z njihovim ustreznim upravljanjem, preverljivostjo in sledljivostjo, ter zagotavljati ustrezno varstvo podatkov, ki se nanašajo na ranljive skupine, vključno z invalidi, pacienti, otroki, pripadniki manjšin in migranti, ali druge skupine, ki tvegajo izključitev. Poleg tega bi morali imeti razvijalci, uvajalci in uporabniki po potrebi možnost, da se pri oceni naborov podatkov, ki jih uporabljajo za povečanje zanesljivosti tehnologij, ki jih razvijajo, uvajajo in uporabljajo, zanesejo na ključne kazalnike uspešnosti.

    (43)

    Države članice bi morale imenovati neodvisen upravni organ, ki bo deloval kot nadzorni organ. Zlasti bi moral biti vsak nacionalni nadzorni organ odgovoren za opredelitev umetne inteligence, robotike in sorodne tehnologije, ki se glede na merila za oceno tveganja iz te uredbe štejejo za tehnologije z visokim tveganjem, ter za ocenjevanje in spremljanje skladnosti teh tehnologij z obveznostmi iz te uredbe.

    (44)

    Vsak nacionalni nadzorni organ bi moral prav tako prevzeti odgovornost za dobro upravljanje teh tehnologij pod vodstvom Komisije in/ali vseh ustreznih institucij, organov, uradov ali agencij Unije, ki se lahko imenujejo v ta namen. Zato imajo ti organi pomembno vlogo pri spodbujanju zaupanja državljanov Unije in njihove varnosti ter omogočanju demokratične, pluralistične in pravične družbe.

    (45)

    Za namene ocenjevanja tehnologij z visokim tveganjem v skladu s to uredbo in spremljanja njihove skladnosti z njo bi morali nacionalni nadzorni organi po potrebi sodelovati z organi, pristojnimi za ocenjevanje in spremljanje teh tehnologij ter zagotavljanje njihove skladnosti s sektorsko zakonodajo.

    (46)

    Nacionalni nadzorni organi bi morali obsežno in redno sodelovati med seboj in z Evropsko komisijo ter drugimi ustreznimi institucijami, organi, uradi in agencijami Unije, da bi zagotavljali usklajeno čezmejno ukrepanje ter omogočali dosleden razvoj, uvedbo in uporabo teh tehnologij v Uniji v skladu z etičnimi načeli in pravnimi obveznostmi iz te uredbe.

    (47)

    V okviru takšnega sodelovanja in za doseganje popolne harmonizacije na ravni Unije bi morali nacionalni nadzorni organi pomagati Komisiji pri pripravi skupnega in izčrpnega seznama umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem, v skladu z merili iz te uredbe in njene priloge. Poleg tega bi bilo treba oblikovati postopek izdaje evropskega certifikata o etnični skladnosti, vključno s prostovoljnim postopkom prijave za vse razvijalce, uvajalce ali uporabnike tehnologij, ki ne štejejo za zelo tvegane, vendar se za njih želi potrditi skladnost s to uredbo.

    (48)

    Nacionalni nadzorni organi bi morali zagotoviti sodelovanje čim večjega števila deležnikov, kot so gospodarska panoga, podjetja, socialni partnerji, raziskovalci, potrošniki in organizacije civilne družbe, ter zagotoviti pluralističen forum za razmislek in izmenjavo stališč, da bi oblikovali razumljive in točne sklepe za usmerjanje, kako je treba zakonsko urediti upravljanje.

    (49)

    Nacionalni nadzorni organi bi morali zagotoviti sodelovanje čim večjega števila deležnikov, kot so gospodarska panoga, podjetja, socialni partnerji, raziskovalci, potrošniki in organizacije civilne družbe, ter zagotoviti pluralističen forum za razmislek in izmenjavo stališč, da bi olajšali sodelovanje z deležniki in med njimi, zlasti z akademskim svetom, raziskovalci, panogo, civilno družbo in posameznimi strokovnjaki, da bi oblikovali razumljive in točne sklepe za usmerjanje, kako je treba zakonsko urediti upravljanje.

    (50)

    Poleg tega bi morali ti nacionalni nadzorni organi zagotavljati strokovne upravne smernice in podporo razvijalcem, uvajalcem in uporabnikom, zlasti malim in srednjim ali zagonskim podjetjem, ki se srečujejo z izzivi v zvezi s spoštovanjem etičnih načel in pravnih obveznosti iz te uredbe.

    (51)

    Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki se lahko imenujejo v ta namen, bi morali pripraviti zavezujoče smernice za metodologijo, ki naj jo pri oceni skladnosti uporabi nacionalni nadzorni organ.

    (52)

    Žvižgaštvo omogoča, da se organi seznanijo z morebitnimi in dejanskimi kršitvami prava Unije, s čimer se preprečijo poškodbe ali škoda, ki bi sicer nastala. Poleg tega se s postopki prijave izboljšuje pretok informacij v podjetjih in organizacijah, s čimer se zmanjšuje tveganje, da se razvijajo pomanjkljivi ali napačni produkti ali storitve. Podjetja in organizacije, ki razvijajo, uvajajo ali uporabljajo umetno inteligenco, robotiko in sorodno tehnologijo, vključno s podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, bi morali vzpostaviti kanale za prijavo, osebe, ki prijavijo kršitve, pa bi bilo treba zaščititi pred povračilnimi ukrepi.

    (53)

    Hiter razvoj umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, ter tehničnega strojnega učenja, postopkov sklepanja in drugih tehnologij, na katerih ta razvoj temelji, je nepredvidljiv. Zato je ustrezno in nujno, da se vzpostavi mehanizem pregleda, v skladu s katerim mora Komisija poleg poročanja o uporabi te uredbe pošiljati redna poročila o morebitni spremembi njenega področja uporabe.

    (54)

    Ker cilja te uredbe, tj. vzpostaviti skupni regulativni okvir etičnih načel in pravnih obveznosti za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije, države članice ne morejo zadovoljivo doseči, temveč se zaradi njegovega obsega in učinkov lažje doseže na ravni Unije, lahko Unija sprejme ukrepe v skladu z načelom subsidiarnosti iz člena 5 Pogodbe o Evropski uniji. V skladu z načelom sorazmernosti iz navedenega člena ta uredba ne presega tistega, kar je potrebno za doseganje navedenega cilja.

    (55)

    Usklajevanje na ravni Unije iz te uredbe bi najbolje dosegla Komisija in/ali vse morebitne ustrezne institucije, organi, uradi in agencije Unije, imenovane v tem okviru, da se prepreči razdrobljenost in zagotovi usklajeno izvrševanje te uredbe. Zato bi morala biti Komisija zadolžena za iskanje ustrezne rešitve za strukturiranje takšnega usklajevanja na ravni Unije, da bi uskladili mandate in ukrepe nacionalnih nadzornih organov v vsaki državi članici, in sicer v zvezi z oceno tveganja umetne inteligence, robotike in sorodne tehnologije, vzpostavitvijo skupnega okvira za upravljanje razvoja, uvedbe in uporabe te tehnologije, oblikovanjem in izdajanjem potrdil o skladnosti z etičnimi načeli in pravnimi obveznostmi iz te uredbe, podpiranjem rednih izmenjav z ustreznimi deležniki in civilno družbo po vsem svetu ter oblikovanjem centra strokovnega znanja, ki bo združeval akademski svet, raziskave, panogo in posamezne strokovnjake na ravni Unije za spodbujanje izmenjave znanja in tehnične strokovnosti ter spodbujanje pristopa Unije prek mednarodnega sodelovanja in zagotavljanje doslednega svetovnega odziva na priložnosti in tveganja tovrstne tehnologije.

    SPREJELA NASLEDNJO UREDBO:

    Poglavje I

    Splošne določbe

    Člen 1

    Namen

    Namen te uredbe je vzpostaviti celovit regulativni okvir etičnih načel in pravnih obveznosti za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije v Uniji, ki bo primeren tudi v prihodnosti.

    Člen 2

    Področje uporabe

    Ta uredba se uporablja za umetno inteligenco, robotiko in sorodno tehnologijo, ki se razvijajo, uvajajo ali uporabljajo v Uniji, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo.

    Člen 3

    Geografski obseg

    Ta uredba se uporablja za umetno inteligenco, robotiko in sorodno tehnologijo, če se kateri koli njihov del razvija, uvaja ali uporablja v Uniji, in sicer ne glede na to, ali se programska oprema, algoritmi ali podatki, ki jih take tehnologije uporabljajo ali se z njimi pridobivajo, nahajajo zunaj Unije oziroma ali imajo konkretno geografsko lokacijo ali ne.

    Člen 4

    Opredelitev pojmov

    V tej uredbi se uporabljajo naslednje opredelitve pojmov:

    (a)

    „umetna inteligenca“ pomeni sistem, ki ali v celoti temelji na programski opremi ali pa je vgrajen v strojno opremo in ki kaže inteligentno ravnanje, tako da med drugim zbira, obdeluje, preučuje in razlaga svoje okolje ter vsaj delno avtonomno dosega specifične cilje (4);

    (b)

    „avtonomija“ pomeni, da sistem umetne inteligence obratuje tako, da razlaga določene podatke in uporablja niz vnaprej določenih navodil, ne da bi ga ta omejevala, vendar je ravnanje sistema omejeno z izpolnitvijo cilja, ki mu je bil določen in v katerega je usmerjen, ter drugimi ustreznimi konstrukcijskimi odločitvami, ki jih je sprejel njegov razvijalec;

    (c)

    „robotika“ pomeni tehnologije, ki omogočajo, da večnamenski stroji, ki se samodejno upravljajo in jih je mogoče reprogramirati, (5) opravljajo naloge, ki so jih tradicionalno opravljali ali začeli ljudje, med drugim z umetno inteligenco ali sorodno tehnologijo;

    (d)

    „sorodna tehnologija“ pomeni tehnologije, ki programski opremi omogočajo, da delno ali popolnoma avtonomno upravlja fizični ali virtualni postopek, tehnologije, ki lahko zaznajo biometrične, genetske ali druge podatke, ter tehnologije, ki posnemajo ali kako drugače uporabljajo človekove značilnosti;

    (e)

    „visoko tveganje“ pomeni znatno tveganje, da bodo razvoj, uvedba in uporaba umetne inteligence, robotike in sorodne tehnologije povzročili poškodbe ali škodo posameznikom ali družbi v nasprotju s temeljnimi pravicami in varnostnimi pravili, ki jih določa pravo Unije, ob upoštevanju njihove specifične uporabe ali namena, sektorja, v katerem se razvijejo, uvajajo ali uporabljajo, in resnost poškodb ali škode, ki se lahko pričakujejo;

    (f)

    „razvoj“ pomeni zasnovo in načrtovanje algoritmov, pisanje in načrtovanje programske opreme ali zbiranje, shranjevanje in upravljanje podatkov za namene oblikovanja ali učenja umetne inteligence, robotike in sorodne tehnologije ali za namene oblikovanja nove aplikacije za obstoječo umetno inteligenco, robotiko in sorodno tehnologijo;

    (g)

    „razvijalec“ pomeni katero koli fizično ali pravno osebo, ki sprejema odločitve, s katerimi se določa in upravlja potek ali način razvoja umetne inteligence, robotike in sorodne tehnologije;

    (h)

    „uvedba“ pomeni omogočanje delovanja in upravljanje umetne inteligence, robotike in sorodne tehnologije, ter njihovo dajanje na trg ali siceršnje zagotavljanje njihove razpoložljivosti za uporabnike;

    (i)

    „uvajalec“ pomeni fizično ali pravno osebo, ki sodeluje pri konkretnem uvajanju umetne inteligence, robotike in sorodne tehnologije in ima nadzorno ali upravljavsko funkcijo, tako da sprejema odločitve, nadzira tveganje in ima koristi od uvedbe teh tehnologij;

    (j)

    „uporaba“ pomeni katero koli dejanje v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo, ki ni razvoj ali uvedba;

    (k)

    „uporabnik“ pomeni katero koli fizično ali pravno osebo, ki umetno inteligenco, robotiko in sorodno tehnologijo uporablja za namene, ki ne zajemajo razvoja ali uvedbe;

    (l)

    „predsodek“ pomeni pristransko osebno ali družbeno dojemanje osebe ali skupine oseb na podlagi njihovih osebnih lastnosti;

    (m)

    „diskriminacija“ pomeni vsako različno obravnavanje osebe ali skupine oseb na podlagi, ki ni objektivno ali razumno utemeljena in je zato prepovedana s pravom Unije;

    (n)

    „poškodba ali škoda“ tudi, kadar je posledica sovražnega govora, predsodkov, diskriminacije ali stigmatizacije, pomeni fizično ali duševno poškodbo, materialno ali nematerialno škodo, kot so finančna ali gospodarska izguba, izguba zaposlitve ali možnosti za izobraževanje, neupravičeno omejevanje svobodne izbire ali svobode izražanja ter vsako kršitev prava Unije, ki škodi osebi;

    (o)

    „dobro upravljanje“ pomeni način zagotavljanja, da razvijalci, uvajalci in uporabniki sprejmejo in upoštevajo ustrezne in razumne standarde in protokole ravnanja, ki temeljijo na formalnem naboru pravil, postopkov in vrednot, kar jim omogoča, da ustrezno obravnavajo etična vprašanja, kadar ali preden se ta pojavijo.

    Člen 5

    Etična načela v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo

    1.   Vsa umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se v Uniji razvijajo, uvajajo in uporabljajo v skladu s pravom Unije in ob polnem spoštovanju človekovega dostojanstva, avtonomije in varnosti ter drugih temeljnih pravice iz Listine.

    2.   Vsaka obdelava osebnih podatkov pri razvoju, uvedbi in uporabi umetne inteligence, robotike in sorodnih tehnologij, vključno z osebnimi podatki, pridobljenimi iz neosebnih in biometričnih podatkov, se izvede v skladu z Uredbo (EU) 2016/679 in Direktivo 2002/58/ES.

    3.   Unija in njene države članice spodbujajo raziskovalne projekte za zagotavljanje rešitev na podlagi umetne inteligence, robotike in sorodne tehnologije, katerih cilj je spodbujati socialno vključenost, demokracijo, pluralnost, solidarnost, pravičnost, enakost in sodelovanje.

    Poglavje II

    Obveznosti za tehnologije z visokim tveganjem

    Člen 6

    Obveznosti za tehnologije z visokim tveganjem

    1.   Določbe tega poglavja se uporabljajo le za umetno inteligenco, robotiko in sorodno tehnologijo, ki se razvijajo, uvajajo ali uporabljajo v Uniji in veljajo za tehnologije z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo.

    2.   Vsa umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se razvijajo, uvedejo in uporabljajo na način, ki zagotavlja, da niso v nasprotju z etičnimi načeli iz te uredbe.

    Člen 7

    Umetna inteligenca, ki je osredotočena na človeka in jo je ustvaril človek

    1.   Vse tehnologije umetne inteligence z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se razvijajo, uvajajo in uporabljajo na način, ki vedno zagotavlja popoln človeški nadzor.

    2.   Tehnologije iz odstavka 1 se razvijajo, uvajajo in uporabljajo tako, da lahko človek po potrebi ponovno prevzame popolni nadzor, tudi s spremembo ali zaustavitvijo teh tehnologij.

    Člen 8

    Varnost, preglednost in odgovornost

    1.   Vsa umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se razvijajo, uvajajo in uporabljajo na način, ki zagotavlja, da se:

    (a)

    razvijajo, uvajajo in uporabljajo prožno, da se z njimi ob upoštevanju minimalnih izhodišč kibernetske varnosti sorazmerno ugotovljenemu tveganju zagotavlja ustrezna raven varnosti, ki preprečuje, da bi se morebitne tehnične šibke točke izkoriščale za zlonamerne ali nezakonite namene;

    (b)

    razvijajo, uvajajo in uporabljajo na varen način, ki zagotavlja, da so vzpostavljeni zaščitni ukrepi, ki vključujejo rezervni načrt in ukrepe v primeru varnostnega tveganja;

    (c)

    razvijajo, uvajajo in uporabljajo na način, ki zagotavlja zanesljivo delovanje, kot ga razumno pričakuje uporabnik, kar zadeva doseganje ciljev in izvajanje dejavnosti, za katere so bile zasnovane, med drugim z zagotavljanjem, da so vsi postopki ponovljivi;

    (d)

    razvijajo, uvajajo in uporabljajo na način, ki zagotavlja, da je izpolnjevanje ciljev in dejavnosti posameznih tehnologij točno; če občasnih netočnosti ni mogoče preprečiti, sistem po možnosti uvajalce in uporabnike na ustrezne načine opozori na verjetnost napak in nepravilnosti;

    (e)

    razvijajo, uvajajo in uporabljajo na zlahka razložljiv način, s čimer se zagotovi, da je mogoče izvesti pregled tehničnih postopkov tehnologij;

    (f)

    razvijajo, uvajajo in uporabljajo tako, da uporabnike obvestijo, da imajo stik s sistemi umetne inteligence, ter da lahko razvijalcem, uvajalcem in uporabnikom umetne inteligence ustrezno in celovito razkrijejo svoje zmogljivosti, natančnost in omejitve;

    (g)

    v skladu s členom 6 te uredbe razvijajo, uvajajo in uporabljajo na način, ki v primeru neskladnosti z varnostnimi značilnostmi iz pododstavkov (a) do (g) omogoča, da se začasno onemogoči delovanje zadevnih funkcionalnosti in da se ponovno vzpostavijo predhodne varne funkcionalnosti.

    2.   Tehnologije iz odstavka 1 tega člena, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se v skladu s členom 6(1) razvijajo, uvajajo in uporabljajo pregledno in sledljivo, tako da so njihovi elementi, postopki in faze dokumentirani v skladu z najvišjimi možnimi in veljavnimi standardi ter da lahko nacionalni nadzorni organi iz člena 18 ocenijo skladnost teh tehnologij z obveznostmi iz te uredbe. Razvijalec, uvajalec ali uporabnik teh tehnologij je zlasti odgovoren za skladnost z varnostnimi značilnostmi iz odstavka 1 in jo je sposoben dokazati.

    3.   Razvijalec, uvajalec ali uporabnik tehnologij iz odstavka 1 tega člena zagotovi, da lahko nacionalni nadzorni organi iz člena 18 ali po potrebi drugi nacionalni ali evropski sektorski nadzorni organi revidirajo ukrepe, ki so bili sprejeti za zagotavljanje skladnosti z varnostnimi značilnostmi iz odstavka 1 tega člena.

    Člen 9

    Nepristranskost in nediskriminacija

    1.   Vsa programska oprema, algoritmi ali podatki, ki jih uporabljajo umetna inteligenca, robotika in sorodna tehnologija z visokim tveganjem uporabljajo ali se s temi tehnologijami pridobivajo, pri čemer se te tehnologije razvijajo, uvajajo ali uporabljajo v Uniji, so nepristranski in brez poseganja v odstavek 2 ne diskriminirajo na podlagi, kot je rasa, spol, spolna usmerjenost, nosečnost, invalidnost, fizične ali genetske značilnosti, starost, pripadnost narodni manjšini, etnično ali socialno poreklo, jezik, vera ali prepričanje, politična stališča ali državljanska udeležba, državljanstvo, osebno stanje ali ekonomski položaj, izobrazba ali vpis v kazensko evidenco.

    2.   Z odstopanjem od odstavka 1 ter brez poseganja v pravo Unije, ki ureja nezakonito diskriminacijo, je lahko vsako drugačno obravnavanje oseb ali skupin oseb utemeljeno le v primeru objektivnega, razumnega in legitimnega cilja, ki je tako sorazmeren in tudi nujen, ter če ni nobene druge možnosti, ki bi manj posegala v načelo enakega obravnavanja.

    Člen 10

    Družbena odgovornost in enakost spolov

    Vsa umetna inteligenca, robotika in sorodna tehnologija z visokim tveganjem, ki se razvijajo, uvajajo ali uporabljajo v Uniji, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se razvijajo, uvajajo in uporabljajo v skladu z ustreznim pravom, načeli in vrednotami Unije, in sicer na način, ki ne posega v volitve ali ne prispeva k širjenju dezinformacij, spoštuje delavske pravice, spodbuja kakovostno izobraževanje in digitalno pismenost, ne povečuje razlik med spoloma s preprečevanjem enakih možnosti za vse in ni v nasprotju s pravicami intelektualne lastnine ter omejitvami in izjemami na tem področju.

    Člen 11

    Okoljska trajnostnost

    Nacionalni nadzorni organi iz člena 18 ali po potrebi drugi nacionalni ali evropski sektorski nadzorni organi presojajo okoljsko trajnostnost vse umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, in zagotavljajo, da se sprejmejo ukrepi za zmanjšanje ali odpravo njihovega splošnega vpliva na naravne vire, porabo energije, nastajanje odpadkov, ogljični odtis, izredne razmere zaradi podnebnih sprememb in degradacijo okolja, s katerimi se zagotovi skladnost z veljavnim pravom Unije ali nacionalnim pravom, pa tudi z drugimi mednarodnimi okoljskimi zavezami, ki jih je Unija sprejela.

    Člen 12

    Spoštovanje zasebnosti in varstvo osebnih podatkov

    Uporaba in zbiranje biometričnih podatkov za namene identifikacije na daljavo na javnem mestu, kot je biometrično prepoznavanje ali prepoznavanje obraza, vključujeta določena tveganja za človekove pravice in to uvajajo in uporabljajo le javni organi držav članic za namene v bistvenem javnem interesu. Ti organi zagotovijo, da se uvedba ali uporaba tega razkrije javnosti in da je sorazmerna, ciljno usmerjena in omejena na določen cilj in lokacijo ter časovno omejena v skladu s pravom Unije in nacionalnim pravom, zlasti z Uredbo (EU) 2016/679 in Direktivo 2002/58/ES, ter da se pri tem ustrezno upoštevajo človekovo dostojanstvo in avtonomija ter človekove pravice iz Listine, in sicer pravica do zasebnosti in varstva osebnih podatkov.

    Člen 13

    Pravica do odškodnine

    Vsaka fizična ali pravna oseba ima pravico, da zahteva odškodnino za poškodbo ali škodo, ki jo je utrpela zaradi razvoja, uvajanja in uporabe umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, pri čemer se je kršilo pravo Unije in obveznosti iz te uredbe.

    Člen 14

    Ocena tveganja

    1.   Umetna inteligenca, robotika in sorodna tehnologija, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, se za namene te uredbe štejejo za tehnologije z visokim tveganjem, če po oceni tveganja na podlagi objektivnih meril, kot so njihova specifična uporaba ali namen, sektor, v katerem se razvijajo, uvajajo ali uporabljajo, ter resnost poškodbe ali škode, ki jih lahko povzročijo, njihov razvoj, uvedba ali uporaba vključujejo veliko tveganje, da povzročijo poškodbe ali škodo posameznikom ali družbi, v nasprotju s temeljnimi pravicami in varnostnimi pravili, določenimi s pravom Unije.

    2.   Oceno tveganja umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, brez poseganja v veljavno sektorsko zakonodajo na podlagi objektivnih meril iz odstavka 1 tega člena ter izčrpnega in kumulativnega seznama iz priloge k tej uredbi izvedejo nacionalni nadzorni organi iz člena 18, njihovo delo pa usklajuje Komisija in/ali druge ustrezne institucije, organi, uradi in agencije Unije, ki se lahko imenujejo v ta namen v okviru sodelovanja.

    3.   Komisija v sodelovanju z nacionalnimi nadzornimi organi iz odstavka 2 z delegiranimi akti v skladu s členom 20 pripravi skupni seznam tehnologij, ki so v Uniji opredeljene kot tehnologije z visokim tveganjem, in ta seznam nato posodablja.

    4.   Komisija z delegiranimi akti v skladu s členom 20 tudi redno posodablja seznam iz priloge k tej uredbi.

    Člen 15

    Ocena skladnosti

    1.   Umetna inteligenca, robotika in sorodna tehnologija z visokim tveganjem so predmet ocene skladnosti z obveznostmi iz členov 6 do 12 te uredbe ter nadaljnjega spremljanja, ki ju izvajajo nacionalni nadzorni organi iz člena 18, njihovo delo pa usklajujejo Komisija in/ali druge ustrezne institucije, organi, uradi in agencije Unije, ki se lahko imenujejo v ta namen;

    2.   Za programsko opremo, algoritme in podatke, ki jih uporabljajo tehnologije z visokim tveganjem, pri katerih je bilo ocenjeno, da izpolnjujejo obveznosti iz te uredbe v skladu z odstavkom 1, ali se s temi tehnologijami pridobivajo, se šteje, da tudi izpolnjujejo te obveznosti, razen če se ustrezni nacionalni nadzorni organ na lastno pobudo ali na zahtevo razvijalca, uvajalca ali uporabnika odloči izvesti oceno;

    3.   Komisija in/ali ustrezne institucije, organi, uradi in agencije Unije, ki se lahko posebej imenujejo v ta namen, brez poseganja v sektorsko zakonodajo do datuma začetka veljavnosti te uredbe pripravijo zavezujoče smernice o metodologiji, ki jo morajo uporabljati nacionalni nadzorni organi pri oceni skladnosti iz odstavka 1.

    Člen 16

    Evropski certifikat skladnosti z etičnimi standardi

    1.   V primeru pozitivne ocene skladnosti umetne inteligence, robotike in sorodne tehnologije z visokim tveganjem, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, ki je bila izvedena v skladu s členom 15, zadevni nacionalni nadzorni organ izda evropski certifikat skladnosti z etičnimi standardi.

    2.   Vsak razvijalec, uvajalec ali uporabnik umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, ki se ne štejejo za visoko tvegane in za katere zato ne veljajo obveznosti iz členov 6 do 12 ter se ne opravita oceni tveganja in skladnost iz členov 14 in 15, lahko prav tako zaprosi za potrditev skladnosti z obveznostmi iz te uredbe ali delom teh obveznosti, če to upravičuje narava zadevne tehnologije, kot določijo nacionalni nadzorni organi. Certifikat se izda le, če ustrezni nacionalni nadzorni organ opravi oceno skladnosti in je ta ocena pozitivna.

    3.   Komisija in/ali druge ustrezne institucije, organi, uradi in Agencije Unije, ki se lahko imenujejo v ta namen, za izdajo certifikata iz odstavka 2 oblikujejo postopek prijave.

    Poglavje III

    Institucionalni nadzor

    Člen 17

    Standardi upravljanja in smernice za izvajanje

    1.   Umetna inteligenca, robotika in sorodne tehnologije, ki se razvijajo, uvajajo ali uporabljajo v Uniji, so skladne z ustreznimi standardi upravljanja, ki jih v skladu s pravom, načeli in vrednotami Unije določijo nacionalni nadzorni organi iz člena 18 v posvetovanju v ustreznimi deležniki, pri čemer njihovo delo usklajujejo Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki se lahko imenujejo v ta namen.

    2.   Standardi iz odstavka 1 vključujejo nezavezujoče smernice o metodologiji za skladnost s to uredbo za razvijalce, uvajalce in uporabnike in se do datuma začetka veljavnosti te uredbe objavijo.

    3.   Podatke, ki jih umetna inteligenca, robotika in sorodna tehnologija uporabljajo ali se z njimi pridobivajo, pri čemer se ta umetna inteligenca, robotika in sorodna tehnologija razvijajo, uvajajo ali uporabljajo v Uniji, upravljajo razvijalci, uvajalci in uporabniki v skladu z ustreznimi nacionalnimi, unijskimi in mednarodnimi pravili in standardi ter pravili in standardi drugih evropskih organizacij, pa tudi z ustreznimi panožnimi in poslovnimi protokoli. Zlasti razvijalci in uvajalci po možnosti izvajajo preverjanje kakovosti zunanjih virov podatkov, ki jih uporabljajo umetna inteligenca, robotika in sorodna tehnologija, ter vzpostavijo nadzorne mehanizme v zvezi z njihovim zbiranjem, shranjevanjem, obdelavo in uporabo.

    4.   Brez poseganja v pravice do prenosljivosti podatkov in pravice oseb, ki so z uporabo umetne inteligence, robotike in sorodne tehnologije pridobile podatke, so zbiranje, shranjevanje, obdelava, izmenjava in dostop do podatkov – ki jih umetna inteligenca, robotika in sorodna tehnologija uporabljajo ali se z njimi pridobivajo, pri čemer se ta umetna inteligenca, robotika in sorodna tehnologija razvijajo, uvajajo ali uporabljajo v Uniji, – skladni z ustreznimi nacionalnimi, unijskimi in mednarodnimi pravili in standardi ter pravili in standardi drugih evropskih organizacij ter ustreznimi panožnimi in poslovnimi protokoli. Razvijalci in uvajalci zlasti zagotovijo, da se ti protokoli uporabljajo med razvojem in uvajanjem umetne inteligence, robotike in sorodne tehnologije, in sicer z jasno opredelitvijo zahtev za obdelavo in odobritev dostopa do podatkov, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, ter namena, obsega in naslovnikov obdelave in odobritve dostopa do takih podatkov, pri čemer je vse to mogoče kadar koli revidirati in izslediti.

    Člen 18

    Nadzorni organi

    1.   Vsaka država članica imenuje neodvisen javni organ, ki je pristojen za spremljanje uporabe te uredbe (nadzorni organ), izvajanje ocen tveganja in skladnosti ter certificiranje iz členov 14, 15 in 16, brez poseganja v sektorsko zakonodajo.

    2.   Vsak nacionalni nadzorni organ prispeva k dosledni uporabi te uredbe v vsej Uniji. Nadzorni organ v vsaki državi članici v ta namen sodeluje s Komisijo in/ali drugimi ustreznimi institucijami, organi, uradi in agencijami Unije, ki se lahko imenujejo v ta namen.

    3.   Vsak nacionalni nadzorni organ deluje kot prva kontaktna točka v primerih domnevne kršitve etičnih načel in pravnih obveznosti iz te uredbe, vključno z diskriminatorno obravnavo ali kršitvijo drugih pravic, zaradi razvoja, uvedbe ali uporabe umetne inteligence, robotike in sorodne tehnologije. Ustrezni nacionalni nadzorni organ v teh primerih opravi oceno skladnosti, da bi podprl pravico državljanov do izpodbijanja in odškodnine.

    4.   Vsak nacionalni nadzorni organ je odgovoren za nadzor nad uporabo ustreznih nacionalnih, evropskih in mednarodnih pravil in standardov upravljanja iz člena 17 na področju umetne inteligence, robotike in sorodne tehnologije, med drugim v povezavi z največjim možnim številom ustreznih deležnikov. Nadzorni organi v vsaki državi članici v ta namen zagotavljajo forum za redno izmenjavo stališč z deležniki iz akademskega in raziskovalnega sveta, industrije in iz vrst civilne družbe ter med njimi.

    5.   Vsak nacionalni nadzorni organ zagotavlja strokovne in upravne smernice in podporo v zvezi s splošnim izvajanjem prava Unije, ki se uporablja za umetno inteligenco, robotiko in sorodno tehnologijo, in etičnih načel iz te uredbe, zlasti ustreznim raziskovalnim in razvojnim organizacijam ter malim in srednjim ter zagonskim podjetjem.

    6.   Vsaka država članica Evropsko komisijo do … [UL: vstaviti datum eno leto po začetku veljavnosti] uradno obvesti o pravnih določbah, ki jih sprejme v skladu s tem členom, in brez odlašanja o vseh naknadnih spremembah, ki nanje vplivajo.

    7.   Države članice sprejmejo vse ukrepe, potrebne za zagotavljanje izvajanja etičnih načel in pravnih obveznosti iz te uredbe. Države članice podpirajo ustrezne deležnike in civilno družbo na ravni Unije in nacionalni ravni pri njihovih prizadevanjih za zagotovitev pravočasnega, etičnega in dobro obveščenega odziva na nove priložnosti in izzive, zlasti čezmejne, ki se bodo pojavili s tehnološkim razvojem na področju umetne inteligence, robotike in sorodne tehnologije.

    Člen 19

    Prijava kršitev in zaščita prijaviteljev

    Za prijavo kršitev te uredbe in zaščito oseb, ki te kršitve prijavijo, se uporablja Direktiva (EU) 2019/1937 Evropskega parlamenta in Sveta (6).

    Člen 20

    Usklajevanje na ravni Unije

    1.   Komisija in/ali vse ustrezne institucije, organi, uradi in agencije Unije, ki se v ta namen imenujejo, imajo naslednje naloge:

    zagotoviti usklajeno oceno tveganja umetne inteligence, robotike in sorodne tehnologije iz člena 14, ki jo izvajajo nacionalni nadzorni organi iz člena 18 na podlagi skupnih objektivnih meril iz člena 8(1) ter seznama sektorjev z visokim tveganje in načinov uporabe ali namenov z visokim tveganjem iz priloge k tej uredbi;

    upoštevati oceno skladnost in nadaljnje spremljanje umetne inteligence, robotike in sorodnih tehnologij z visokim tveganjem iz člena 15, ki jo izvedejo nacionalnih organi iz člena 18;

    oblikovati postopek prijave za certifikat iz člena 16, ki ga izdajo nacionalni nadzorni organi iz člena 18;

    brez poseganja v sektorsko zakonodajo pripraviti zavezujoče smernice iz člena 17(4) o metodologiji, ki jo morajo uporabljati nacionalni nadzorni organi iz člena 18;

    usklajevati delo nacionalnih nadzornih organov iz člena 18 pri uvedbi ustreznih standardov upravljanja iz člena 17, vključno z nezavezujočimi smernicami za razvijalce, uvajalce in uporabnike za izvajanje metodologije za skladnost s to uredbo;

    sodelovati z nacionalnimi nadzornimi organi iz člena 18, kar zadeva njihov prispevek k dosledni uporabi te uredbe v vsej Uniji v skladu s členom 18(2);

    opravljati vlogo strokovnega centra s spodbujanjem izmenjave informacij v zvezi z umetno inteligenco, robotiko in sorodno tehnologijo in podpiranjem razvoja skupnega razumevanja na enotnem trgu, podajanjem dodatnih smernic, mnenj in strokovnega znanja nacionalnim nadzornim organom iz člena 18, spremljanjem izvajanja ustreznega prava Unije, opredeljevanjem standardov za dobro prakso in po potrebi izdajanjem priporočil za regulativne ukrepe; pri tem bi se morali povezovati z največjim možnim številom deležnikov in na ravni svojega odločanja zagotavljati raznoliko sestavo in enakost spolov;

    gostovati delovno skupino za varnost in obrambo, ki naj bi obravnavala vprašanja politike in naložb, ki se posebej nanašajo na etično uporabo umetne inteligence, robotike in sorodne tehnologije na področju varnosti in obrambe;

    Člen 21

    Izvajanje prenosa pooblastila

    1.   Pooblastilo za sprejemanje delegiranih aktov je preneseno na Komisijo pod pogoji, določenimi v tem členu.

    2.   Pooblastilo za sprejemanje delegiranih aktov iz člena 14(3) in (4) se prenese na Komisijo za obdobje petih let od [datum začetka veljavnosti te uredbe].

    3.   Prenos pooblastila iz člena 14(3) in (4) lahko kadar koli prekliče Evropski parlament ali Svet. S sklepom o preklicu preneha veljati prenos pooblastila iz navedenega sklepa. Sklep začne učinkovati dan po njegovi objavi v Uradnem listu Evropske unije ali na poznejši dan, ki je določen v navedenem sklepu. Sklep ne vpliva na veljavnost že veljavnih delegiranih aktov.

    4.   Komisija se pred sprejetjem delegiranega akta posvetuje s strokovnjaki, ki jih imenujejo države članice, v skladu z načeli, določenimi v Medinstitucionalnemu sporazumu o boljši pripravi zakonodaje z dne 13. aprila 2016.

    5.   Komisija takoj po sprejetju delegiranega akta o njem sočasno uradno obvesti Evropski parlament in Svet.

    6.   Delegirani akt, sprejet na podlagi členov 14(3) in (4), začne veljati le, če mu niti Evropski parlament niti Svet ne nasprotuje v roku treh mesecev od uradnega obvestila Evropskemu parlamentu in Svetu o tem aktu ali če pred iztekom tega roka tako Evropski parlament kot Svet obvestita Komisijo, da mu ne bosta nasprotovala. Ta rok se na pobudo Evropskega parlamenta ali Sveta podaljša za tri mesece.

    Člen 22

    Sprememba Direktive (EU) 2019/1937

    Direktiva (EU) 2019/1937 se spremeni:

    (1)

    v členu 2(1) se doda naslednja točka:

    „(xi)

    razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije.“

    (2)

    v delu I Priloge se doda naslednja točka:

    „K.

    Točka (a)(xi) člena 2(1) – razvoj, uvedba in uporaba umetne inteligence, robotike in sorodne tehnologije.

    ‚(xxi)

    Uredba [XXX] Evropskega parlamenta in Sveta o etičnih načelih za razvoj, uvedbo in uporabo umetne inteligence, robotike in sorodne tehnologije‘.“

    Člen 23

    Pregled

    Komisija redno pregleduje razvoj umetne inteligence, robotike in sorodne tehnologije, vključno s programsko opremo, algoritmi in podatki, ki jih te tehnologije uporabljajo ali se z njimi pridobivajo, in do … [UL: vstaviti datum tri leta po začetku veljavnosti], nato pa vsaka tri leta Evropskemu parlamentu, Svetu in Evropskemu ekonomsko-socialnemu odboru predloži poročilo o uporabi te uredbe, vključno z oceno morebitne spremembe področja njene uporabe.

    Člen 24

    Začetek veljavnosti

    Ta uredba začne veljati dvajseti dan po objavi v Uradnem listu Evropske unije.

    Uporablja se od XX.

    Uredba je v celoti zavezujoča in se neposredno uporablja v vseh državah članicah.

    V …,

    Za Evropski parlament

    Predsednik

    Za Svet

    Predsednik

    PRILOGA

    Izčrpen in kumulativen seznam sektorjev ter načinov uporabe ali namenov z visokim tveganjem, ki vključujejo tveganje kršitev temeljnih pravic in varnostnih pravil.

    Sektorji z visokim tveganjem

    Zaposlovanje

    Izobraževanje

    Zdravstvo

    Promet

    Energetika

    Javni sektor (azil, migracije, mejni nadzor, sodstvo in službe socialne varnosti)

    Obramba in varnost

    Finance, bančništvo, zavarovalništvo

    Načini uporabe ali nameni z visokim tveganjem

    Kadrovanje

    Ocenjevanje učencev, dijakov in študentov

    Dodeljevanje javnih sredstev

    Odobritev posojil

    Trgovanje, posredovanje, obdavčenje itd.

    Zdravljenje in medicinski posegi

    Volilni postopki in politične kampanje

    Odločitve javnega sektorja, ki občutno in neposredno vplivajo na pravice in obveznosti fizičnih ali pravnih oseb

    Avtomatizirana vožnja

    Upravljanje prometa

    Avtonomni vojaški sistemi

    Proizvodnja in distribucija energije

    Ravnanje z odpadki

    Nadzor emisij


    (1)  Za avtomatizirano vožnjo vozil je bilo v mednarodnem standardu SAE J3016, ki je bil nazadnje posodobljen leta 2018 na J2016_201806, predlaganih šest ravni avtomatizacije vožnje, https://www.sae.org/standards/content/j3016_201806/.

    (2)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

    (3)  Direktiva 2002/58/ES Evropskega parlamenta in Sveta z dne 12. julija 2002 o obdelavi osebnih podatkov in varstvu zasebnosti na področju elektronskih komunikacij (Direktiva o zasebnosti in elektronskih komunikacijah) (UL L 201, 31.7.2002, str. 37).

    (4)  Prilagojena opredelitev iz sporočila Evropske komisije COM(2018)0237, 25.4.2018, str. 1.

    (5)  Iz opredelitve industrijskih robotov v ISO 8373.

    (6)  Direktiva (EU) 2019/1937 Evropskega parlamenta in Sveta z dne 23. oktobra 2019 o zaščiti oseb, ki prijavijo kršitve prava Unije (UL L 305, 26.11.2019, str. 17).


    Top