2021 10 6   

LT

Europos Sąjungos oficialusis leidinys

C 404/63


P9_TA(2020)0275

Dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų nuostatos

2020 m. spalio 20 d. Europos Parlamento rezoliucija su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos (2020/2012(INL))

(2021/C 404/04)

Europos Parlamentas,

atsižvelgdamas į Sutarties dėl Europos Sąjungos veikimo 225 straipsnį,

atsižvelgdamas į Sutarties dėl Europos Sąjungos veikimo 114 straipsnį,

atsižvelgdamas į Europos Sąjungos pagrindinių teisių chartiją,

atsižvelgdamas į 2018 m. rugsėjo 28 d. Tarybos reglamentą (ES) 2018/1488 dėl Europos našiosios kompiuterijos bendrosios įmonės sukūrimo (1),

atsižvelgdamas į 2000 m. birželio 29 d. Tarybos direktyvą 2000/43/EB, įgyvendinančią vienodo požiūrio principą asmenims nepriklausomai nuo jų rasės arba etninės priklausomybės (2) (Rasinės lygybės direktyva),

atsižvelgdamas į 2000 m. lapkričio 27 d. Tarybos direktyvą 2000/78/EB, nustatančią vienodo požiūrio užimtumo ir profesinėje srityje bendruosius pagrindus (3) (Vienodo požiūrio užimtumo srityje direktyva),

atsižvelgdamas į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentą (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (4) (BDAR), ir į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos direktyvą (ES) 2016/680 dėl fizinių asmenų apsaugos kompetentingoms institucijoms tvarkant asmens duomenis nusikalstamų veikų prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už jas arba bausmių vykdymo tikslais ir dėl laisvo tokių duomenų judėjimo ir kuria panaikinamas Tarybos pamatinis sprendimas 2008/977/TVR (5),

atsižvelgdamas į 2016 m. balandžio 13 d. Tarpinstitucinį susitarimą dėl geresnės teisėkūros (6),

atsižvelgdamas į 2018 m. birželio 6 d. pasiūlymą dėl Europos Parlamento ir Tarybos reglamento dėl 2021–2027 m. Skaitmeninės Europos programos sudarymo (COM(2018)0434),

atsižvelgdamas į 2019 m. gruodžio 11 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos žaliasis kursas“ (COM(2019)0640),

atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą“ (COM(2020)0065),

atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos duomenų strategija“ (COM(2020)0066),

atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos skaitmeninės ateities formavimas“ (COM(2020)0067),

atsižvelgdamas į 2020 m. birželio mėn. Europos Sąjungos Tarybos išvadas dėl Europos skaitmeninės ateities kūrimo,

atsižvelgdamas į savo 2017 m. vasario 16 d. rezoliuciją su rekomendacijomis Komisijai dėl robotikai taikomų civilinės teisės nuostatų (7),

atsižvelgdamas į savo 2017 m. birželio 1 d. rezoliuciją dėl Europos pramonės skaitmeninimo (8),

atsižvelgdamas į savo 2018 m. rugsėjo 12 d. rezoliuciją dėl autonominių ginklų sistemų (9),

atsižvelgdamas į savo 2018 m. rugsėjo 11 d. rezoliuciją dėl kalbų lygybės skaitmeniniame amžiuje (10),

atsižvelgdamas į savo 2019 m. vasario 12 d. rezoliuciją dėl visapusiškos Europos pramonės politikos dirbtinio intelekto ir robotikos srityje (11),

atsižvelgdamas į Komisijos sudarytos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais 2019 m. balandžio 8 d. ataskaitą „Patikimo dirbtinio intelekto etikos gairės“,

atsižvelgdamas į Europos Parlamento tyrimų tarnybos (EPRS) atliktą Europos pridėtinės vertės vertinimo tyrimą „Europos dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistema: Europos pridėtinės vertės vertinimas“ (12),

atsižvelgdamas į informacinius pranešimus ir tyrimus, parengtus Mokslo ir technologijų ateities komisijos (STOA) prašymu, vadovaujant Mokslinio perspektyvų tyrimo skyriui, priklausančiam Europos Parlamento tyrimų tarnybai, t. y. „O jeigu algoritmai galėtų laikytis etikos principų?“, „Dirbtinis intelektas ante portas: teisiniai ir etiniai pasvarstymai“, „Algoritmų atskaitomybės ir skaidrumo valdymo sistema“, „Ar turėtume bijoti dirbtinio intelekto?“ ir „Dirbtinio intelekto etika: iššūkiai ir iniciatyvos“,

atsižvelgdamas į Europos Tarybos Tautinių mažumų apsaugos pagrindų konvenciją, Žmogaus teisių ir pagrindinių laisvių apsaugos konvencijos protokolą Nr. 12 ir Europos regioninių arba mažumų kalbų chartiją,

atsižvelgdamas į 2019 m. gegužės 22 d. priimtą EBPO tarybos rekomendaciją dėl dirbtinio intelekto,

atsižvelgdamas į Darbo tvarkos taisyklių 47 ir 54 straipsnius,

atsižvelgdamas į Užsienio reikalų komiteto, Vidaus rinkos ir vartotojų apsaugos komiteto, Transporto ir turizmo komiteto, Piliečių laisvių, teisingumo ir vidaus reikalų komiteto, Užimtumo ir socialinių reikalų komiteto, Aplinkos, visuomenės sveikatos ir maisto saugos komiteto ir Kultūros ir švietimo komiteto nuomones,

atsižvelgdamas į Teisės reikalų komiteto pranešimą (A9-0186/2020),

Įvadas

A.

kadangi dirbtinį intelektą, robotiką ir susijusias technologijas kuria, diegia ir naudoja žmonės ir jų sprendimus lemia potenciali tokių technologijų nauda visuomenei;

B.

kadangi dirbtinis intelektas, robotika ir susijusios technologijos, galintys suteikti galimybių įmonėms ir naudos piliečiams ir daryti tiesioginį poveikį visiems mūsų visuomenės aspektams, įskaitant pagrindines teises, socialinius ir ekonominius principus bei vertybes, taip pat daryti ilgalaikę įtaką visoms veiklos sritims, skatinami ir kuriami greitai;

C.

kadangi dirbtinis intelektas, robotika ir susijusios technologijos iš esmės pakeis darbo rinką ir darbo vietas; kadangi šios technologijos turi potencialo pakeisti pasikartojančius veiksmus atliekančius darbuotojus, palengvinti žmogaus ir mašinos bendradarbiavimu grindžiamų darbo sistemų veikimą, užtikrinti didesnį konkurencingumą ir gerovę bei kurti naujas darbo galimybes kvalifikuotiems darbuotojams, kartu keldami didelių iššūkių, susijusių su darbo jėgos reorganizavimu;

D.

kadangi dirbtinio intelekto, robotikos ir susijusių technologijų plėtra gali taip pat prisidėti siekiant Europos žaliojo kurso tvarumo tikslų daugelyje skirtingų sektorių; kadangi skaitmeninės technologijos gali padidinti politikos sričių poveikį, kiek tai susiję su aplinkos apsauga; kadangi jos taip pat gali padėti sumažinti eismo spūstis ir išmetamų šiltnamio efektą sukeliančių dujų ir oro teršalų kiekį;

E.

kadangi tokiuose sektoriuose, kaip viešasis transportas, dirbtinio intelekto remiamos intelektinės transporto sistemos gali būti naudojamos siekiant sumažinti spūsčių skaičių, optimizuoti maršrutų parinkimą, sudaryti sąlygas neįgaliesiems būti labiau nepriklausomiems, ir padidinti energijos vartojimo efektyvumą, taip prisidedant prie pastangų mažinti priklausomybę nuo iškastinio kuro ir aplinkosauginį pėdsaką;

F.

kadangi šios technologijos sukuria naujų verslo galimybių, kurios gali prisidėti prie Sąjungos pramonės atsigavimo po dabartinės sveikatos ir ekonomikos krizės, jei jomis bus aktyviau naudojamasi, pvz., transporto pramonėje; kadangi dėl tokių galimybių gali atsirasti naujų darbo vietų, nes šių technologijų diegimas turi potencialo padidinti įmonių produktyvumą ir prisidėti prie didesnio efektyvumo; kadangi šios srities inovacijų programos gali sudaryti sąlygas regioniniams klasteriams klestėti;

G.

kadangi Sąjungai ir jos valstybėms narėms tenka ypatinga atsakomybė naudoti ir skatinti dirbtinį intelektą bei didinti jo pridėtinę vertę, taip pat užtikrinti, kad dirbtinio intelekto technologijos būtų saugios ir prisidėtų prie piliečių gerovės kūrimo ir bendrojo intereso tenkinimo, nes jos gali labai padėti siekti bendro tikslo – gerinti piliečių gyvenimą ir skatinti gerovę Sąjungoje, padėdamos kurti geresnes strategijas ir inovacijas daugelyje sričių ir sektorių; kadangi, norint panaudoti visą dirbtinio intelekto potencialą ir užtikrinti, kad naudotojai būtų informuoti apie dirbtinio intelekto technologijų teikiamą naudą ir jų keliamus iššūkius, dirbtinio intelekto ar skaitmeninio raštingumo klausimą būtina įtraukti į švietimo ir mokymo procesą, įskaitant skaitmeninės įtraukties skatinimą, taip pat rengti Sąjungos lygmens informavimo kampanijas, kurių metu būtų preciziškai paaiškinami visi dirbtinio intelekto kūrimo aspektai;

H.

kadangi bendros Sąjungos nuostatos, reglamentuojančios dirbtinio intelekto, robotikos ir susijusių technologijų kūrimą, diegimą ir naudojimą (dirbtinio intelekto reguliavimo sistema), turėtų suteikti galimybę piliečiams dalytis jų teikiamais privalumais ir kartu apsaugoti juos nuo tokių technologijų galimai keliamos rizikos, taip pat skatinti tokių technologijų patikimumą Sąjungoje ir už jos ribų; kadangi ši sistema turėtų būti grindžiama Sąjungos teise ir vertybėmis ir remtis skaidrumo, paaiškinamumo, sąžiningumo, atskaitomybės ir atsakomybės principais;

I.

kadangi tokia reguliavimo sistema yra labai svarbi siekiant išvengti vidaus rinkos susiskaidymo, kurį lemia skirtingi nacionaliniai teisės aktai, ir padės skatinti labai reikalingas investicijas, plėtoti duomenų infrastruktūrą ir remti mokslinius tyrimus; kadangi ją turėtų sudaryti bendros teisinės prievolės ir etikos principai, nustatyti prašomame pasiūlyme dėl reglamento, kuris pateikiamas šios rezoliucijos priede; kadangi ši sistema turėtų būti sukurta remiantis geresnio reglamentavimo gairėmis;

J.

kadangi Sąjungoje galioja griežta teisinė sistema, kuria siekiama užtikrinti, inter alia, asmens duomenų ir privatumo apsaugą bei nediskriminavimą, skatinti lyčių lygybę, aplinkos apsaugą ir vartotojų teises; kadangi tokia teisinė sistemą, apimanti platų horizontaliųjų ir sektorių teisės aktų rinkinį, įskaitant galiojančias gaminių saugos ir atsakomybės taisykles, ir toliau bus taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, tačiau siekiant atspindėti skaitmeninę pertvarką ir spręsti naujus uždavinius, susijusius su dirbtinio intelekto naudojimu, gali reikėti atlikti tam tikrus specialių teisinių priemonių pakeitimus;

K.

kadangi kyla abejonių dėl to, kad dabartinė Sąjungos teisinė sistema, įskaitant vartotojų apsaugos teisę bei užimtumo ir socialinę acquis, duomenų apsaugos teisės aktus, gaminių saugos ir rinkos priežiūros teisės aktus, taip pat kovos su diskriminacija teisės aktus, gali nebebūti tinkama siekiant veiksmingai spręsti su dirbtinio intelekto, robotikos ir susijusių technologijų keliama rizika susijusius klausimus;

L.

kadangi, greta esamų teisės aktų pritaikymo, su dirbtinio intelekto technologijomis susiję teisiniai ir etiniai klausimai turėtų būti sprendžiami taikant veiksmingą, išsamią ir perspektyvią reguliavimo pagal Sąjungos teisę sistemą, kuri atspindėtų Sutartyse ir Europos Sąjungos pagrindinių teisių chartijoje (toliau – Chartija) įtvirtintus Sąjungos principus ir vertybes ir kuria turėtų būti atsisakoma perteklinio reglamentavimo ir tik panaikinamos esamos teisinės spragos, taip pat didinamas teisinis tikrumas įmonėms ir piliečiams, visų pirma nustatant privalomas priemones, kurios užkirstų kelią praktikai, neabejotinai kenkiančiai pagrindinėms teisėms ir laisvėms;

M.

kadangi bet kokioje naujoje reguliavimo sistemoje reikia atsižvelgti į visus susijusius interesus; kadangi nuodugnus bet kokios naujos reguliavimo sistemos padarinių visiems veikėjams poveikio vertinimas turėtų būti būtina tolesnių teisėkūros veiksmų sąlyga; kadangi lemiamas mažųjų ir vidutinių įmonių (MVĮ) ir startuolių vaidmuo, ypač Sąjungos ekonomikoje, pagrindžia griežtai proporcingą požiūrį, kuris suteikia joms galimybę plėstis ir diegti inovacijas;

N.

kadangi dirbtinis intelektas, robotika ir susijusios technologijos gali sukelti rimtų pasekmių materialiai ir nematerialiai asmenų, grupių ir visos visuomenės neliečiamybei ir dėl galimos pavienės ir kolektyvinės žalos turi būti imtasi atsakomųjų teisėkūros priemonių;

O.

kadangi, siekiant laikytis Sąjungos dirbtinio intelekto reguliavimo sistemos, gali reikėti priimti konkrečias Sąjungos transporto sektoriaus taisykles;

P.

kadangi dirbtinio intelekto technologijos yra strategiškai svarbios transporto sektoriui, dėl jų, be kita ko, didėja visų transporto rūšių sauga ir prieinamumas, kuriamos naujos užimtumo galimybės ir tvaresni verslo modeliai; kadangi Sąjungos požiūris į dirbtinio intelekto, robotikos ir susijusių technologijų plėtrą transporto srityje gali padidinti Sąjungos ekonomikos konkurencingumą pasaulyje ir jos strateginį savarankiškumą;

Q.

kadangi 95 proc. visų eismo įvykių Sąjungoje vis dar susiję su žmogaus klaidomis; kadangi Sąjunga buvo išsikėlusi tikslą iki 2020 m. 50 proc. sumažinti kasmetinių žūčių keliuose skaičių, palyginti su 2010 m., o pažangai sustojus savo pastangas atnaujino parengdama 2021–2030 m. ES kelių eismo saugumo politikos programą „Tolesni žingsniai siekiant visiškai saugaus eismo vizijos“; kadangi šiuo atžvilgiu dirbtinis intelektas, automatizavimas ir kitos naujos technologijos turi didelį potencialą ir yra gyvybiškai svarbios didinant kelių eismo saugumą sumažindami žmogaus klaidų tikimybę;

R.

kadangi Sąjungos dirbtinio intelekto reguliavimo sistema taip pat turėtų atspindėti poreikį užtikrinti, kad būtų paisoma darbuotojų teisių; kadangi reikėtų atsižvelgti į 2020 m. birželio mėn. Europos socialinių partnerių pagrindų susitarimą dėl skaitmeninimo;

S.

kadangi Sąjungos dirbtinio intelekto reguliavimo sistemos taikymo sritis turėtų būti tinkama, proporcinga ir kruopščiai įvertinta; kadangi ji turėtų apimti įvairias technologijas ir jų komponentus, įskaitant algoritmus, programinę įrangą ir jų naudojamus arba sukurtus duomenis, todėl būtina taikyti rizika grindžiamą tikslinį požiūrį, kad būtų išvengta trukdžių diegiant būsimas inovacijas ir nereikalingos naštos sukūrimo, visų pirma MVĮ; kadangi dirbtinio intelekto, robotikos ir susijusių technologijų valdomų taikomųjų programų įvairovė apsunkina galimybę rasti vieną sprendimą, tinkantį visam rizikos spektrui;

T.

kadangi duomenų analizė ir dirbtinis intelektas daro vis didesnį poveikį piliečiams prieinamai informacijai; kadangi tokios technologijos, jeigu jomis naudojamasi netinkamai, gali kelti pavojų pagrindinėms teisėms į saviraiškos laisvę ir informaciją, taip pat žiniasklaidos laisvei ir pliuralizmui;

U.

kadangi Sąjungos dirbtinio intelekto reguliavimo sistemos geografinė aprėptis turėtų apimti visus Sąjungoje sukurtų, įdiegtų arba naudojamų dirbtinio intelekto, robotikos ir susijusių technologijų komponentus, įskaitant atvejus, kai dalis tokių technologijų gali būti už Sąjungos ribų arba nėra susieta su konkrečia vieta;

V.

kadangi Sąjungos dirbtinio intelekto reguliavimo sistema turėtų apimti visus atitinkamus etapus, t. y. atitinkamų technologijų ir jų sudedamųjų dalių kūrimą, diegimą ir naudojimą, todėl reikia deramai atsižvelgti į atitinkamas teisines prievoles ir etikos principus, ir joje turėtų būti nustatytos sąlygos, kuriomis užtikrinama, kad kūrėjai, diegėjai ir naudotojai visapusiškai laikytųsi tokių prievolių ir principų;

W.

kadangi norint laikytis suderinto požiūrio į etikos principus, taikomus dirbtiniam intelektui, robotikai ir susijusioms technologijoms, reikia užtikrinti, kad Sąjungoje būtų vienodai suprantamos sąvokos, kurios yra šių technologijų pagrindas, ir tokios sąvokos kaip algoritmai, programinė įranga, duomenys ar biometrinis atpažinimas;

X.

kadangi Sąjungos lygmens veiksmai yra pagrįsti poreikiu vengti reglamentavimo skirtumų arba įvairių nacionalinių reglamentavimo nuostatų, kai nėra bendro standarto, ir užtikrinti, kad kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas būtų vienodai taikomi teisės aktuose įtvirtinti bendri etikos principai; kadangi tais atvejais, kai kyla didelė rizika, reikia taikyti aiškias taisykles;

Y.

kadangi bendri etikos principai yra veiksmingi tik tada, kai jie yra įtvirtinti ir teisėje ir kai nustatomi subjektai, atsakingi už atitikties užtikrinimą, vertinimą ir stebėseną;

Z.

kadangi etinės gairės, pvz., Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais priimti principai, yra tinkamas išeities taškas, tačiau jomis negali būti užtikrinama, kad kūrėjai, diegėjai ir naudotojai elgtųsi sąžiningai ir garantuotų veiksmingą asmenų apsaugą; kadangi tokios gairės yra dar svarbesnės kalbant apie didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas;

AA.

kadangi kiekviena valstybė narė turėtų paskirti nacionalinę priežiūros instituciją, atsakingą už didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo atitikties Sąjungos dirbtinio intelekto reguliavimo sistemai užtikrinimą, vertinimą ir stebėseną; kadangi tokia institucija taip pat turėtų sudaryti sąlygas diskusijoms ir keitimuisi nuomonėmis glaudžiai bendradarbiaujant su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene; kadangi nacionalinės priežiūros institucijos turėtų bendradarbiauti tarpusavyje;

AB.

kadangi, siekiant užtikrinti suderintą požiūrį visoje Sąjungoje ir optimalų bendrosios skaitmeninės rinkos veikimą, reikėtų įvertinti Komisijos ir (arba) bet kurios atitinkamos Sąjungos institucijos, įstaigos, organo ir agentūros, kurie gali būti paskirti atsakingais šioje srityje, Sąjungos lygmeniu vykdomą koordinavimą atsižvelgiant į naujas galimybes ir iššūkius, visų pirma tarpvalstybinio pobūdžio, kylančius dėl vykstančių technologinių pokyčių; kadangi šiuo tikslu Komisijai turėtų būti pavesta rasti tinkamą sprendimą dėl tokio koordinavimo Sąjungos lygmeniu struktūros;

Į žmogų orientuotas ir žmogaus sukurtas dirbtinis intelektas

1.

mano, kad, nedarant poveikio konkretiems sektoriams taikomiems teisės aktams, būtina veiksminga ir suderinta reguliavimo sistema, grindžiama Sąjungos teise, Chartija ir tarptautine žmogaus teisių teise ir taikytina visų pirma didelės rizikos technologijoms, siekiant visoje Sąjungoje nustatyti vienodus standartus ir veiksmingai apsaugoti Sąjungos vertybes;

2.

mano, kad bet kokia nauja dirbtinio intelekto reguliavimo sistema, apimanti teisines prievoles ir etikos principus, taikomus kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų visapusiškai atitikti Chartiją, taigi turėtų būti gerbiamas žmogaus orumas, savarankiškumas ir asmens apsisprendimas, užkertamas kelias žalai, skatinamas sąžiningumas, įtrauktis ir skaidrumas, naikinamas šališkumas ir diskriminacija, įskaitant kovą su mažumų diskriminacija, taip pat turėtų būti laikomasi ir paisoma principų, pagal kuriuos ribojamas neigiamas naudojamos technologijos išorinis poveikis, užtikrinamas technologijos paaiškinamumas ir garantuojama, kad technologijos teiktų naudą žmonėms, o ne juos pakeistų arba priimtų sprendimus vietoje jų, siekiant galutinio tikslo kiekvienam žmogui užtikrinti didesnę gerovę;

3.

pabrėžia asimetriją tarp dirbtinio intelekto technologijas naudojančių subjektų ir tų subjektų, kurie su jomis sąveikauja ir kuriems jos taikomos; atsižvelgdamas į tai, pabrėžia, kad piliečių pasitikėjimas dirbtiniu intelektu gali būti grindžiamas tik standartizuotosios etikos ir integruotosios etikos reguliavimo sistema, kuria užtikrinama, kad bet koks pradėtas naudoti dirbtinis intelektas visapusiškai paisytų ir laikytųsi Sutarčių, Chartijos ir antrinės Sąjungos teisės; mano, kad laikantis tokio požiūrio kaip pagrindo turėtų būti užtikrinama atitiktis atsargumo principui, kuriuo grindžiami Sąjungos teisės aktai, ir tai turėtų būti bet kokios dirbtinio intelekto reguliavimo sistemos pagrindas; šiuo atžvilgiu ragina sukurti aiškų ir nuoseklų valdymo modelį, kuris sudarytų sąlygas įmonėms ir inovatoriams toliau kurti dirbtinį intelektą, robotiką ir susijusias technologijas;

4.

mano, kad bet kokie teisėkūros veiksmai dirbtinio intelekto, robotikos ir susijusių technologijų klausimais turėtų atitikti būtinumo ir proporcingumo principus;

5.

mano, kad toks požiūris sudarys sąlygas įmonėms pateikti rinkai novatoriškus produktus ir suteikti naujų galimybių, kartu užtikrinant Sąjungos vertybių apsaugą, skatinant kurti dirbtinio intelekto sistemas, apimančias integruotosios Sąjungos etikos principus; mano, kad tokia vertybėmis grindžiama reguliavimo sistema sukurtų pridėtinę vertę, suteikdama Sąjungai unikalų konkurencinį pranašumą, ir reikšmingai prisidėtų prie Sąjungos piliečių ir įmonių gerovės bei klestėjimo, skatindama vidaus rinkos plėtojimą; pabrėžia, kad tokia dirbtinio intelekto sistema taip pat suteiks pridėtinę vertę skatinant inovacijų diegimą rinkoje; mano, kad, pvz., transporto sektoriuje šis požiūris suteikia Sąjungos įmonėms galimybę tapti pasauliniais lyderiais šioje srityje;

6.

pažymi, kad Sąjungos teisinė sistema turėtų būti taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas;

7.

pažymi, kad dirbtiniu intelektu, robotika ir susijusiomis technologijomis grindžiamos galimybės priklauso nuo didžiųjų duomenų ir kad norint lavinti algoritmus bei tobulinti rezultatus būtina kritinė duomenų masė; šiuo požiūriu teigiamai vertina Komisijos pasiūlymą sukurti bendrą Sąjungos duomenų erdvę, siekiant stiprinti duomenų mainus ir remti mokslinius tyrimus visapusiškai laikantis Europos duomenų apsaugos taisyklių;

8.

mano, kad dabartinė Sąjungos teisinė sistema, visų pirma susijusi su apsauga ir privatumu bei asmens duomenimis, turės būti visapusiškai taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, ji turės būti reguliariai peržiūrima, tikrinama ir prireikus atnaujinama, siekiant veiksmingai kovoti su rizika, kurią kelia šios technologijos, todėl galėtų būti tikslinga ją papildyti tvirtais pagrindiniais etikos principais; atkreipia dėmesį į tai, kad tais atvejais, kai būtų per anksti priimti teisės aktus, reikėtų pasitelkti privalomos teisinės galios neturinčias priemones;

9.

tikisi, kad Komisija, atsižvelgdama į Baltąją knygą dėl dirbtinio intelekto, patikimą etinį požiūrį įtrauks į prašomą pasiūlymą dėl teisėkūros procedūra priimamo akto, kuris pateikiamas šios rezoliucijos priede, įskaitant saugumo, atsakomybės ir pagrindinių teisių aspektus, kuriais sukuriamos didžiausios įmanomos galimybės ir kuo labiau sumažinama dirbtinio intelekto technologijų keliama rizika; tikisi, kad prašomame pasiūlyme dėl teisėkūros procedūra priimamo akto bus numatyti politiniai sprendimo būdai, skirti pagrindinei pripažintai dirbtinio intelekto keliamai rizikai pašalinti, be kita ko, įskaitant etišką didžiųjų duomenų rinkimą ir naudojimą, algoritmų skaidrumo ir algoritminio šališkumo problemą; ragina Komisiją parengti dirbtinio intelekto technologijos ženklinimo kriterijus ir rodiklius siekiant skatinti skaidrumą, paaiškinamumą ir atskaitomybę, taip pat skatinti kūrėjus imtis papildomų atsargumo priemonių; pabrėžia, kad reikia investuoti į netechninių disciplinų integravimą į dirbtinio intelekto tyrimus ir mokslinius tyrimus, atsižvelgiant į socialinį kontekstą;

10.

mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turi būti pritaikyti prie žmonių poreikių laikantis principo, pagal kurį jų kūrimas, diegimas ir naudojimas visada turėtų būti naudingi žmonėms, o ne atvirkščiai, ir jais turėtų būti siekiama didinti gerovę ir asmens laisvę, taip pat išsaugoti taiką, užkirsti kelią konfliktams ir stiprinti tarptautinį saugumą, kartu kuo labiau didinant jų teikiamą naudą ir užkertant kelią su jais susijusiai rizikai bei ją mažinant;

11.

pareiškia, kad kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant atvejus, kai tai daro žmogus, bet jais neapsiribojant, turėtų būti visada vadovaujamasi etikos principais ir visais atvejais projektuojant turėtų būti užtikrinama pagarba ir sudaromos sąlygos žmogiškajam veiksniui ir demokratinei priežiūrai, taip pat numatoma galimybė prireikus susigrąžinti žmogaus vykdomą kontrolę, įgyvendinant tinkamas kontrolės priemones;

Rizikos vertinimas

12.

pabrėžia, kad bet kokiu būsimu reguliavimo aktu turėtų sudaryti sąlygas laikytis diferencijuoto ir į ateitį orientuoto rizika grindžiamo požiūrio į dirbtinio intelekto, robotikos ir susijusių technologijų reguliavimą, įskaitant technologijų atžvilgiu neutralius standartus visuose sektoriuose, prireikus nustatant konkretiems sektoriams skirtus standartus; pažymi, jog siekiant užtikrinti vienodą rizikos vertinimo sistemos įgyvendinimą ir susijusių teisinių prievolių laikymąsi, kad būtų galima sudaryti vienodas sąlygas valstybėse narėse ir užkirsti kelią vidaus rinkos susiskaidymui, reikia išsamaus ir kumuliacinio didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar paskirčių sąrašo; pabrėžia, kad toks sąrašas turi būti reguliariai iš naujo vertinamas, ir pažymi, kad, atsižvelgiant į kintantį šių technologijų pobūdį, ateityje gali reikėti iš naujo įvertinti, kaip atliekamas jų rizikos vertinimas;

13.

mano, kad nustatant, ar dirbtinis intelektas, robotika ir susijusios technologijos turėtų būti laikomi keliančiais didelę riziką ir todėl jiems turėtų būti taikomas privalomo teisinių prievolių ir etikos principų laikymosi reikalavimas, kaip nustatyta dirbtinio intelekto reguliavimo sistemoje, visada turėtų būti atliekamas nešališkas, reguliuojamas ir išorinis ex ante vertinimas, grindžiamas konkrečiais ir apibrėžtais kriterijais;

14.

atsižvelgdamas į tai, mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turėtų būti laikomi keliančiais didelę riziką, jei jų kūrimas, diegimas ir naudojimas kelia didelį pavojų, kad asmenys gali būti sužaloti ar kad jiems ar visuomenei gali būti padaryta žala pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles; mano, kad atliekant vertinimą, ar dirbtinio intelekto technologijos kelia tokią riziką, reikėtų atsižvelgti į sektorių, kuriame jos kuriamos, diegiamos ar naudojamos, jų konkretų naudojimą ar paskirtį ir sužalojimo ar žalos, kurios galima tikėtis, sunkumą; pirmasis ir antrasis kriterijai, t. y. sektorius ir konkretus naudojimas ar paskirtis, turėtų būti vertinami kaip kumuliaciniai kriterijai;

15.

pabrėžia, kad šių technologijų rizikos vertinimas turėtų būti atliekamas remiantis išsamiu ir kumuliaciniu didelės rizikos sektorių ir didelės rizikos naudojimo būdų bei paskirčių sąrašu; yra tvirtai įsitikinęs, kad Sąjungoje šių technologijų rizikos vertinimas turėtų būti nuoseklus, ypač kai jos vertinamos atsižvelgiant į tai, ar jos atitinka dirbtinio intelekto reguliavimo sistemą ir ar laikomasi visų kitų taikomų konkretiems sektoriams skirtų teisės aktų;

16.

mano, kad šis rizika grindžiamas požiūris turėtų būti parengtas taip, kad būtų kuo labiau sumažinta administracinė našta įmonėms, ypač MVĮ, naudojant esamas priemones; tokios priemonės apima duomenų apsaugos poveikio vertinimo sąrašą, pateiktą Reglamente (ES) 2016/679, tačiau juo neapsiriboja;

Saugos priemonės, skaidrumas ir atskaitomybė

17.

primena, kad vartotojų teisė į informaciją yra įtvirtinta kaip vienas pagrindinių Sąjungos teisės principų, ir pabrėžia, kad dėl to ji turėtų būti visapusiškai įgyvendinta dirbtinio intelekto, robotikos ir susijusių technologijų srityje; mano, kad ši teisė visų pirma turėtų apimti skaidrumą, susijusį su sąveika su dirbtinio intelekto sistemomis, įskaitant automatizavimo procesus, ir su jų veikimo būdu, pajėgumais (pvz., informacijos filtravimo ir pateikimo būdais), tikslumu ir apribojimais; mano, kad tokia informacija turėtų būti teikiama nacionalinėms priežiūros institucijoms ir nacionalinėms vartotojų apsaugos institucijoms;

18.

pabrėžia, kad kuriant ir įgyvendinant šias technologijas, kurios gali būti rizikos šaltinis, jei jos pagrįstos neskaidriais algoritmais ir šališkais duomenų rinkiniais, yra labai svarbus vartotojų pasitikėjimas; mano, kad vartotojai turi turėti teisę būti suprantamu, savalaikiu, standartizuotu, tiksliu ir prieinamu būdu informuojami apie algoritmų sistemų egzistavimą, pagrindimą, galimus rezultatus ir poveikį vartotojams, apie tai, kaip susisiekti su sprendimus priimančiu asmeniu ir kaip galima patikrinti, veiksmingai užginčyti ir ištaisyti sistemos sprendimus; atsižvelgdamas į tai pabrėžia, kad reikia apsvarstyti informavimo ir informacijos atskleidimo principus, kuriais grindžiama vartotojų teisės acquis, ir jų laikytis; mano, kad galutiniams naudotojams būtina pateikti išsamią informaciją apie transporto sistemų ir dirbtino intelekto remiamų transporto priemonių veikimą;

19.

pažymi, jog labai svarbu, kad algoritmai ir duomenų rinkiniai, naudojami arba kuriami dirbtinio intelekto, robotikos ir susijusių technologijų, būtų paaiškinami ir tais atvejais, kai tai tikrai būtina ir visiškai laikomasi Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, būtų prieinami valdžios institucijoms, pvz., nacionalinėms priežiūros institucijoms ir rinkos priežiūros institucijoms; be to, pažymi, kad laikantis kuo aukštesnių taikytinų pramonės standartų tokius dokumentus turėtų saugoti subjektai, kurie dalyvauja skirtinguose didelės rizikos technologijų kūrimo etapuose; pažymi, kad rinkos priežiūros institucijos gali turėti papildomų prerogatyvų šioje srityje; atsižvelgdamas į tai, pabrėžia teisėtos apgrąžos inžinerijos vaidmenį; mano, kad gali reikėti išnagrinėti galiojančius rinkos priežiūros teisės aktus siekiant užtikrinti, jog etiniu požiūriu jie atitiktų dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimą;

20.

ragina reikalauti, kad didelės rizikos technologijų kūrėjai ir diegėjai, kai tai nurodoma rizikos vertinime, valdžios institucijoms pateiktų atitinkamus naudojimo ir projektavimo dokumentus bei saugos instrukcijas, įskaitant, kai tai tikrai būtina ir visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, pradinį kodą, kūrimo priemones ir sistemos naudojamus duomenis; pažymi, kad nustačius tokią prievolę būtų galima įvertinti jų atitiktį Sąjungos teisei ir etikos principams, ir šiuo atžvilgiu atkreipia dėmesį į teisėto nacionalinės bibliotekos leidinių deponavimo pavyzdį; atkreipia dėmesį į svarbų algoritmų skaidrumo ir algoritmų naudojimo skaidrumo skirtumą;

21.

taip pat pažymi, kad, siekiant gerbti žmogaus orumą, savarankiškumą ir saugumą, reikėtų tinkamai atsižvelgti į gyvybiškai svarbius ir pažangius medicinos prietaisus ir į tai, kad nepriklausomos patikimos institucijos turi išlaikyti būtinas priemones, kad galėtų teikti paslaugas šiuos prietaisus turintiems asmenims, kai pirminis kūrėjas ar diegėjas jų nebetiekia; tokios paslaugos, pvz., apimtų techninę priežiūrą, taisymą ir patobulinimus, įskaitant programinės įrangos atnaujinimus, kuriais pašalinamos triktys ir trūkumai;

22.

tvirtina, kad didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, naudojamus ar kuriamus tokių technologijų, neatsižvelgiant į jų kūrimo, diegimo ir naudojimo sritį, turėtų būti kuriami juos projektuojant saugiu, atsekamu, techniškai tvariu, patikimu, etišku būdu, taikant teisiškai privalomas nuostatas, ir jiems turėtų būti taikoma nepriklausoma kontrolė ir priežiūra; visų pirma mano, kad visi dirbtinio intelekto produktų ir paslaugų kūrimo ir tiekimo grandinių dalyviai turėtų būti teisiškai atsakingi, ir pabrėžia, kad reikalingi mechanizmai, kuriais būtų užtikrinta atsakomybė ir atskaitomybė;

23.

pabrėžia, kad reguliavimo nuostatos ir gairės, susijusios su paaiškinamumu, patikrinamumu, atsekamumu ir skaidrumu, taip pat, kai to reikalaujama atsižvelgiant į rizikos vertinimą ir tikrai būtina, visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, valdžios institucijų prieiga prie technologijų, duomenų ir kompiuterinių sistemų, kuriomis grindžiamos tokios technologijos, yra labai svarbios siekiant užtikrinti piliečių pasitikėjimą šiomis technologijomis, net jei paaiškinamumo lygis dėl šių technologijų sudėtingumo yra sąlyginis; pabrėžia, kad ne visada įmanoma paaiškinti, kodėl modelis lėmė tam tikrą rezultatą ar sprendimą, ir šiuo atveju tam tikras pavyzdys – vadinamieji juodosios dėžės algoritmai; todėl mano, kad šių principų laikymasis yra išankstinė sąlyga siekiant užtikrinti atskaitomybę;

24.

mano, kad piliečiai, įskaitant vartotojus, turėtų būti informuojami, kai sąveikauja su dirbtinį intelektą naudojančia sistema, ypač siekiant pritaikyti produktą ar paslaugą asmeniniams jų naudotojų poreikiams, apie tai, ar ir kaip jie gali išjungti ar apriboti tokį personalizavimą;

25.

šiuo atžvilgiu pažymi, jog norint, kad būtų pasitikima dirbtiniu intelektu, robotika ir susijusiomis technologijomis, jie turi būti techniškai tvarūs ir tikslūs;

26.

pabrėžia, kad tarpusavyje susietų dirbtinio intelekto ir robotikos tinklų apsauga yra svarbi ir turi būti imtasi griežtų priemonių siekiant užkirsti kelią saugumo pažeidimams, duomenų nutekėjimui, duomenų užkrėtimui, kibernetiniams išpuoliams ir netinkamam asmens duomenų naudojimui; siekiant šio tikslo reikia, jog atitinkamos agentūros, įstaigos ir institucijos Europos ir nacionaliniu lygmenimis dirbtų kartu ir bendradarbiautų su galutiniais šių technologijų naudotojais; ragina Komisiją ir valstybes nares užtikrinti, kad kuriant ir diegiant dirbtinio intelekto technologijas visada būtų laikomasi Sąjungos vertybių ir gerbiamos pagrindinės teisės, siekiant užtikrinti Sąjungos skaitmeninės infrastruktūros saugumą ir atsparumą;

Nešališkumas ir nediskriminavimas

27.

primena, kad dirbtinis intelektas, priklausomai nuo to, kaip jis kuriamas ir naudojamas, gali sukurti ir sustiprinti šališkumą, be kita ko, pagrindiniams duomenų rinkiniams būdingą šališkumą, ir taip lemti įvairių formų automatizuotą diskriminaciją, įskaitant netiesioginę diskriminaciją, visų pirma susijusią su panašių savybių turinčių asmenų grupėmis; ragina Komisiją ir valstybes nares imtis visų įmanomų priemonių siekiant išvengti tokio šališkumo ir užtikrinti visapusišką pagrindinių teisių apsaugą;

28.

yra susirūpinęs dėl šališkumo ir diskriminacijos rizikos kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas; primena, kad visais atvejais jais turėtų būti užtikrinama atitiktis Sąjungos teisei, taip pat gerbiamos žmogaus teisės ir orumas, asmens savarankiškumas ir apsisprendimas, taip pat garantuojamas vienodas požiūris į visus ir nediskriminavimas;

29.

pabrėžia, kad dirbtinio intelekto technologijos turėtų būti sukurtos taip, kad būtų gerbiamos ir saugomos Sąjungos vertybės ir prisidedama prie jų propagavimo, taip pat saugoma fizinė ir psichinė neliečiamybė, išlaikoma Sąjungos kultūrų ir kalbų įvairovė ir padedama tenkinti pagrindinius poreikius; pabrėžia, kad reikia vengti bet kokio naudojimo, kuris gali lemti nepriimtiną tiesioginę ar netiesioginę prievartą, kelti grėsmę psichologiniam savarankiškumui ir psichinei sveikatai arba lemti nepagrįstą priežiūrą, apgaulę ar neleistiną manipuliavimą;

30.

yra tvirtai įsitikinęs, kad turėtų būti griežtai laikomasi Chartijoje įtvirtintų pagrindinių žmogaus teisių, siekiant užtikrinti, kad dėl šių besiformuojančių technologijų neatsirastų apsaugos spragų;

31.

patvirtina, kad galimas šališkumas ir diskriminavimas pasitelkiant programinę įrangą, algoritmus ir duomenis gali padaryti akivaizdžią žalą asmenims ir visuomenei, todėl į juos reikėtų atkreipti dėmesį skatinant rengti strategijas ir jomis dalijantis, kad būtų su tuo kovojama, pvz., šalinant duomenų rinkinių šališkumą mokslinių tyrimų ir plėtros srityje, taip pat sukuriant duomenų tvarkymo taisykles; mano, kad taikant šį metodą programinė įranga, algoritmai ir duomenys gali tapti ištekliumi kovojant su šališkumo ir diskriminacijos reiškiniais tam tikrose situacijose ir teigiama socialinių pokyčių jėga;

32.

teigia, kad etinės sąžiningumo, tikslumo, konfidencialumo ir skaidrumo vertybės turėtų būti šių technologijų pagrindas, o tai reiškia, kad jų veikla turi būti tokia, kad negalėtų sukurti šališkų rezultatų;

33.

pabrėžia dirbtinio intelekto, robotikos ir susijusių technologijų naudojamų duomenų rinkinių kokybės svarbą, priklausomai nuo jų konteksto, ypač atsižvelgiant į mokymosi duomenų reprezentatyvumą, duomenų rinkinių šališkumo šalinimą, taip pat naudojamus algoritmus ir duomenų bei agregavimo standartus; pabrėžia, kad šiuos duomenų rinkinius turėtų tikrinti nacionalinės priežiūros institucijos, kai joms reikia užtikrinti šių rinkinių atitiktį pirmiau nurodytiems principams;

34.

pabrėžia, kad, atsižvelgiant į plačiai paplitusį dezinformacijos karą, kurį visų pirma kelia ne Europos subjektai, dirbtinio intelekto technologijos gali turėti etiniu požiūriu neigiamą poveikį, trečiajai šaliai išnaudojant duomenų ir algoritmų šališkumą arba tyčia keičiant mokymosi duomenis, taip pat jos gali būti veikiamos kitų formų pavojingų piktavališkų manipuliacijų nenuspėjamais būdais ir su neprognozuojamomis pasekmėmis; todėl Sąjungai vis labiau reikia toliau investuoti į mokslinius tyrimus, analizę, inovacijas ir tarpvalstybinį bei tarpsektorinį žinių perdavimą, kad būtų plėtojamos dirbtinio intelekto technologijos, kurios būtų akivaizdžiai nesusijusios su jokiu profiliavimu, šališkumu ir diskriminacija ir galėtų veiksmingai prisidėti prie kovos su melagingomis naujienomis ir dezinformacija, sykiu gerbiant duomenų privatumą ir Sąjungos teisinę sistemą;

35.

primena, kad svarbu užtikrinti asmenims veiksmingas teisių gynimo priemones, ir ragina valstybes nares užtikrinti, kad būtų galima naudotis prieinamomis, įperkamomis, nepriklausomomis ir veiksmingomis procedūromis ir peržiūros mechanizmais siekiant garantuoti nešališką visų skundų dėl piliečių turimų teisių, pvz., vartotojų ar pilietinių teisių, pažeidimų naudojant algoritmų sistemas peržiūrą, kurią atliktų žmogus, neatsižvelgiant į tai, ar tokius skundus pateikė viešojo, ar privačiojo sektoriaus subjektai; pabrėžia Europos Parlamento ir Tarybos direktyvos dėl atstovaujamųjų ieškinių siekiant apsaugoti kolektyvinius vartotojų interesus, kuria panaikinama Direktyva 2009/22/EB, projekto, dėl kurio 2020 m. birželio 22 d. buvo pasiektas politinis susitarimas, svarbą, turint omenyje būsimas bylas siekiant užginčyti dirbtinio intelekto sistemos, galinčios pažeisti vartotojų teises, diegimą ar nuolatinį naudojimą arba ištaisyti teisių pažeidimą; prašo Komisijos ir valstybių narių užtikrinti, kad nacionalinės ir Sąjungos vartotojų organizacijos turėtų pakankamą finansavimą, kad galėtų padėti vartotojams pasinaudoti savo teise į teisinės gynybos priemonę tais atvejais, kai pažeidžiamos jų teisės;

36.

atsižvelgdamas į tai, mano, kad bet kuris fizinis ar juridinis asmuo turėtų galėti kreiptis dėl žalos atlyginimo, susijusio su dirbtinio intelekto, robotikos ar susijusios technologijos jo nenaudai priimtu sprendimu, kuriuo pažeidžiama Sąjungos ar nacionalinė teisė;

37.

mano, kad vartotojai taip pat galėtų kreiptis į nacionalines priežiūros institucijas, kaip pirmąjį kontaktinį subjektą įtariamų Sąjungos reguliavimo sistemos pažeidimų atvejais, prašydami apginti jų teises, kad būtų užtikrintas veiksmingas minėtos sistemos įgyvendinimas;

Socialinė atsakomybė ir lyčių pusiausvyra

38.

pabrėžia, kad socialiniu požiūriu atsakingas dirbtinis intelektas, robotika ir susijusios technologijos turi padėti rasti sprendimus, kuriais siekiama apsaugoti ir skatinti pagrindines teises ir mūsų visuomenės vertybes, pvz., demokratiją, teisinę valstybę, įvairią ir nepriklausomą žiniasklaidą, objektyvią ir laisvai prieinamą informaciją, sveikatos apsaugą ir ekonominę gerovę, lygias galimybes, darbuotojų ir socialines teises, kokybišką švietimą, vaikų apsaugą, kultūrų ir kalbų įvairovę, lyčių lygybę, skaitmeninį raštingumą, inovacijas ir kūrybiškumą; primena, jog būtina užtikrinti, kad būtų tinkamai atsižvelgiama į visų piliečių, įskaitant marginalizuotus arba pažeidžiamoje padėtyje esančius asmenis, pvz., neįgaliuosius, interesus ir jiems būtų atstovaujama;

39.

pabrėžia, kad svarbu pasiekti aukšto lygio bendrą skaitmeninį raštingumą ir rengti šios srities aukštos kvalifikacijos specialistus, taip pat visoje Sąjungoje užtikrinti tokių kvalifikacijų tarpusavio pripažinimą; pažymi, kad būtina turėti skirtingas kūrėjų ir inžinierių grupes, kurios dirbtų kartu su pagrindiniais visuomenės veikėjais, siekiant išvengti netyčinio šališkumo lyčių ir kultūrų atžvilgiu įtraukimo į dirbtinio intelekto algoritmus, sistemas ir taikomąsias programas; pritaria švietimo programų kūrimui ir visuomenės informavimo veiklai, susijusiai su socialiniu, teisiniu ir etiniu dirbtinio intelekto poveikiu;

40.

pabrėžia, kad labai svarbu garantuoti minties ir saviraiškos laisvę ir taip užtikrinti, kad šios technologijos neskatintų neapykantą kurstančių kalbų ar smurto, todėl mano, kad pagal pagrindinius Sąjungos principus trukdymas naudotis skaitmeniniu būdu įgyvendinamai saviraiškos laisvei arba jos ribojimas yra neteisėtas, išskyrus atvejus, kai naudojimasis šia pagrindine teise apima neteisėtus veiksmus;

41.

pabrėžia, kad dirbtinis intelektas, robotika ir susijusios technologijos gali padėti mažinti socialinę nelygybę, ir tvirtina, kad Europos modelis, kuriuo siekiama skatinti jų kūrimą, turi būti grindžiamas piliečių pasitikėjimu ir didesne socialine sanglauda;

42.

pabrėžia, kad diegiant bet kokią dirbtinio intelekto sistemą neturėtų būti nepagrįstai ribojama naudotojų prieiga prie viešųjų paslaugų, pvz., socialinės apsaugos; todėl ragina Komisiją įvertinti, kaip būtų galima pasiekti šį tikslą;

43.

pabrėžia, kokie svarbūs atsakingi mokslinai tyrimai ir plėtra, siekiant kuo labiau išnaudoti visą dirbtinio intelekto, robotikos ir susijusių technologijų potencialą piliečių ir visuomenės labui; ragina sutelkti Sąjungos ir jos valstybių narių išteklius siekiant kurti ir remti atsakingas inovacijas;

44.

pabrėžia, kad technologiniai įgūdžiai bus vis svarbesni ir todėl reikės nuolat atnaujinti mokymo programas, visų pirma skirtas būsimoms kartoms, ir skatinti dabartinių darbo rinkos dalyvių profesinį perkvalifikavimą; atsižvelgdamas į tai, tvirtina, kad inovacijos ir mokymai turėtų būti skatinami ne tik privačiajame, bet ir viešajame sektoriuje;

45.

primygtinai tvirtina, kad kuriant, diegiant ir naudojant šias technologijas jokie asmenys neturėtų patirti sužalojimo ir jiems, visuomenei ar aplinkai neturėtų būti sukelta jokios žalos ir kad atitinkamai šių technologijų kūrėjai, diegėjai ir naudotojai turėtų būti laikomi atsakingais už tokį sužalojimą ar žalą pagal atitinkamas Sąjungos ir nacionalines atsakomybės taisykles;

46.

ragina valstybes nares įvertinti, ar darbo vietų praradimas dėl šių technologijų diegimo turėtų lemti tinkamą viešąją politiką, pvz., darbo laiko sutrumpinimą;

47.

teigia, kad, siekiant sudaryti sąlygas plačiam visuomenės pritarimui dirbtiniam intelektui, robotikai ir susijusioms technologijoms, labai reikalingas Sąjungos vertybėmis ir etikos principais pagrįstas projektavimo metodas; mano, kad šis požiūris, pagal kurį siekiama kurti patikimą, etiškai atsakingą ir techniškai patvarų dirbtinį intelektą, yra svarbus veiksnys siekiant tvaraus, pažangaus, saugaus ir prieinamo judumo;

48.

atkreipia dėmesį į didelę autonominių transporto priemonių pridėtinę vertę riboto judumo asmenims, nes tokios transporto priemonės leidžia tokiems asmenims veiksmingiau naudotis asmeniniu kelių transportu ir taip palengvina jų kasdienį gyvenimą; pabrėžia prieinamumo svarbą, ypač kuriant paslauginio judumo (angl. Mobility as a Service, MaaS) sistemas;

49.

ragina Komisiją toliau remti patikimo dirbtinio intelekto sistemų kūrimą, kad transportas taptų saugesnis, veiksmingesnis, prieinamesnis, įperkamesnis ir įtraukesnis, be kita ko, riboto judumo asmenims, ypač neįgaliesiems, atsižvelgiant į Europos Parlamento ir Tarybos direktyvą (ES) 2019/882 (13) ir į Sąjungos teisės aktus dėl keleivių teisių;

50.

mano, kad dirbtinis intelektas gali būti naudingas siekiant geriau panaudoti neįgaliųjų įgūdžius ir kompetencijas ir kad dirbtinio intelekto taikymas darbo vietose gali padėti užtikrinti darbo rinkų įtraukumą ir didesnį neįgaliųjų užimtumo lygį;

Aplinka ir tvarumas

51.

teigia, kad valdžios institucijos ir verslo įmonės turėtų naudoti dirbtinį intelektą, robotiką ir susijusias technologijas taip, kad jie būtų naudingi žmonėms ir planetai, padėtų siekti darnaus vystymosi, aplinkos išsaugojimo, neutralaus poveikio klimatui ir žiedinės ekonomikos tikslų; kuriant, diegiant ir naudojant šias technologijas turėtų būti padedama siekti žaliosios pertvarkos, tausojama aplinka ir dedamos pastangos kuo labiau sumažinti aplinkai per visą jų eksploatavimo ciklą ir visoje jų tiekimo grandinėje daromą žalą bei ją pašalinti, laikantis Sąjungos teisės;

52.

atsižvelgiant į didelį dirbtinio intelekto, robotikos ir susijusių technologijų poveikį aplinkai, ankstesnės dalies tikslais, kai reikia ir tinkama, konkretaus sektoriaus institucijos galėtų įvertinti šių technologijų kūrimo, diegimo ir naudojimo poveikį aplinkai per visą jų eksploatavimo ciklą; toks vertinimas galėtų apimti reikalingų medžiagų gavybos poveikio įvertinimą, energijos suvartojimą ir išmetamą šiltnamio efektą sukeliančių dujų kiekį, susijusį su jų kūrimu, diegimu ir naudojimu;

53.

siūlo kuriant atsakingus pažangiausius dirbtinio intelekto sprendimus ištirti, skatinti ir kuo labiau padidinti dirbtinio intelekto, robotikos ir susijusių technologijų potencialą, atsakingai vykdant mokslinius tyrimus ir plėtrą, o tam reikia sutelkti Sąjungos ir jos valstybių narių išteklius;

54.

pabrėžia, kad šių technologijų kūrimas, diegimas ir naudojimas suteikia galimybių skatinti Jungtinių Tautų nustatytus darnaus vystymosi tikslus, pasaulinę energetikos pertvarką ir priklausomybės nuo iškastinio kuro mažinimą;

55.

mano, kad socialinės atsakomybės, lyčių lygybės, aplinkos apsaugos ir tvarumo tikslais neturėtų būti pažeidžiami šiose srityse taikomi bendrieji ir sektorių įsipareigojimai; mano, kad turėtų būti nustatytos neprivalomos įgyvendinimo gairės, skirtos kūrėjams, diegėjams ir naudotojams, ypač didelės rizikos technologijų atveju, ir susijusios su jų atitikties šiam reglamentui ir šių tikslų pasiekimo vertinimo metodika;

56.

ragina Sąjungą skatinti ir finansuoti į žmogų sutelkto dirbtinio intelekto, robotikos ir susijusių technologijų, kurie padėtų spręsti aplinkos ir klimato uždavinius ir užtikrintų pagrindinių teisių laikymąsi, kūrimą taikant mokestines, viešųjų pirkimų ar kitas paskatas;

57.

pabrėžia, kad, nepaisant dabartinio didelio anglies pėdsako kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant automatizuotus sprendimus ir mašinų mokymąsi, šios technologijos gali padėti sumažinti dabartinį IRT sektoriaus aplinkosauginį pėdsaką; pabrėžia, kad šios ir kitos tinkamai reglamentuojamos susijusios technologijos turėtų būti esminiai veiksniai, kuriuos pasitelkus būtų įgyvendinami Žaliojo kurso tikslai, JT darnaus vystymosi tikslai ir Paryžiaus susitarimas daugelyje skirtingų sektorių, taip pat jie turėtų padidinti politikos, kuria užtikrinama aplinkos apsauga, pvz., politikos, taikomos atliekų mažinimo ir kovos su aplinkos būklės blogėjimu srityse, poveikį;

58.

ragina Komisiją atlikti tyrimą dėl dirbtinio intelekto technologijų anglies pėdsako poveikio ir įvertinti vartotojų perėjimo prie dirbtinio intelekto technologijų naudojimo teigiamą ir neigiamą poveikį;

59.

pažymi, kad, atsižvelgiant į vis didesnę dirbtinio intelekto taikomųjų programų, kurioms reikalingi kompiuteriniai, saugojimo ir energijos ištekliai, plėtrą, dirbtinio intelekto sistemų poveikis aplinkai turėtų būti vertinamas per visą jų eksploatavimo ciklą;

60.

mano, kad tokiose srityse kaip sveikata atsakomybę galiausiai turi prisiimti fizinis ar juridinis asmuo; pabrėžia, kad algoritmams apmokyti reikalingi atsekami ir viešai prieinami duomenys;

61.

tvirtai remia Komisijos pasiūlymą jos komunikate dėl Europos duomenų strategijos sukurti Europos sveikatos duomenų erdvę, kuria siekiama skatinti keitimąsi sveikatos srities duomenimis ir remti mokslinius tyrimus, visapusiškai laikantis duomenų apsaugos nuostatų, įskaitant duomenų tvarkymą naudojant dirbtinio intelekto technologijas, ir kuria stiprinamas ir išplečiamas sveikatos srities duomenų naudojimas ir pakartotinis naudojimas; ragina didinti tarpvalstybinio keitimosi sveikatos srities duomenimis apimtį, jų susiejimą ir naudojimą pasitelkiant bendras saugias duomenų saugyklas, konkrečios rūšies informaciją apie sveikatą, pvz., Europos sveikatos įrašus, genominę informaciją ir skaitmeninius medicininius vaizdus, siekiant supaprastinti Sąjungos masto sąveikius registrus ar duomenų bazes mokslinių tyrimų, mokslo ir sveikatos srityse;

62.

atkreipia dėmesį į dirbtinio intelekto naudą ligų prevencijos, gydymo ir kontrolės srityje – kaip pavyzdį galima paminėti, kad dirbtinis intelektas nuspėjo COVID-19 epidemiją anksčiau, nei PSO; primygtinai ragina Komisiją parengti Europos ligų prevencijos ir kontrolės centrui skirtą tinkamą reguliavimo sistemą ir skirti deramai išteklių, kad būtų galima rinkti reikalingus anoniminius duomenis realiuoju laiku visame pasaulyje, nepriklausomai ir derinant pastangas su valstybėmis narėmis, be kita ko, siekiant spręsti su COVID-19 pandemijos sukelta krize susijusius iššūkius;

Privatumas ir biometrinis atpažinimas

63.

pažymi, kad sparčiai didėja duomenų, įskaitant asmens duomenis, pvz., biometrinius duomenis, kurie gaunami kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, kūrimo ir naudojimo mastas, todėl pabrėžia, kad pagal Sąjungos teisę būtina gerbti piliečių teises į privatumą ir asmens duomenų apsaugą ir užtikrinti jų vykdymą;

64.

atkreipia dėmesį į tai, kad šių technologijų suteikiamą galimybę naudoti asmens ir ne asmens duomenis siekiant kategorizuoti asmenis ir itin tiksliai auditorijai adresuoti pranešimus, nustatyti asmenų pažeidžiamumą arba panaudoti tikslias prognozavimo žinias turi atsverti veiksmingai įgyvendinami duomenų apsaugos ir privatumo principai, pvz., duomenų kiekio mažinimo principai, teisė prieštarauti profiliavimui ir kontroliuoti savo duomenų naudojimą, teisė gauti sprendimo, grindžiamo automatizuotu duomenų tvarkymu, paaiškinimą, integruotoji privatumo apsauga, taip pat proporcingumo, būtinumo ir griežtai apibrėžto tikslo ribojimo pagal Bendrąjį duomenų apsaugos reglamentą principai;

65.

pabrėžia, kad tais atvejais, kai valdžios institucijos esminiais visuomenės intereso tikslais naudoja nuotolinio atpažinimo technologijas, pvz., biometrinių savybių atpažinimą, visų pirma veido atpažinimą, jos visada turėtų būti naudojamos atskleidžiant informaciją, proporcingai, tikslingai ir apsiribojant konkrečiais tikslais, ribotą laiką ir laikantis Sąjungos teisės, tinkamai atsižvelgiant į žmogaus orumą, savarankiškumą ir Chartijoje išdėstytas pagrindines teises; tokio naudojimo kriterijams ir apribojimams turėtų būti taikoma teisminė peržiūra ir demokratinė kontrolė, taip pat turėtų būti atsižvelgiama į jo psichologinį ir socialinį bei kultūrinį poveikį pilietinei visuomenei;

66.

pažymi, kad, nors dirbtinio intelekto, robotikos ir susijusių technologijų diegimas viešosios valdžios sprendimų priėmimo srityje teikia naudos, tačiau galimas ir sunkus piktnaudžiavimas, pvz., masinis stebėjimas, prognozavimo strategijos ir teisių į tinkamą procesą pažeidimai;

67.

mano, kad technologijos, kuriomis galima priimti automatizuotus sprendimus ir taip pakeisti valdžios institucijų priimamus sprendimus, turėtų būti vertinamos labai atsargiai, ypač teisingumo ir teisėsaugos srityse;

68.

mano, kad valstybės narės turėtų naudotis tokiomis technologijomis tik tuo atveju, jei yra išsamių įrodymų apie jų patikimumą ir jeigu yra įmanoma žmogaus atliekama prasminga peržiūra arba tokia peržiūra yra sistemingai atliekama tais atvejais, kai iškyla pavojus pagrindinėms laisvėms; pabrėžia, jog svarbu, kad nacionalinės valdžios institucijos atliktų griežtą poveikio pagrindinėms teisėms vertinimą, kai minėtais atvejais naudojamos dirbtinio intelekto sistemos, ypač kai tos technologijos įvertinamos kaip didelės rizikos technologijos;

69.

mano, kad bet koks sprendimas, priimtas naudojant dirbtinį intelektą, robotiką ar susijusias technologijas, kai įgyvendinamos viešosios valdžios prerogatyvos, turėtų būti užtikrinamas prasmingas žmogaus įsikišimas ir tinkamas procesas, ypač kai tos technologijos įvertinamos kaip didelės rizikos technologijos;

70.

mano, kad dėl technologinės pažangos neturėtų būti naudojamasi dirbtiniu intelektu, robotika ir susijusiomis technologijomis siekiant leisti joms autonomiškai priimti viešojo sektoriaus sprendimus, kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms;

71.

pažymi, kad dirbtinis intelektas, robotika ir susijusios technologijos teisėsaugos ir sienų kontrolės srityje galėtų padidinti visuomenės saugą ir saugumą, tačiau taip pat turėtų būti vykdoma visapusiška ir griežta visuomenės kontrolė ir užtikrinamas kuo didesnis skaidrumas tiek atskirų taikomųjų programų rizikos vertinimo, tiek bendros dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo teisėsaugos ir sienų kontrolės srityje apžvalgos požiūriu; mano, kad šios technologijos kelia didelę etinę riziką, į kurią reikia tinkamai atsižvelgti, turint omenyje galimą neigiamą poveikį asmenims, ypač jų teisėms į privatumą, duomenų apsaugą ir nediskriminavimą; pabrėžia, kad netinkamai jas naudojant gali kilti tiesioginė grėsmė demokratijai ir kad jas diegiant ir naudojant turi būti laikomasi proporcingumo ir būtinumo principų, Pagrindinių teisių chartijos, taip pat atitinkamų Sąjungos antrinės teisės aktų, pvz., duomenų apsaugos taisyklių; pabrėžia, kad priimant sprendimus dirbtinis intelektas niekada neturėtų pakeisti žmonių; mano, kad sprendimai, pvz., dėl užstato ar lygtinio paleidimo, kurie paskelbiami teisme, arba sprendimai, grindžiami tik automatizuotu duomenų tvarkymu, sukeliantys teisines pasekmes asmenims arba turintys jiems didelį poveikį, visada turi būti priimami atliekant prasmingą vertinimą ir žmogui priimant sprendimą;

Geras administravimas

72.

pabrėžia, kad tinkamas dirbtinio intelekto, robotikos ir susijusių technologijų, ypač didelės rizikos technologijų, kūrimo, diegimo ir naudojimo valdymas, be kita ko, taikant priemones, kuriomis daugiausia dėmesio skiriama atskaitomybei ir galimos šališkumo bei diskriminacijos rizikos šalinimui, gali padidinti piliečių saugumą ir pasitikėjimą šiomis technologijomis;

73.

mano, kad Komisijos ir (arba) kitų Sąjungos susijusių institucijų, įstaigų, tarnybų ar agentūrų, kurios gali būti paskirtos šiai užduočiai vykdyti šiame kontekste, koordinuojama bendra šių technologijų valdymo sistema, kurią turi įgyvendinti kiekvienos valstybės narės nacionalinės priežiūros institucijos, užtikrintų nuoseklų Sąjungos požiūrį ir užkirstų kelią bendrosios rinkos susiskaidymui;

74.

pažymi, kad kuriant dirbtinį intelektą, robotiką ir susijusias technologijas duomenys naudojami dideliu mastu ir kad tokių duomenų tvarkymas, dalijimasis jais, prieiga prie jų ir jų naudojimas turi būti reglamentuojami laikantis teisės aktų bei juose nustatytų kokybės, vientisumo, sąveikumo, skaidrumo, saugumo, privatumo ir kontrolės reikalavimų;

75.

primena, kad prieiga prie duomenų yra svarbi skaitmeninės ekonomikos augimo dalis; todėl pabrėžia, kad duomenų sąveikumas, apribojant tikimybę, kad infrastruktūra bus naudojama neefektyviai, atlieka svarbų vaidmenį užtikrinant sąžiningas rinkos sąlygas ir skatinant vienodas galimybes skaitmeninėje bendrojoje rinkoje;

76.

pabrėžia, kad reikia užtikrinti tinkamą asmens duomenų, ypač duomenų apie pažeidžiamas grupes, pvz., neįgaliuosius, pacientus, vaikus, pagyvenusius, mažumoms priklausančiais asmenis, migrantus ir kitas grupes, kurioms gresia atskirtis, ir iš šių grupių gautų duomenų apsaugą;

77.

pažymi, kad dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas valdžios institucijose dažnai yra perduodamas privačiojo sektoriaus subjektams; mano, kad tai jokiu būdu neturėtų pakenkti visuomenės vertybių ir pagrindinių teisių apsaugai; mano, kad, kai taikytina, viešojo pirkimo sąlygos turėtų atspindėti valdžios institucijoms nustatytus etinius standartus;

Vartotojai ir vidaus rinka

78.

pabrėžia, jog svarbu, kad dirbtinio intelekto reglamentavimo sistema būtų taikoma tais atvejais, kai vartotojai Sąjungoje yra algoritmų sistemos naudotojai, jiems ji taikoma, jiems ketinama ją taikyti arba jie yra į ją orientuojami, neatsižvelgiant į sistemą kuriančių, parduodančių arba naudojančių subjektų įsisteigimo vietą; be to, mano, kad siekiant teisinio tikrumo tokioje sistemoje išdėstytos taisyklės turėtų būti taikomos visiems kūrėjams ir visoje vertės grandinėje, būtent kuriant, diegiant ir naudojant atitinkamas technologijas ir jų komponentus, ir jomis turėtų būti užtikrintas aukštas vartotojų apsaugos lygis;

79.

pažymi, kad dirbtinis intelektas, robotika ir atitinkamos technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, ir tokios sritys kaip daiktų internetas, mašinų mokymasis, taisyklėmis grindžiamos sistemos arba automatizuoti bei remiami sprendimų priėmimo procesai yra neatsiejamai susiję; be to, pažymi, kad galėtų būti parengtos standartizuotos piktogramos, kurios padėtų vartotojams paaiškinti tas sistemas, kai jos yra sudėtingos arba apima sprendimus, kurie daro didelę įtaką jų gyvenimui;

80.

primena, kad Komisija turėtų išnagrinėti dabartinę teisinę sistemą ir jos taikymą, įskaitant vartotojų teisės acquis, atsakokybę už produktus reglamentuojančius teisės aktus ir rinkos priežiūros teisės aktus, siekiant nustatyti teisines spragas, taip pat galiojančius reguliavimo įsipareigojimus; mano, kad tai būtina siekiant nustatyti, ar dabartinė teisinė sistema gali atremti dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimo keliamus iššūkius ir ar ji gali užtikrinti aukšto lygio vartotojų apsaugą;

81.

pabrėžia, kad būtina veiksmingai spręsti dirbtinio intelekto, robotikos ir susijusių technologijų keliamus uždavinius ir užtikrinti, kad vartotojai būtų įgalinti ir tinkamai apsaugoti; pabrėžia, kad būtina neapsiriboti tradiciniais informavimo ir informacijos atskleidimo principais, kuriais remiantis buvo sukurtas vartotojų teisės acquis, nes reikės stipresnių vartotojų teisių ir aiškių dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo apribojimų, siekiant užtikrinti, kad technologijos prisidėtų prie vartotojų gyvenimo gerinimo ir būtų vystomos atsižvelgiant į pagrindines ir vartotojų teises bei Sąjungos vertybes;

82.

atkreipia dėmesį į tai, kad Sprendimu Nr. 768/2008/EB (14) nustatyta teisine sistema sukuriamas suderintas gamintojų, importuotojų ir platintojų įsipareigojimų sąrašas, skatinama naudoti standartus ir numatomi keli kontrolės lygiai, atsižvelgiant į produkto pavojingumą; mano, kad ši sistema taip pat turėtų būti taikoma produktams su integruota dirbtinio intelekto technologija;

83.

pažymi, kad siekiant išnagrinėti dirbtinio intelekto, robotikos ir susijusių technologijų poveikį vartotojams, prieiga prie duomenų, visapusiškai laikantis Sąjungos teisės, pvz., susijusios su duomenų apsauga, privatumu ir komercinėmis paslaptimis, galėtų būti suteikta ir nacionalinėms kompetentingoms institucijoms; primena, kad svarbu šviesti vartotojus, kad jie būtų geriau informuoti ir kvalifikuoti naudotis dirbtiniu intelektu, robotika ir susijusiomis technologijomis, siekiant apsaugoti juos nuo galimos rizikos ir apsaugoti jų teises;

84.

ragina Komisiją pasiūlyti duomenų atsekamumo priemones, atsižvelgiant tiek į duomenų gavimo teisėtumą, tiek į vartotojų teisių ir pagrindinių teisių apsaugą, kartu visapusiškai laikantis Sąjungos teisės aktų, pvz., susijusių su duomenų apsauga, privatumu, intelektinės nuosavybės teisėmis ir komercinėmis paslaptimis;

85.

pažymi, kad šios technologijos turėtų būti orientuotos į vartotoją ir sukurtos taip, kad visi žmonės galėtų naudotis dirbtinio intelekto produktais ar paslaugomis, nepriklausomai nuo amžiaus, lyties, gebėjimų ar savybių; pabrėžia, kad ypač svarbu, kad šios technologijos būtų prieinamos neįgaliesiems; pažymi, kad neturėtų būti taikomas universalaus sprendimo principas ir turėtų būti apsvarstyti kuo platesniam spektrui vartotojų skirti tinkamumo visiems principai, kuriais būtų atsižvelgiama į atitinkamus prieinamumo standartus; pabrėžia, kad tai suteiks žmonėms vienodą prieigą ir galimybę aktyviai dalyvauti esamoje ir besiformuojančioje kompiuterinėje žmogaus veikloje ir pagalbinių technologijų atžvilgiu;

86.

pabrėžia, kad tais atvejais, kai lėšomis, gaunamomis iš valstybinių šaltinių, ženkliai prisidedama prie dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ar naudojimo, šalia atvirų viešųjų pirkimų konkursų ir atvirų sutarčių sudarymo standartų būtų galima apsvarstyti galimybę, susitarus su kūrėju, savaime skelbti kodą, generuojamus duomenis – jei tai nėra asmens duomenys – ir apmokytą modelį, kad būtų užtikrintas skaidrumas, sustiprintas kibernetinis saugumas ir pakartotinis naudojimas, siekiant skatinti inovacijas; pabrėžia, kad taip galima išnaudoti visas bendrosios rinkos teikiamas galimybes išvengiant rinkos susiskaidymo;

87.

mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turi didžiulį potencialą suteikti vartotojams galimybę naudotis kai kuriais patogumais daugelyje savo gyvenimo sričių ir kartu geresniais produktais ir paslaugomis, taip pat gauti naudos iš geresnės rinkos priežiūros, jei toliau būtų taikomi visi galiojantys principai, sąlygos, įskaitant skaidrumą ir patikrinamumą, ir nuostatai;

Saugumas ir gynyba

88.

pabrėžia, kad Europos Sąjungos ir jos valstybių narių saugumo ir gynybos politika grindžiama Chartijoje ir Jungtinių Tautų Chartijoje įtvirtintais principais ir bendru visuotinių vertybių – pagarbos neliečiamoms ir neatimamoms žmogaus teisėms, žmogaus orumui, laisvei, demokratijai, lygybei ir teisinei valstybei – supratimu; pabrėžia, kad visuose su gynyba susijusiuose Sąjungos veiksmuose turi būti paisoma šių visuotinių vertybių, kartu skatinant taiką, saugumą ir pažangą Europoje ir pasaulyje;

89.

palankiai vertina tai, kad 2019 m. Jungtinių Tautų konvencijos dėl tam tikrų įprastinių ginklų (CCW) aukštųjų susitariančiųjų šalių susitikime buvo patvirtinta 11 pagrindinių autonominių ginklų sistemų kūrimo ir naudojimo principų; vis dėlto apgailestauja dėl to, kad nepavyko susitarti dėl teisiškai privalomos priemonės, kuria būtų reglamentuojami mirtini autonominiai ginklai, ir veiksmingo vykdymo užtikrinimo mechanizmo; palankiai vertina ir palaiko Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais 2019 m. balandžio 9 d. paskelbtą pranešimą „Patikimo dirbtinio intelekto etikos gaires“ ir jos poziciją dėl autonominių mirtinų ginklų sistemų; primygtinai ragina valstybes nares parengti nacionalines mirtinų autonominių ginklų apibrėžimo ir statuso strategijas, siekiant parengti išsamią Sąjungos lygmens strategiją, ir drauge su Sąjungos vyriausiuoju įgaliotiniu ir Komisijos pirmininko pavaduotoju ir Taryba skatinti diskusijas dėl autonominių mirtinų ginklų sistemų pagal Jungtinių Tautų CCW sistemą ir kituose atitinkamuose forumuose ir siekti, kad būtų nustatytos tarptautinės normos, susijusios su visiškai autonominių, pusiau autonominių ir nuotoliniu būdu valdomų mirtinų ginklų sistemų kūrimo ir naudojimo etiniais ir teisiniais parametrais; primena šiuo klausimu priimtą savo 2018 m. rugsėjo 12 d. rezoliuciją dėl autonominių mirtinų ginklų sistemų ir dar kartą ragina skubiai parengti ir patvirtinti bendrąją poziciją dėl autonominių mirtinų ginklų sistemų, kad, atsižvelgiant į pasaulio iškiliausių dirbtinio intelekto tyrėjų atvirame laiške 2015 m. pateiktą pareiškimą, tarptautiniu mastu būtų uždrausta kurti, gaminti ir naudoti autonomines mirtinų ginklų sistemas, kuriomis galima vykdyti puolimus be prasmingos žmogaus vykdomos kontrolės, nesilaikant žmogaus dalyvavimo procese principo; palankiai vertina Tarybos ir Parlamento susitarimą Europos gynybos fondo lėšomis nefinansuoti veiksmų, kuriais siekiama kurti mirtinus autonominius ginklus „be galimybės žmonėms prasmingai kontroliuoti atrankos ir jėgos panaudojimo sprendimus, priimamus vykdant atakas“; mano, kad negali būti pamiršti kitų dirbtinio intelekto prietaikų gynyboje, pvz., žvalgyboje, stebėjime ir išžvalgyme, ar kibernetinėse operacijose etiniai aspektai ir kad reikia atkreipti ypatingą dėmesį į bepiločių orlaivių kūrimą ir naudojimą karinėse operacijose;

90.

pabrėžia, kad naujos gynybos ir saugumo sektoriaus technologijos, kurioms netaikomi tarptautinės teisės aktai, turėtų būti vertinamos remiantis žmogiškumo principu ir bendrosiomis moralės normomis;

91.

rekomenduoja, kad Sąjungos sistema, kuria reglamentuojamas dirbtinio intelekto sistemų naudojimas gynybos srityje tiek kovos, tiek nekovinėmis sąlygomis, atitiktų visus taikytinus teisinius režimus, visų pirma tarptautinę humanitarinę teisę ir tarptautinę žmogaus teisių teisę, taip pat Sąjungos teisę, principus ir vertybes, turint mintyje techninių ir saugumo infrastruktūrų skirtumus visoje Sąjungoje;

92.

pripažįsta, kad, kitaip nei gynybos pramonines bazes, ypatingos svarbos dirbtinio intelekto inovacijas galėtų kurti mažosios valstybės narės, todėl pagal standartizuotą BSGP požiūrį turėtų būti užtikrinama, kad nebūtų išstumiamos mažesnės valstybės narės ir MVĮ; pabrėžia, kad bendri ES dirbtinio intelekto pajėgumai, suderinti su valstybių narių veiklos koncepcijomis, gali padėti panaikinti techninį atotrūkį, dėl kurio atitinkamų technologijų, pramonės srities ekspertinių žinių arba gebėjimų diegti dirbtinio intelekto sistemas savo gynybos ministerijose neturinčios valstybės galėtų atsilikti;

93.

mano, kad dabartinė ir būsima su saugumu ir gynyba susijusi veikla Sąjungos sistemoje bus grindžiama dirbtiniu intelektu, robotika, autonomiškumu ir panašiomis technologijomis ir kad patikimas ir stabilus dirbtinis intelektas, kuriuo galima pasikliauti, galėtų prisidėti prie modernaus ir efektyvaus karinio pajėgumo; todėl Sąjunga turi imtis vadovaujamo vaidmens saugumo ir gynybos srityje naudojamų dirbtinio intelekto sistemų mokslinių tyrimų ir plėtros srityje; mano, kad dirbtiniu intelektu grindžiamų prietaikų naudojimas saugumo ir gynybos srityje galėtų duoti daug tiesioginės naudos operacijų vadovui, pvz., užtikrinti aukštesnės kokybės surinktus duomenis, didesnį informuotumą apie padėtį, spartesnį sprendimų priėmimą, dėl geresnės kabelių sistemos sumažėjusią netiesioginės žalos riziką, pajėgų apsaugą vietoje, taip pat didesnį karinės įrangos patikimumą, taigi, mažesnį pavojų žmonėms ir riziką, kad bus aukų; pabrėžia, kad, siekiant užtikrinti Europos strateginį savarankiškumą pajėgumų ir operacijų srityse, būtina gynybos srityje kurti patikimas dirbtinio intelekto technologijas; primena, kad dirbtinio intelekto sistemos taip pat tampa pagrindiniais kovos su tiek internete, tiek neprisijungus prie interneto kylančiomis grėsmėmis saugumui, tokiomis kaip kibernetinis ir hibridinis karas, elementais; sykiu atkreipia dėmesį į visą nereglamentuojamo dirbtinio intelekto naudojimo keliamą riziką ir su juo susijusius iššūkius; pažymi, kad dirbtinis intelektas gali būti paveiktas manipuliavimo, klaidų ir netikslumų;

94.

pabrėžia, kad dirbtinio intelekto technologijos iš esmės yra dvejopo naudojimo – karinių ir civilinių technologijų mainai duoda naudos kuriant dirbtinį intelektą su gynyba susijusios veiklos srityje; pabrėžia, kad su gynyba susijusios veiklos srityje naudojamas dirbtinis intelektas yra kompleksinė perversminė technologija, kurios plėtra gali suteikti galimybių užtikrinti Sąjungos konkurencingumą ir strateginį savarankiškumą;

95.

pripažįsta, kad šių dienų hibridinio ir pažangaus karo aplinkybėmis informacijos kiekis ir greitis ankstyvaisiais krizės etapais informacijos analitikams gali būti pernelyg dideli ir kad dirbtinio intelekto sistema galėtų apdoroti šią informaciją, kad, siekdami greitai reaguoti, sprendimus priimantys žmonės reikiamu metu galėtų sekti visą turimą informaciją;

96.

pabrėžia, kad svarbu investuoti į žmogiškojo kapitalo, susijusio su dirbtiniu intelektu, vystymą, skatinant reikiamus įgūdžius ir švietimą su saugumu ir gynyba susijusių dirbtinio intelekto technologijų srityje ir itin daug dėmesio skiriant žmogaus atskaitomybe grindžiamų pusiau autonominių ir autonominių operacijų sistemų etikos aspektams dirbtinio intelekto pasaulyje; ypač pabrėžia, jog svarbu užtikrinti, kad etikos specialistai šioje srityje turėtų tinkamų įgūdžių ir būtų tinkamai apmokyti; ragina Komisiją kuo greičiau pateikti „Įgūdžių stiprinimo darbotvarkę“, apie kurią paskelbta 2020 m. vasario 19 d. baltojoje knygoje dėl dirbtinio intelekto;

97.

pabrėžia, kad kvantinė kompiuterija galėtų būti revoliucingiausias pokytis konfliktų srityje nuo atominio ginklo atsiradimo laikų, todėl primygtinai ragina užtikrinti, kad tolesnė kvantinės kompiuterijos technologijų plėtra būtų vienas iš Sąjungos ir valstybių narių prioritetų; pripažįsta, kad dėl pasitelkiant kvantinę kompiuteriją rengiamų agresijos veiksmų, įskaitant išpuolius prieš ypatingos svarbos infrastruktūros objektus, susiklostys tokia konfliktų aplinka, kurioje sprendimams priimti skirtas laikas drastiškai sutrumpės nuo dienų ir valandų iki minučių ir sekundžių, todėl valstybės narės bus priverstos plėtoti apsisaugojimo pajėgumus ir mokyti tiek sprendimus priimančius asmenis, tiek kariškius veiksmingai reaguoti per tokį trumpą laiką;

98.

ragina daugiau investuoti į Europos gynybos srityje naudojamą dirbtinį intelektą ir į ypatingos svarbos infrastruktūrą, skirtą jam palaikyti;

99.

primena, kad dauguma dabartinių įtakingų karinių subjektų visame pasaulyje jau deda dideles pastangas dirbtinio intelekto karinio aspekto mokslinių tyrimų ir plėtros srityje; mano, kad Sąjunga turi užtikrinti, kad neatsiliktų šioje srityje;

100.

ragina Komisiją, siekiant užtikrinti, kad būtų kuriamos ir diegiamos saugios, atsparios ir patikimos dirbtiniu intelektu grindžiamos ir robotinės sistemos, savo pramonės politikoje įtvirtinti kibernetinio saugumo pajėgumo stiprinimo aspektą; ragina Komisiją išnagrinėti galimybę naudoti blokų grandine grindžiamus kibernetinio saugumo protokolus ir prietaikas, kad būtų galima, naudojantis duomenų šifravimo be tarpininkų modeliais, didinti dirbtinio intelekto infrastruktūros atsparumą, patikimumą ir stabilumą; ragina Europos suinteresuotuosius subjektus tirti ir projektuoti pažangias funkcijas, kurios padėtų aptikti sugadintas ir kenksmingas dirbtiniu intelektu grindžiamas ir robotikos sistemas, galinčias pakenkti Sąjungos ir jos piliečių saugumui;

101.

pabrėžia, kad visos gynybos srityje naudojamos dirbtinio intelekto sistemos turi turėti konkretų ir aiškiai apibrėžtą misijos pagrindą, pagal kurį žmogus turi galimybę aptikti ir atjungti arba dezaktyvuoti įdiegtas sistemas, jei šios veiktų ne pagal žmogaus nurodymu apibrėžtą ir nustatytą misijos pagrindą arba imtųsi bet kokių eskalacinių ar nenumatytų veiksmų; mano, kad dirbtinio intelekto sistemos, produktai ir technologijos, skirti kariniam naudojimui, turėtų turėti „juodąją dėžę“, kurioje būtų registruojamos visos mašinos atliekamos duomenų operacijos;

102.

pabrėžia, kad visa atskaitomybė ir atsakomybė už sprendimą projektuoti, plėtoti, diegti ir naudoti dirbtinio intelekto sistemas turi tekti operatoriams (žmonėms), nes žmogus turi prasmingai stebėti ir kontroliuoti bet kokią ginklų sistemą ir sąmoningai priimti sprendimą panaudoti jėgą vykdydamas bet kokį dirbtiniu intelektu grindžiamų ginklų sistemų sprendimą, kuris gali turėti mirtinų pasekmių; pabrėžia, kad žmogaus vykdoma kontrolė turėtų ir toliau būti veiksminga dirbtiniu intelektu pagrįstų sistemų valdymo ir kontrolės srityje, laikantis žmogaus dalyvavimo procese ir žmogaus atliekamo proceso valdymo principų karinės vadovybės lygmenyje; pabrėžia, kad dirbtiniu intelektu grindžiamos sistemos turi sudaryti sąlygas karinei vadovybei prisiimti visą atsakomybę ir užtikrinti visišką atskaitomybę už mirtinos jėgos naudojimą, taip pat disponuoti reikiamo masto diskrecija priimant sprendimus dėl tokių sistemų vykdomų mirtinų ar didelio masto niokojančių veiksmų, kurios negalima suteikti mašinoms, nes tokie sprendimai turi būti grindžiami gebėjimo atskirti, proporcingumo ir atsargumo principais; pabrėžia būtinybę sukurti aiškias ir atsekamas leidimų dislokuoti pažangius ginklus ir kitas dirbtiniu intelektu grindžiamas sistemas suteikimo ir atskaitomybės už jų dislokavimą sistemas naudojantis tokiomis unikaliomis naudotojų ypatybėmis kaip biometrinės specifikacijos, kad tokias sistemas galėtų dislokuoti tik įgaliotas personalas;

Transportas

103.

atkreipia dėmesį į dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo visose autonominėse kelių, geležinkelių, vandens ir oro transporto priemonėse potencialą, taip pat galimybes skatinti perėjimą prie kitų transporto rūšių ir intermodalumą, nes tokios technologijos gali padėti rasti optimalų krovininio ir keleivinio vežimo transporto rūšių derinį; be to, atkreipia dėmesį į jų potencialą didinti transporto, logistikos ir eismo srautų efektyvumą ir visų rūšių transportą padaryti saugesnį, pažangesnį ir ekologiškesnį; atkreipia dėmesį į tai, kad etinis požiūris į dirbtinį intelektą taip pat gali būti laikomas ankstyvojo perspėjimo sistema, ypač atsižvelgiant į transporto saugą ir veiksmingumą;

104.

pabrėžia, kad pasaulinė įmonių ir ekonominių regionų konkurencija reiškia, jog Sąjunga turi skatinti investicijas ir stiprinti tarptautinį transporto sektoriuje veikiančių įmonių konkurencingumą, sukurdama dirbtinio intelekto sprendimams ir tolesnėms inovacijoms plėtoti ir taikyti palankią aplinką, kurioje Sąjungoje įsisteigusios įmonės galėtų tapti pasaulinio masto lyderėmis dirbtinio intelekto technologijų kūrimo srityje;

105.

pabrėžia, kad Sąjungos transporto sektoriui reikia atnaujintos reguliavimo sistemos, susijusios su tokiomis besiformuojančiomis technologijomis ir jų naudojimu transporto sektoriuje, ir aiškios etinės sistemos patikimam dirbtiniam intelektui, įskaitant saugos, saugumo, pagarbos žmogaus autonomiškumui, priežiūros ir atsakomybės aspektus, dėl kurių padidės nauda, kuria dalijasi visi, ir kurios bus labai svarbios skatinant viešojo administravimo įstaigų, MVĮ, pradedančiųjų įmonių ir verslo įmonių investicijas į mokslinius tyrimus ir inovacijas, įgūdžių ugdymą ir dirbtinio intelekto diegimą, kartu užtikrinant duomenų apsaugą bei sąveikumą ir neužkraunant nereikalingos administracinės naštos įmonėms ir naudotojams;

106.

pažymi, kad dirbtinio intelekto transporto sektoriuje plėtra ir įgyvendinimas nebus galimi be šiuolaikinės infrastruktūros – esminės intelektinių transporto sistemų dalies; pabrėžia, jog dėl nuolatinių valstybių narių išsivystymo lygio skirtumų kyla grėsmė, kad autonominio judumo vystymosi nauda nebus pasiekiama mažiausiai išsivysčiusiems regionams ir jų gyventojams; ragina deramai finansuoti transporto infrastruktūros Sąjungoje modernizavimą, įskaitant jos integravimą į 5G tinklą;

107.

rekomenduoja nustatyti visų rūšių transportui, įskaitant automobilių pramonę, skirtus patikimus Sąjungos masto standartus, ir dirbtiniu intelektu pagrįstų transporto priemonių ir susijusių produktų bei paslaugų bandymų standartus;

108.

pažymi, kad dirbtinio intelekto sistemos galėtų padėti gerokai sumažinti žūčių keliuose skaičių, pavyzdžiui, dėl geresnio reagavimo laiko ir geresnio taisyklių laikymosi; vis dėlto mano, kad naudojant autonomines transporto priemones nebus išvengta nelaimingų atsitikimų, ir pabrėžia, kad dėl to tampa vis svarbiau paaiškinti dirbtinio intelekto sprendimus, siekiant pateisinti dirbtinio intelekto sprendimų trūkumus ir nenumatytas pasekmes;

Užimtumas, darbuotojų teisės, skaitmeniniai įgūdžiai ir darbo vieta

109.

pažymi, kad dirbtinį intelektą, robotiką ir susijusias technologijas taikant darbo vietoje gali būti prisidėta prie darbo rinkų įtraukumo bei daromas poveikis darbuotojų saugai ir sveikatai, tačiau tai taip pat gali būti naudojama darbuotojų veiklos rezultatams stebėti, vertinti, prognozuoti ir orientuoti, įskaitant tiesiogines ir netiesiogines pasekmes jų karjerai; kadangi dirbtinis intelektas turėtų teigiamai veikti darbo sąlygas ir būti grindžiamas pagarba žmogaus ir pagrindinėms teisėms bei Sąjungos vertybėms; kadangi dirbtinis intelektas turėtų būti orientuotas į žmogų, stiprinti žmonių ir visuomenės gerovę bei prisidėti prie sąžiningos ir teisingos pertvarkos; kadangi tokios technologijos turėtų teigiamai veikti darbo sąlygas ir būti grindžiamas pagarba žmogaus ir pagrindinėms teisėms bei Sąjungos vertybėms;

110.

akcentuoja būtinybę ugdyti kompetenciją užtikrinant darbuotojų ir jų atstovų mokymą bei švietimą dirbtinio intelekto darbo vietoje klausimais, kad būtų geriau suprantamas dirbtinio intelekto sprendimų poveikis; pabrėžia, kad, jeigu dirbtinis intelektas naudojamas vykdant įdarbinimo procedūras ir priimant kitus su žmogiškaisiais ištekliais susijusius sprendimus, kandidatai ir darbuotojai turi būti deramai raštu apie tai informuojami, taip pat kad jiems turi būti paaiškinama, kaip tokiu atveju kreiptis dėl persvarstymo dalyvaujant žmogui, siekiant, kad būtų atšauktas automatizuotomis priemonėmis priimtas sprendimas;

111.

akcentuoja būtinybę užtikrinti, kad dėl dirbtinio intelekto ir robotikos vystymo bei naudojimo padidėjęs našumas būtų naudingas ne tik įmonių savininkams ir akcininkams, bet ir – sudarant geresnes darbo ir įdarbinimo sąlygas, įskaitant darbo užmokestį, ekonominį augimą ir vystymąsi – įmonėms ir darbuotojams bei tarnautų visuomenei apskritai, ypač kai šis padidėjimas pasiekiamas darbo vietų sąskaita; ragina valstybes nares atidžiai išnagrinėti galimą dirbtinio intelekto poveikį darbo rinkai ir socialinės apsaugos sistemoms bei parengti strategijas, kaip užtikrinti ilgalaikį stabilumą reformuojant mokesčių ir įmokų tvarką bei – mažesnių viešųjų pajamų atveju – kitas priemones;

112.

akcentuoja įmonių investicijų į formalųjį mokymą ir savaiminį mokymąsi bei mokymąsi visą gyvenimą svarbą, siekiant remti teisingą perėjimą prie skaitmeninės ekonomikos; atsižvelgdamas į tai pabrėžia, jog dirbtinį intelektą diegiančios įmonės yra atsakingos už deramą visų susijusių darbuotojų perkvalifikavimą ir kvalifikacijos kėlimą, kad jie išmoktų naudotis skaitmeninėmis priemonėmis ir galėtų dirbti su robotais, kurių veikimas grindžiamas bendradarbiavimu (angl. co-bot), ir kitomis naujomis technologijomis ir taip prisitaikę prie kintančių darbo rinkos poreikių išsaugotų darbo vietą;

113.

mano, kad ypatingas dėmesys turėtų būti teikiamas naujoms darbo formoms, pvz., nenuolatiniam darbui, kuris grindžiamas dalyvavimu įgyvendinant konkrečius atskirus projektus, ir platformų darbui, kurios yra naujų technologijų taikymo šiame kontekste rezultatas; pabrėžia, kad reglamentuojant nuotolinio darbo sąlygas visoje Sąjungoje bei užtikrinant deramas darbo ir įsidarbinimo sąlygas skaitmeninėje ekonomikoje taip pat turi būti atsižvelgiama į dirbtinio intelekto poveikį; ragina Komisiją šiuo klausimu konsultuotis su socialiniais partneriais, dirbtinio intelekto kūrėjais, mokslo darbuotojais ir kitomis suinteresuotosiomis šalimis;

114.

pabrėžia, jog dėl dirbtinio intelekto, robotikos ir susijusių technologijų jokiu būdu negali nukentėti naudojimasis pagrindinėmis teisėmis, pripažįstamomis valstybių narių ir Sąjungos lygmenimis, įskaitant teisę ar laisvę streikuoti arba imtis kitų veiksmų, kuriuos apima konkrečios valstybių narių darbo santykių sistemos, apibrėžtos pagal nacionalinę teisę ir (arba) praktiką, arba teisė derėtis, sudaryti kolektyvines sutartis ir užtikrinti, kad jos būtų vykdomos, ar imtis kolektyvinių veiksmų laikantis nacionalinės teisės ir (arba) praktikos;

115.

pakartoja, kad svarbų vaidmenį ugdant skaitmeniniam amžiui reikiamas kvalifikacijas ir kovojant su skaitmenine atskirtimi atlieka švietimas ir nuolatinis mokymasis; ragina valstybes nares investuoti į aukštos kokybės, poreikiais grindžiamas ir įtraukias švietimo, profesinio mokymo ir mokymosi visą gyvenimą sistemas bei sektorių, kurie gali patirti itin neigiamą dirbtinio intelekto poveikį, darbuotojų perkvalifikavimo ir kvalifikacijos kėlimo politiką; akcentuoja būtinybę užtikrinti, kad esami ir būsimi darbuotojai įgytų reikiamų raštingumo, gebėjimo skaičiuoti ir skaitmeninių įgūdžių bei kompetencijų gamtos mokslų, technologijų, inžinerijos ir matematikos srityse, taip pat tokių universalių socialinių emocinių įgūdžių, kaip kritinis mąstymas, kūrybiškumas ir verslumas; pabrėžia, kad šiuo požiūriu ypatingas dėmesys turi būti teikiamas nepalankioje padėtyje esančių grupių atstovų įtraukčiai;

116.

primena, kad, vadovaujantis universalumo principu, dirbtinis intelektas, robotika ir susijusios technologijos, naudojamos darbo vietoje, turi būti prieinamos visiems;

Švietimas ir kultūra

117.

pabrėžia, kad būtina parengti dirbtinio intelekto kūrimo, diegimo ir naudojimo kriterijus, atsižvelgiant į jų poveikį švietimo, žiniasklaidos, jaunimo, mokslinių tyrimų ir kultūros bei kūrybos sektoriams, ir nustatyti etikos požiūriu atsakingo ir priimtino dirbtinio intelekto technologijų naudojimo šiose srityse gaires ir principus, įskaitant aiškią atsakomybės už produktus, sukuriamus naudojant dirbtinį intelektą, tvarką;

118.

pažymi, kad visi vaikai turi teisę į kokybišką viešąjį visų lygmenų švietimą; todėl ragina kurti, diegti ir naudoti kokybiškas dirbtinio intelekto sistemas, kurias taikant visais lygmenimis būtų skatinamos ir prieinamos kokybiškos švietimo priemonėms visiems, ir pabrėžia, kad dėl naujų dirbtinio intelekto sistemų diegimo mokyklose visuomenėje neturėtų didėti skaitmeninė atskirtis; pripažįsta, kad didžiulis dirbtinio intelekto ir robotikos potencialas gali būti naudingas švietimui; atkreipia dėmesį, kad personalizuotos dirbtiniu intelektu pagrįstos mokymo sistemos negali pakeisti pedagoginių santykių, kuriuose dalyvauja mokytojai, ir nereikėtų pamiršti tradicinių švietimo formų, kartu nurodydamas, kad mokytojams, siekiantiems įgyti tinkamų įgūdžių, kad galėtų prisitaikyti prie technologinių pokyčių ir ne tik pasinaudoti visu dirbtinio intelekto potencialu, bet ir suprasti jo ribas, turi būti teikiama finansinė, technologinė ir pedagoginė parama, įskaitant specializuotus informacinių ir ryšių technologijų srities mokymus; ragina parengti Sąjungos lygmens dirbtinio intelekto, robotikos ir susijusių technologijų strategiją siekiant padėti pertvarkyti ir atnaujinti mūsų švietimo sistemas, parengti mūsų visų lygmenų švietimo įstaigas ir užtikrinti, kad mokytojai ir mokiniai turėtų reikiamus įgūdžius bei gebėjimus;

119.

pabrėžia, kad švietimo įstaigos turėtų siekti naudoti ugdymo tikslais dirbtinio intelekto sistemas, kurioms išduotas Europos atitikties etikos principams sertifikatas;

120.

pabrėžia, kad skaitmeninimo ir naujų technologijų teikiamos galimybės neturi lemti bendro darbo vietų praradimo kultūros ir kūrybos sektoriuose, atsisakymo saugoti originalus ar tradicinės prieigos prie kultūros paveldo sumenkinimo – priešingai, tai turėtų būti lygiai taip pat skatinama; pažymi, kad Sąjungoje sukuriamos, diegiamos ir naudojamos dirbtinio intelekto sistemos turi atspindėti jos kultūrinę įvairovę ir daugiakalbystę;

121.

pripažįsta, kad didėja dirbtinio intelekto potencialas informacijos, žiniasklaidos ir interneto platformų srityse, taip pat kaip priemonė laikantis Sąjungos teisės nuostatų kovoti su dezinformacija; pabrėžia, kad, jei jis nebus reglamentuojamas, jis gali turėti etikos požiūriu neigiamą poveikį, nes naudojantis duomenų ir algoritmų iškraipymais gali būti platinama dezinformacija ir kuriami vadinamieji informacijos burbulai; pabrėžia algoritmų, kuriuos naudoja dalijimosi vaizdo įrašais platformos ir srautinio siuntimo platformos, skaidrumo ir atskaitomybės svarbą, siekiant užtikrinti prieigą prie kultūriniu ir kalbiniu požiūriu įvairaus turinio;

Nacionalinės priežiūros institucijos

122.

atkreipia dėmesį į pridėtinę vertę, kurią teikia kiekvienoje valstybėje narėje paskirta nacionalinė priežiūros institucija, atsakinga už teisinių prievolių ir etikos principų laikymosi užtikrinimą, vertinimą ir stebėseną kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, taip prisidedant prie šių technologijų atitikties teisiniams ir etiniams reikalavimams;

123.

pažymi, kad turi būti reikalaujama, kad šios institucijos, nekartodamos tų pačių užduočių, bendradarbiautų su valdžios institucijomis, atsakingomis už sektorių teisės aktų įgyvendinimą, kad būtų nustatytos etiniu požiūriu didelės rizikos technologijos, siekiant prižiūrėti būtinų ir tinkamų priemonių įgyvendinimą, kai nustatomos tokios technologijos;

124.

nurodo, kad siekiant užtikrinti darnią tarpvalstybinę veiklą tokios institucijos turėtų palaikyti ryšius ne tik tarpusavyje, bet ir su Europos Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis;

125.

siūlo, kad atsižvelgiant į tokį bendradarbiavimą, būtų nustatyti bendri kriterijai ir paraiškų teikimo procesas, susiję su Europos atitikties etikos principams sertifikato išdavimu, be kita ko, gavus technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjo, diegėjo ar naudotojo prašymą patvirtinti teigiamą atitinkamos nacionalinės priežiūros institucijos atliktą atitikties vertinimą;

126.

ragina tokioms institucijoms pavesti skatinti reguliarius mainus su pilietine visuomene ir inovacijas Sąjungoje, teikiant pagalbą atitinkamiems tyrėjams, kūrėjams ir kitiems susijusiems suinteresuotiesiems subjektams ir mažiau skaitmeniniu požiūriu brandžioms įmonėms, visų pirma mažosioms ir vidutinėms įmonėms arba startuoliams; ypač siekiama didinti informuotumą ir remti kūrimą, diegimą, mokymą ir talentų įgijimą, kad būtų galima užtikrinti veiksmingą technologijų perdavimą ir prieigą prie technologijų, projektų, rezultatų ir tinklų;

127.

ragina, kad kiekviena valstybė narė pakankamai finansuotų savo paskirtas nacionalines priežiūros institucijas, ir pabrėžia, kad reikia stiprinti nacionalinių rinkos priežiūros institucijų gebėjimus, įgūdžius ir kompetenciją, taip pat žinias apie specifinę dirbtinio intelekto, robotikos ir susijusių technologijų riziką;

Sąjungos lygmens koordinavimas

128.

pabrėžia, kad svarbu užtikrinti Sąjungos lygmens koordinavimą, kurį vykdytų Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiomis aplinkybėmis, kad būtų išvengta susiskaidymo ir užtikrintas nuoseklus požiūris visoje Sąjungoje; mano, kad koordinuojant daugiausia dėmesio turėtų būti skiriama kiekvienos valstybės narės nacionalinių priežiūros institucijų įgaliojimams ir veiksmams, kaip nurodyta ankstesniame poskirsnyje, taip pat tų institucijų keitimuisi geriausia patirtimi ir indėliui į bendradarbiavimą mokslinių tyrimų ir technologinės plėtros srityje visoje Sąjungoje; ragina Komisiją įvertinti ir rasti tinkamiausią tokio koordinavimo struktūros sprendimą; atitinkamų esamų Sąjungos institucijų, įstaigų, organų ir agentūrų pavyzdžiai yra ENISA, EDAPP ir Europos ombudsmenas;

129.

mano, kad toks koordinavimas, taip pat Europos atitikties etikos principams sertifikatas, ne tik būtų naudingi Sąjungos pramonės plėtrai ir inovacijoms šioje srityje, bet ir padidintų piliečių informuotumą apie šioms technologijoms būdingas galimybes ir riziką;

130.

siūlo sukurti ekspertų centrą, kuriame Sąjungos lygmeniu dirbtų mokslininkai, tyrėjai, pramonės atstovai ir pavieniai ekspertai, siekiant skatinti keitimąsi žiniomis ir technine kompetencija ir palengvinti bendradarbiavimą Sąjungoje ir už jos ribų; be to, ragina, kad šis ekspertų centras įtrauktų suinteresuotąsias organizacijas, pvz., vartotojų apsaugos organizacijos, kad būtų užtikrintas platus vartotojų atstovavimas; mano, kad dėl neproporcingo algoritmų sistemų poveikio moterims ir mažumoms tokios struktūros sprendimų priėmimo lygmenys turėtų būti skirtingi ir užtikrinti lyčių lygybę; pabrėžia, kad valstybės narės, atsižvelgdamos į savo nacionalines rinkos priežiūros strategijas, turi parengti dirbtinio intelekto rizikos valdymo strategijas;

131.

siūlo, kad Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti tokiomis aplinkybėmis, nacionalinėms priežiūros institucijoms teiktų visą būtiną pagalbą, susijusią su jų, kaip pirmųjų kontaktinių centrų, vaidmeniu tais atvejais, kai įtariama, kad pažeidžiamos Sąjungos dirbtinio intelekto reguliavimo sistemoje nustatytos teisinės prievolės ir etikos principai, įskaitant nediskriminavimo principą; ji taip pat turėtų teikti reikiamą pagalbą nacionalinėms priežiūros institucijoms tais atvejais, kai jos atlieka atitikties vertinimus, kad paremtų piliečių teisę užginčyti sprendimą ir ginti savo teises, visų pirma remdamos, kai taikytina, konsultacijas su kitomis Sąjungos kompetentingomis institucijomis, ypač su Vartotojų apsaugos bendradarbiavimo tinklu ir nacionalinėmis vartotojų apsaugos įstaigomis, pilietinės visuomenės organizacijomis ir socialiniais partneriais, esančiais kitose valstybėse narėse;

132.

pripažįsta vertingą Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais, kurią sudaro akademinės bendruomenės, pilietinės visuomenės ir pramonės, taip pat Europos dirbtinio intelekto aljanso atstovai, darbą, visų pirma jos parengtas „Patikimo dirbtinio intelekto etikos gaires“, ir siūlo, kad ši grupė teiktų ekspertines žinias Komisijai ir (arba) atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos šiomis aplinkybėmis;

133.

šiuo atžvilgiu palankiai vertina tai, kad į Europos gynybos pramonės plėtros programą (EGPPP) įtraukti su dirbtiniu intelektu susiję projektai; mano, kad būsimasis Europos gynybos fondas (EGF) ir nuolatinis struktūrizuotas bendradarbiavimas (PESCO) taip pat gali suteikti struktūrą būsimiems su dirbtiniu intelektu susijusiems projektams, kurie galėtų padėti geriau racionalizuoti Sąjungos pastangas šioje srityje ir kartu skatinti siekti Sąjungos tikslo stiprinti žmogaus teises, tarptautinę teisę ir daugiašalius sprendimus; pabrėžia, kad su dirbtiniu intelektu susiję projektai turėtų būti derinami su platesnio masto dirbtiniam intelektui skirtomis Sąjungos civilinėmis programomis; pažymi, kad pagal 2020 m. vasario 19 d. Europos Komisijos baltąją knygą dėl dirbtinio intelekto kompetencijos ir bandymų centrai, kuriuose daugiausia dėmesio būtų skiriama saugumo ir gynybos srityje naudojamo dirbtinio intelekto moksliniams tyrimams ir plėtrai, turėtų būti steigiami laikantis griežtų specifikacijų, kuriomis būtų grindžiamas privačių suinteresuotųjų subjektų dalyvavimas ir investicijos;

134.

atkreipia dėmesį į 2020 m. vasario 19 d. Komisijos baltąją knygą dėl dirbtinio intelekto ir apgailestauja, kad nebuvo atsižvelgta į karinius aspektus; ragina Komisiją ir Sąjungos vyriausiąjį įgaliotinį ir Komisijos pirmininko pavaduotoją, laikantis bendro požiūrio, pateikti sektorinę dirbtinio intelekto strategiją, skirtą su gynyba susijusiai veiklai Sąjungos sistemoje, kuria būtų užtikrinama pagarba piliečių teisėms ir Sąjungos strateginiams interesams ir kuri būtų grindžiama nuosekliu požiūriu, apimančiu ciklą nuo dirbtinio intelekto sistemų sukūrimo pradžios iki jų panaudojimo kariniais tikslais, ir Aukšto lygio ekspertų grupėje dirbtinio intelekto klausimais įsteigti Saugumo ir gynybos darbo grupę, kuri konkrečiai spręstų politikos ir investicijų klausimus, taip pat nagrinėtų dirbtinio intelekto saugumo ir gynybos srityje etikos aspektus; ragina Tarybą, Komisiją ir Komisijos pirmininko pavaduotoją ir Sąjungos vyriausiąjį įgaliotinį šiuo tikslu pradėti struktūrinį dialogą su Parlamentu.

Europos atitikties etikos principams sertifikavimas

135.

siūlo, Sąjungos lygmeniu koordinuojant veiksmus, nustatyti bendrus kriterijus ir paraiškų teikimo procedūrą, taikomus siekiant gauti Europos atitikties etikos principams sertifikatą, be kita ko, gavus bet kurio technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjo, diegėjo ar naudotojo prašymą patvirtinti teigiamą atitinkamos nacionalinės priežiūros institucijos atliktą atitikties vertinimą;

136.

mano, kad toks Europos atitikties etikos principams sertifikatas skatintų laikytis integruotosios etikos nuostatų visoje dirbtinio intelekto ekosistemų tiekimo grandinėje; todėl siūlo nustatyti, kad didelės rizikos technologijoms šis sertifikatas būtų privalomas, jei norima, kad jos atitiktų dirbtinio intelekto, robotikos ir susijusių technologijų srities viešųjų pirkimų procedūrų reikalavimus;

Tarptautinis bendradarbiavimas

137.

laikosi nuomonės, kad veiksmingą tarpvalstybinį bendradarbiavimą ir etikos standartų laikymąsi galima užtikrinti tik tuo atveju, jei visi suinteresuotieji subjektai įsipareigotų užtikrinti žmogiškojo veiksnio paisymą ir priežiūrą, techninį patikimumą ir saugą, skaidrumą ir atskaitomybę, įvairovę, nediskriminavimą ir teisingumą, visuomenės ir aplinkos gerovę, taip pat nustatytų privatumo, duomenų valdymo ir duomenų apsaugos principų, ypač įtvirtintų Reglamente (ES) 2016/679, laikymąsi;

138.

pabrėžia, kad Sąjungos teisinės prievolės ir etikos principai, taikomi šių technologijų kūrimui, diegimui ir naudojimui, galėtų paversti Europą dirbtinio intelekto sektoriaus pasauline lydere, todėl reikėtų, bendradarbiaujant su tarptautiniais partneriais ir toliau vykdant kritišką ir etika paremtą dialogą su trečiosiomis šalimis, įgyvendinančiomis alternatyvius dirbtinio intelekto reguliavimo, kūrimo ir diegimo modelius, propaguoti šias prievoles ir principus visame pasaulyje;

139.

primena, kad su šiomis technologijomis susijusios galimybės ir rizika yra pasaulinio masto, nes šioms sistemoms naudojama programinė įranga ir duomenys dažnai yra importuojami į Sąjungą ir iš jos eksportuojami, todėl tarptautiniu lygmeniu reikia laikytis nuoseklaus bendradarbiavimo požiūrio; ragina Komisiją imtis iniciatyvos ir išsiaiškinti, kokias dvišales ir daugiašales sutartis ir susitarimus reikėtų pakeisti, kad būtų užtikrinamas nuoseklus požiūris ir skatinama visame pasaulyje laikytis Europos atitikties etikos principams modelio;

140.

atkreipia dėmesį į koordinavimo Sąjungos lygmeniu pridėtinę vertę, kaip paaiškinta pirmiau;

141.

ragina užtikrinti įvairių Europos dirbtinio intelekto mokslinių tyrimų centrų, taip pat kitų daugiašalių forumų, pavyzdžiui, Europos Tarybos, Jungtinių Tautų švietimo, mokslo ir kultūros organizacijos (UNESCO), Ekonominio bendradarbiavimo ir plėtros organizacijos (EBPO), Pasaulio prekybos organizacijos ir Tarptautinės telekomunikacijų sąjungos (ITU), veiksmų sinergiją ir kurti jų tinklus, kad būtų galima suderinti jų pastangas ir geriau koordinuoti dirbtinio intelekto, robotikos ir susijusių technologijų plėtrą;

142.

pabrėžia, kad Sąjunga, konsultuodamasi su kariniais, pramonės, teisėsaugos, akademinės bendruomenės ir pilietinės visuomenės suinteresuotaisiais subjektais, turi būti lydere remiant daugiašalius veiksmus siekiant vykdyti diskusijas Jungtinių Tautų CCW vyriausybinėje ekspertų grupėje ir kituose atitinkamuose forumuose, kad būtų aptarta veiksminga tarptautinė reguliavimo sistema, kuria būtų užtikrinta reikšminga žmogaus vykdoma autonominių ginklų sistemų kontrolė, taip siekiant valdyti tas technologijas, nustatant aiškiai apibrėžtus lyginamaisiais standartais grindžiamus procesus ir priimant teisės aktus dėl jų etiško naudojimo, kad būtų galima suprasti susijusius etikos aspektus, sumažinti tokioms technologijoms būdingą riziką ir užkirsti kelią tokių technologijų naudojimui piktavališkais tikslais;

143.

pripažįsta NATO vaidmenį skatinant euroatlantinį saugumą ir ragina bendradarbiauti su NATO, taip siekiant nustatyti gynybos srityje naudojamų dirbtinio intelekto sistemų bendrus standartus ir užtikrinti jų sąveikumą; pabrėžia, kad, siekiant išsaugoti bendras vertybes ir kovoti su būsimomis ir naujomis grėsmėmis, transatlantiniai santykiai yra labai svarbūs;

144.

pabrėžia, kad svarbu sukurti etinio elgesio kodeksą, kuriuo būtų grindžiamas ginklais paverstų dirbtinio intelekto sistemų naudojimas per karines operacijas ir kuris būtų panašus į esamą reguliavimo sistemą, kuria draudžiama naudoti cheminius ir biologinius ginklus; laikosi nuomonės, kad Komisija turėtų imtis iniciatyvos, laikantis tarptautinės humanitarinės teisės normų, parengti dirbtiniu intelektu grindžiamų ginklų sistemų naudojimo kare standartus, o Sąjunga turėtų siekti, kad tokie standartai būtų patvirtinti tarptautiniu mastu; mano, kad Sąjunga tarptautiniuose forumuose drauge su panašių pažiūrų partneriais, pavyzdžiui, Didžiuoju septynetu, Didžiuoju dvidešimtuku ir EBPO, turėtų įsitraukti į diplomatijos dirbtinio intelekto srityje veiklą;

Baigiamieji aspektai

145.

atsižvelgdamas į pirmesnius svarstymus apie dirbtinio intelekto, robotikos ir susijusių technologijų etinius aspektus, daro išvadą, kad teisiniai ir etiniai aspektai turėtų būti įtvirtinti Sąjungos lygmens veiksmingoje, progresyvioje ir visapusiškoje reguliavimo sistemoje, kurią remtų nacionalinės kompetentingos institucijos, koordinuotų ir stiprintų Komisija ir (arba) visos kitos atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos ir kuri būtų parengta atsižvelgiant į nurodytas aplinkybes ir reguliariai remiama anksčiau minėto kompetencijos centro, jos būtų deramai paisoma ir ji būtų sertifikuota vidaus rinkoje;

146.

vadovaudamasis Sutarties dėl Europos Sąjungos veikimo 225 straipsnyje nustatyta procedūra, prašo Komisijos pateikti pasiūlymą dėl reglamento dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų, remiantis Sutarties dėl Europos Sąjungos veikimo 114 straipsniu ir atsižvelgiant į pridėtame priede pateiktas išsamias rekomendacijas; pabrėžia, kad šis pasiūlymas neturėtų apriboti sektorinių teisės aktų, jame tik reikėtų aptarti nustatytas spragas;

147.

rekomenduoja Europos Komisijai, pasikonsultavus su visais atitinkamais suinteresuotaisiais subjektais, peržiūrėti, jei reikia, esamus Sąjungos teisės aktus, taikomus dirbtiniam intelektui, robotikai ir susijusioms technologijoms, taip siekiant spręsti dėl jų kūrimo spartos iškylančias problemas, vadovaujantis pridėtame priede išdėstytomis rekomendacijomis, ir vengti pernelyg didelio reguliavimo, be kita ko, MVĮ;

148.

mano, jog reguliarūs Sąjungos dirbtinio intelekto, robotikos ir susijusių technologijų reguliavimo sistemos vertinimas ir peržiūra bus būtini siekiant užtikrinti, kad taikytini teisės aktai atitiktų sparčią technologinę pažangą;

149.

mano, jog prašomas pateikti pasiūlymas dėl teisėkūros procedūra priimamo akto turės finansinių pasekmių, jei kuriai nors Europos įstaigai būtų pavestos minėtos koordinavimo funkcijos ir suteiktos būtinos techninės priemonės ir žmogiškieji ištekliai, kad ji galėtų vykdyti naujai paskirtas užduotis;

o

o o

150.

paveda Pirmininkui perduoti šią rezoliuciją ir pridedamas išsamias rekomendacijas Komisijai ir Tarybai.

(1)  OL L 252, 2018 10 8, p. 1.

(2)  OL L 180, 2000 7 19, p. 22.

(3)  OL L 303, 2000 12 2, p. 16.

(4)  OL L 119, 2016 5 4, p. 1.

(5)  OL L 119, 2016 5 4, p. 89.

(6)  OL L 123, 2016 5 12, p. 1.

(7)  OL C 252, 2018 7 18, p. 239.

(8)  OL C 307, 2018 8 30, p. 163.

(9)  OL C 433, 2019 12 23, p. 86.

(10)  Priimti tekstai, P8_TA(2018)0332.

(11)  Priimti tekstai, P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179

(13)  2019 m. balandžio 17 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/882 dėl gaminių ir paslaugų prieinamumo reikalavimų (OL L 151, 2019 6 7, p. 70).

(14)  2008 m. liepos 9 d. Europos Parlamento ir Tarybos sprendimas Nr. 768/2008/EB dėl bendrosios gaminių pardavimo sistemos ir panaikinantis Sprendimą 93/465/EEB (OL L 218, 2008 8 13, p. 82).


REZOLIUCIJOS PRIEDAS.

REKOMENDACIJOS DĖL PRAŠOMO PATEIKTI PASIŪLYMO TURINIO

A.   PRAŠOMO PATEIKTI PASIŪLYMO PRINCIPAI IR TIKSLAI

I.

Pagrindiniai pasiūlymo principai ir tikslai yra šie:

visais susijusių suinteresuotųjų subjektų ir visuomenės lygmenimis kurti pasitikėjimą dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ypač jei jie laikomi didelės rizikos technologijomis;

remti dirbtinio intelekto, robotikos ir susijusių technologijų kūrimą Sąjungoje, be kita ko, padedant įmonėms, startuoliams ir mažosioms ir vidutinėms įmonėms įvertinti ir tinkamai užtikrintai atsižvelgti į esamus ir būsimus reguliavimo reikalavimus ir riziką vykstant inovacijų ir verslo kūrimo procesui, taip pat tolesniu etapu, kai šias technologijas naudos specialistai ir privatūs asmenys, sumažinant kliūtis ir biurokratizmą;

remti dirbtinio intelekto, robotikos ir susijusių technologijų diegimą Sąjungoje sukuriant tinkamą ir proporcingą reguliavimo sistemą, kurią reikėtų taikyti nedarant poveikio esamiems ar būsimiems sektoriniams teisės aktams, taip siekiant skatinti reguliavimo tikrumą ir inovacijas, kartu užtikrinant pagrindines teises ir vartotojų apsaugą;

remti dirbtinio intelekto, robotikos ir susijusių technologijų naudojimą Sąjungoje užtikrinant, kad jie būtų kuriami, diegiami ir naudojami laikantis etikos principų;

reikalauti užtikrinti skaidrumą ir geresnius informacijos srautus tarp piliečių ir organizacijose, kuriančiose, diegiančiose ar naudojančiose dirbtinį intelektą, robotiką ir susijusias technologijas, siekiant užtikrinti, kad šios technologijos atitiktų Sąjungos teisę, pagrindines teises ir vertybes, taip pat prašomo pateikti pasiūlymo dėl reglamento etikos principus.

II.

Šį pasiūlymą sudaro šios dalys:

Reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų;

Komisijos ir (arba) kitų atitinkamų Sąjungos institucijų, įstaigų, organų ir tarnybų, kurie gali būti atitinkamai paskirti, koordinavimo vaidmuo Sąjungos lygmeniu ir Europos atitikties etikos principams sertifikavimas;

remiamasis Europos Komisijos vaidmuo;

priežiūros institucijos kiekvienoje valstybėje narėje vaidmuo siekiant užtikrinti, kad etikos principai būtų taikomi dirbtiniam intelektui, robotikai ir susijusioms technologijoms;

susijusių mokslinių tyrimų ir plėtros projektų ir susijusių suinteresuotųjų subjektų, įskaitant startuolius, mažąsias ir vidutines įmones, bendroves, socialinius partnerius ir kitus pilietinės visuomenės atstovus, dalyvavimas ir konsultavimasis su jais, taip pat paramos jiems teikimas;

priedas, kuriame nustatytas išsamus suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų ir paskirčių sąrašas;

III.

Reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų grindžiamas šiais principais:

dirbtinis intelektas, robotika ir susijusios technologijos yra orientuoti į žmogų, žmogaus sukurti ir žmogaus kontroliuojami;

didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų atitikties vertinimas yra privalomas;

sauga, skaidrumas ir atskaitomybė;

apsaugos nuo šališkumo ir diskriminacijos bei teisių gynimo priemonės;

teisė į teisių gynimą;

socialinė atsakomybė ir lyčių lygybė dirbtinio intelekto, robotikos ir susijusių technologijų srityje;

aplinkos atžvilgiu tvarus dirbtinis intelektas, robotika ir susijusios technologijos;

privatumo paisymas ir biometrinio atpažinimo naudojimo apribojimai;

su dirbtiniu intelektu, robotika ir susijusiomis technologijomis susijęs geras valdymas, įskaitant tokių technologijų naudojamus arba sukurtus duomenis.

IV.

Siekiant Sąjungos lygmeniu užtikrinti koordinavimą, Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos, kurie gali būti paskirti šiomis aplinkybėmis, turėtų vykdyti šias pagrindines užduotis:

bendradarbiauja stebint prašomo pateikti pasiūlymo dėl reglamento ir atitinkamų sektorinių Sąjungos teisės aktų įgyvendinimą;

bendradarbiauja klausimais siekiant parengti gaires dėl nuoseklaus prašomo pateikti pasiūlymo dėl reglamento taikymo, t. y. dėl atitinkamų kriterijų taikymo dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kurie laikomi didelės rizikos technologijomis, taip pat didelės rizikos sektorių ir didelės rizikos naudojimo būdų ir paskirčių sąrašo, kuris nustatomas šio reglamento priede;

bendradarbiauja su priežiūros institucija kiekvienoje valstybėje narėje klausimais, susijusiais su Europos atitikties etikos principams sertifikato parengimu ir teisinėmis prievolėmis, kaip nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose, taip pat su paraiškos pateikimo proceso, kuris taikomas visiems technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjams, diegėjams ar naudotojams, kūrimu, siekiant patvirtinti, kad jie laikosi šio prašomo pateikti pasiūlymo dėl reglamento;

bendradarbiauja remiant tarpsektorinį ir tarpvalstybinį bendradarbiavimą vykdant reguliarius mainus su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene ES ir pasaulyje, ypač su bendrovėmis, socialiniais partneriais, tyrėjais ir kompetentingomis institucijomis, taip pat dėl techninių standartų sukūrimo tarptautiniu lygmeniu;

bendradarbiauja su priežiūros institucija kiekvienoje valstybėje narėje klausimais, susijusiais su privalomų gairių dėl taikytinos metodikos, kurios kiekvienai priežiūros institucijai reikia laikytis vertinant atitiktį, parengimu;

palaiko ryšius su priežiūros institucija kiekvienoje valstybėje narėje ir koordinuoja jų įgaliojimus bei užduotis;

bendradarbiauja ugdant sąmoningumą, teikiant informaciją ir dalyvaujant mainuose su kūrėjais, diegėjais ir naudotojais visoje Sąjungoje;

bendradarbiauja ugdant sąmoningumą, teikiant informaciją, skatinant skaitmeninį raštingumą, mokymą ir įgūdžius, taip pat dalyvaujant mainuose su projektuotojais, kūrėjais, diegėjais, piliečiais, naudotojais ir instituciniais organais visoje Sąjungoje ir tarptautiniu mastu;

bendradarbiauja koordinuojant bendrą dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo valdymo sistemą, kurią įgyvendintų priežiūros institucija kiekvienoje valstybėje narėje;

bendradarbiauja klausimais, susijusiais su kompetencijos centro teikiamomis paslaugomis skatinant keistis informacija ir remiant bendro suvokimo ugdymą bendrojoje rinkoje;

bendradarbiauja klausimais, susijusiais su saugumo ir gynybos darbo grupės įsteigimu.

V.

Komisija taip pat turėtų vykdyti šias užduotis:

priimant deleguotuosius aktus rengti ir vėliau atnaujinti bendrą didelės rizikos technologijų sąrašą, kuris nustatytas Sąjungoje bendradarbiaujant su priežiūros institucija kiekvienoje valstybėje narėje;

priimant deleguotuosius aktus atnaujinti šio reglamento priede pateiktą sąrašą.

VI.

Priežiūros institucija kiekvienoje valstybėje narėje turėtų atlikti šias pagrindines užduotis:

padėti nuosekliai taikyti reguliavimo sistemą, nustatytą prašomame pateikti pasiūlyme dėl reglamento, bendradarbiaujant su priežiūros institucija kitose valstybėse narėse, taip pat su kitomis institucijomis, atsakingomis už sektorinių teisės aktų įgyvendinimą, Komisija ir (arba) kitais atitinkamais Sąjungos institucijomis, organais, įstaigomis ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, t. y. dėl rizikos vertinimo kriterijų taikymo, numatytų prašomame pateikti pasiūlyme dėl reglamento, ir didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar paskirties sąrašo, išdėstyto šiame priede, taip pat vykdyti šio reikalingų ir deramų priemonių įgyvendinimo priežiūrą, kai taikant tokius kriterijus nustatomos didelės rizikos technologijos;

vertinti, ar Sąjungoje kuriamą, diegiamą ir naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, reikia laikyti didelės rizikos technologijomis, remiantis rizikos vertinimo kriterijais, nustatytais prašome pateikti pasiūlyme dėl reglamento, ir jo priede pateiktu sąrašu;

išduoti Europos atitikties etikos principams ir teisinėms prievolės sertifikatą, kaip nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose, be kita ko, ir tada, kai jie kyla iš bet kokio technologijų, kurios vertinamos kaip ne didelės rizikos technologijos, kūrėjo, diegėjo ar naudotojo, siekiančio sertifikuoti jų atitiktį prašomam pateikti pasiūlymui dėl reglamento, paraiškų pateikimo proceso;

vertinti jų etinių principų ir teisinių prievolių laikymąsi ir jį stebėti, kaip tai nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose;

prisiimti atsakomybę už dirbtinio intelekto, robotikos ir susijusių technologijų valdymo standartų nustatymą ir taikymą, be kita ko, užmezgant ir palaikant reguliarų dialogą su visais atitinkamais suinteresuotaisiais subjektais ir pilietinės visuomenės atstovais; todėl, bendradarbiaujant su Komisija ir (arba) atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, koordinuoti bendrą sistemą Sąjungos lygmeniu;

ugdyti sąmoningumą, teikti informaciją apie dirbtinį intelektą, robotiką ir susijusias technologijas visuomenei, remti atitinkamų profesijų atstovų mokymą, be kita ko, teismų sistemoje, taip įgalinant piliečius ir darbuotojus, nes ugdomas jų skaitmeninis raštingumas, jiems suteikiami įgūdžiai ir priemonės, kurių reikia teisingai pertvarkai;

būti pirmuoju kontaktiniu centru tais atvejais, kai kyla įtarimų dėl teisinių prievolių ir etikos principų, kaip išdėstyta prašomame pateikti pasiūlyme dėl reglamento, pažeidimų, ir tokiais atvejais atlikti atitikties vertinimą; kai atliekamas šis atitikties vertinimas, Komisija gali pasikonsultuoti su kitomis kompetentingomis institucijomis Sąjungoje, t. y. su Bendradarbiavimo vartotojų apsaugos srityje tinklu, nacionalinėmis vartotojų apsaugos tarnybomis, pilietinės visuomenės organizacijomis ir socialiniais partneriais, ir (arba) juos informuoti.

VII.

Pagrindinis suinteresuotųjų subjektų vaidmuo turėtų būti bendradarbiauti su Komisija ir (arba) visomis kitomis Sąjungos institucijomis, įstaigomis, organais ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, ir priežiūros institucija kiekvienoje valstybėje narėje.

B.   PRAŠOMO PATEIKTI PASIŪLYMO DĖL TEISĖKŪROS PROCEDŪRA PRIIMAMO AKTO TEKSTAS

Pasiūlymas dėl

EUROPOS PARLAMENTO IR TARYBOS REGLAMENTO

dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų

EUROPOS PARLAMENTAS IR EUROPOS SĄJUNGOS TARYBA,

Atsižvelgdami į Sutartį dėl Europos Sąjungos veikimo, ypač į jos 114 straipsnį,

atsižvelgdami į Europos Komisijos pasiūlymą,

teisėkūros procedūra priimamo akto projektą perdavus nacionaliniams parlamentams,

atsižvelgdami į Europos ekonomikos ir socialinių reikalų komiteto nuomonę,

laikydamiesi įprastos teisėkūros procedūros,

kadangi:

(1)

dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, kūrimas, diegimas ir naudojimas turėtų būti grindžiami naudos visuomenei siekiu. Tokios technologijos gali suteikti galimybių ir kelti riziką, taigi, šie klausimai turėtų būti sprendžiami ir reguliuojami išsamia Sąjungos teisės aktų sistema, atspindinčia etikos principus, kurių turi būti laikomasi nuo tokių technologijų sukūrimo ir įdiegimo iki jų naudojimo;

(2)

siekiant faktiškai pasinaudoti šių technologijų teikiamomis galimybėmis ir nuosekliai spręsti su jomis susijusios rizikos klausimus, taip pat siekiant užkirsti kelią skaidymui norint išvengti reglamentavimo, Sąjungoje ir visose valstybėse narėse reikėtų vienodai laikytis tokios dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba sukuriami naudojant tokias technologijas, kūrimo, diegimo ir naudojimo reguliavimo sistemos nuostatų. Reikėtų užtikrinti, kad šiame reglamente nustatytos taisyklės visoje Sąjungoje būtų taikomos vienodai;

(3)

esant tokioms aplinkybėms, dabartinė visoje Sąjungoje vyraujanti taisyklių ir praktikos įvairovė kelia didelę bendrosios rinkos susiskaidymo riziką ir didelį pavojų tiek asmenų, tiek visuomenės gerovės ir klestėjimo apsaugai, taip pat nuosekliam viso dirbtinio intelekto, robotikos ir susijusių technologijų potencialo skatinant inovacijas ir išsaugant tą gerovę ir klestėjimą tyrimui. Kūrėjų, diegėjų ir naudotojų nuomonių skirtumai dėl to, kokiu mastu šioms technologijoms būdingas etinis aspektas, gali kelti kliūčių jas laisvai kurti, diegti ar naudoti Sąjungoje, tokie skirtumai gali trukdyti sudaryti vienodas sąlygas, siekti technologinės pažangos ir vykdyti ekonominę veiklą Sąjungos lygmeniu, iškraipyti konkurenciją ir trukdyti valdžios institucijoms vykdyti savo prievoles pagal Sąjungos teisę. Be to, nesant bendros dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų reguliavimo sistemos, visiems susijusiems subjektams, t. y. kūrėjams, diegėjams ir naudotojams, kyla teisinis netikrumas;

(4)

vis dėlto, prisidedant prie nuoseklaus požiūrio Sąjungos lygmeniu ir jo nustatytose ribose, šiuo reglamentu valstybėms narėms turėtų būti suteikta įgyvendinimo laisvė, be kita ko, dėl to, kaip turi būti vykdomi jų atitinkamų nacionalinių priežiūros institucijų įgaliojimai atsižvelgiant į tikslą, kurio jos turi siekti, kaip nustatyta šiame reglamente;

(5)

šis reglamentas nedaro poveikio galiojantiems ar būsimiems sektorių teisės aktams. Jis turėtų būti proporcingas savo tikslui, kad nebūtų nepagrįstai varžomos inovacijos Sąjungoje, ir atitikti rizika grindžiamą požiūrį;

(6)

minėtų nuostatų geografinė taikymo sritis turėtų apimti visus dirbtinio intelekto, robotikos ir susijusių technologijų komponentus jų kūrimo, diegimo ir naudojimo Sąjungoje etapais, įskaitant atvejus, kai dalis technologijų galėtų būti už Sąjungos ribų arba jos nebūtų susietos su konkrečia ar viena bendra vieta, pavyzdžiui, debesijos kompiuterijos paslaugų atveju;

(7)

siekiant taikyti suvienodintą reguliavimo metodą ir suteikti teisinio tikrumo piliečiams ir įmonėms, būtina Sąjungoje vienodai suprasti tokias sąvokas kaip dirbtinis intelektas, robotika, susijusios technologijos ir biometrinis atpažinimas. Jos turėtų būti technologiškai neutralios ir prireikus persvarstomos;

(8)

be to, reikia atsižvelgti į tai, kad yra technologijų, susijusių su dirbtiniu intelektu ir robotika, suteikiančių galimybę programine įranga valdyti fizinius ar virtualius procesus su įvairaus laipsnio autonomija (1). Pavyzdžiui, automatizuoto transporto priemonių vairavimo atveju buvo pasiūlyti šeši vairavimo automatizavimo lygiai pagal SAE tarptautinį standartą J3016;

(9)

kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, turėtų būti papildomos, o ne pakeičiamos žmogaus galimybės ir užtikrinama, kad jas naudojant nebūtų pakenkta piliečių interesams, ir turėtų būti laikomasi Sąjungos teisės, pagrindinių teisių, nustatytų Europos Sąjungos pagrindinių teisių chartijoje (toliau – Chartija), nusistovėjusioje Europos Sąjungos Teisingumo Teismo praktikoje ir kituose Europos ir tarptautiniuose dokumentuose, kurie taikomi Sąjungoje;

(10)

sprendimams, priimtiems naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, arba jais grindžiamiems sprendimams ir toliau turi būti taikoma prasminga žmogaus atliekama peržiūra, sprendimai, įsikišimas ir kontrolė. Dėl tokių technologijų techninio ir operacinio sudėtingumo niekada neturėtų būti užkertamas kelias jų diegėjui ar naudotojui bent jau pradėti saugų sustabdymą, jas pakeisti, sustabdyti ar grįžti prie ankstesnės padėties atkuriant saugias funkcijas tais atvejais, kai kyla pavojus, kad nebus laikomasi Sąjungos teisės ir etinių principų bei šiame reglamente nustatytų teisinių įpareigojimų;

(11)

dirbtinis intelektas, robotika ir susijusios technologijos, kurių kūrimas, diegimas ir naudojimas kelia didelį pavojų, kad asmenys gali būti sužaloti ar kad jiems ar visuomenei gali būti padaryta žala pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles, turėtų būti laikomi didelės rizikos technologijomis. Tam, kad jos būtų vertinamos taip, reikėtų atsižvelgti į sektorių, kuriame jos kuriamos, diegiamos ar naudojamos, jų konkretų naudojimą ar paskirtį ir sužalojimo ar žalos, kurios galima tikėtis, sunkumą. Sunkumo laipsnis turėtų būti nustatomas remiantis galimo sužalojimo ar žalos, dydžiu, nukentėjusių asmenų skaičiumi, bendra padarytų nuostolių verte ir žala visai visuomenei. Sunkūs sužalojimai ir žala yra, pavyzdžiui, vaikų, vartotojų ar darbuotojų teisių pažeidimai, dėl kurių masto, atsižvelgiant į nukentėjusių vaikų, vartotojų ar darbuotojų skaičių arba jų poveikį visai visuomenei, kyla didelis pavojus, kad bus pažeistos Sąjungos teisėje nustatytos pagrindinės teisės ir saugos taisyklės. Šiame reglamente turėtų būti pateiktas išsamus ir suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų bei tikslų sąrašas;

(12)

šiame reglamente nustatytos prievolės, visų pirma susijusios su didelės rizikos technologijomis, neturėtų būti taikomos Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kurie, atlikus šiame reglamente numatytą rizikos vertinimą, yra laikomi keliančiais didelę riziką. Tokių prievolių turi būti laikomasi nedarant poveikio bendrajai pareigai, kad bet koks dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti kuriami, diegiami ir naudojami į žmogų orientuotu būdu ir remiantis žmogaus savarankiškumo ir žmogaus saugos principais pagal Sąjungos teisę ir visapusiškai paisant tokių pagrindinių teisių kaip žmogaus orumas, teisė į laisvę ir saugumą bei teisė į asmens neliečiamybę;

(13)

didelės rizikos technologijos turėtų atitikti saugos, skaidrumo, atskaitomybės, nešališkumo ar nediskriminavimo, socialinės atsakomybės ir lyčių lygybės, teisės į žalos atlyginimą, aplinkos tvarumo, privatumo ir gero valdymo principus, nacionalinei priežiūros institucijai atlikus nešališką, objektyvų ir išorinį rizikos vertinimą pagal šiame reglamente ir jo priede pateiktame sąraše nustatytus kriterijus. Atliekant šį vertinimą turėtų būti atsižvelgiama į kūrėjo ar diegėjo nuomonę ir bet kokį įsivertinimą;

(14)

Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos, kurios gali būti paskirtos šiuo tikslu, turėtų parengti kūrėjams, diegėjams ir naudotojams skirtas neprivalomas įgyvendinimo gaires dėl atitikties šiam reglamentui metodikos. Tai darydami, jie turėtų konsultuotis su atitinkamais suinteresuotaisiais subjektais;

(15)

Sąjungoje šių technologijų rizikos vertinimas turėtų būti nuoseklus, ypač kai jos vertinamos atsižvelgiant į šį reglamentą ir laikantis visų kitų taikomų konkretiems sektoriams skirtų teisės aktų. Atitinkamai nacionalinės priežiūros institucijos turėtų informuoti kitas institucijas, atliekančias rizikos vertinimus pagal konkretiems sektoriams taikomus teisės aktus, kai atlikus šiame reglamente numatytą rizikos vertinimą šios technologijos vertinamos kaip keliančios didelę riziką;

(16)

kad būtų patikimas, didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, turėtų būti kuriami, diegiami ir naudojami užtikrinant saugą, skaidrumą ir atskaitomybę, remiantis patikimumo, atsparumo, saugumo, tikslumo ir klaidų nustatymo, paaiškinamumo, tikrinimo galimybės, skaidrumo ir tapatybės nustatymo saugos priemonėmis, be to, tokiu būdu, kad būtų galima laikinai išjungti atitinkamas funkcijas ar grįžti prie ankstesnės padėties atkuriant saugias funkcijas, kai nesilaikoma tų saugos priemonių. Skaidrumas turėtų būti užtikrintas suteikiant valdžios institucijoms prieigą, kai tai tikrai būtina, prie technologijų, duomenų ir kompiuterinių sistemų, kuriomis grindžiamos tokios technologijos;

(17)

dirbtinio intelekto, robotikos ir susijusių technologijų, visų pirma didelės rizikos technologijų, kūrėjai, diegėjai ir naudotojai yra atsakingi už saugos, skaidrumo ir atskaitomybės principų laikymąsi tokiu mastu, kokiu jie susiję su atitinkamomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas. Kūrėjai turėtų užtikrinti, kad atitinkamos technologijos būtų suprojektuotos ir sukonstruotos laikantis šiame reglamente nurodytų saugumo priemonių, o diegėjai ir naudotojai atitinkamas technologijas turėtų diegti ir naudoti visapusiškai laikydamiesi tų priemonių. Šiuo tikslu didelės rizikos technologijų kūrėjai turėtų įvertinti ir iš anksto numatyti piktnaudžiavimo, kurio galima pagrįstai tikėtis jų kuriamų technologijų atžvilgiu, riziką. Jie taip pat privalo užtikrinti, kad jų sukurtos sistemos kiek įmanoma ir naudojantis tinkamomis priemonėmis, pavyzdžiui, atsakomybės ribojimo pranešimais, nurodytų klaidų ar netikslumų tikimybę;

(18)

kūrėjai ir diegėjai turėtų suteikti naudotojams galimybę susipažinti su visais tolesniais atitinkamų technologijų, visų pirma programinės įrangos, atnaujinimais pagal sutartyje aptartus arba Sąjungos ar nacionalinėje teisėje nurodytus įsipareigojimus. Be to, kai tai nurodoma rizikos vertinime, kūrėjai ir diegėjai valdžios institucijoms turėtų pateikti atitinkamus atitinkamų technologijų naudojimo dokumentus ir su tuo susijusias saugos instrukcijas, įskaitant, kai tai tikrai būtina ir visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, sistemos šaltinio kodą, kūrimo priemones ir duomenis;

(19)

asmenys turi teisę tikėtis, kad technologijos, kurias jie naudoja, veiktų tinkamai ir gerbtų jų pasitikėjimą. Piliečių pasitikėjimas dirbtiniu intelektu, robotika ir susijusiomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, priklauso nuo techninių procesų suvokimo ir supratimo. Tokių procesų paaiškinamumo lygis turėtų priklausyti nuo šių techninių procesų konteksto ir klaidingų ar netikslių rezultatų padarinių rimtumo ir turi būti pakankamas, kad būtų galima juos užginčyti ir siekti žalos atlyginimo. Tikrinimo galimybė, atsekamumas ir skaidrumas turėtų padėti spręsti bet kokio galimo tokių technologijų nesuprantamumo problemą;

(20)

visuomenės pasitikėjimas dirbtiniu intelektu, robotika ir susijusiomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, priklauso nuo to, kokiu mastu atitinkamomis technologijomis suteikiama galimybė jas įvertinti, patikrinti ir atsekti. Kūrėjai, kai tai būtina atsižvelgiant į jų dalyvavimo mastą, turėtų užtikrinti, kad šios technologijos būtų suprojektuotos ir sukonstruotos taip, kad būtų galima užtikrinti tokį vertinimą, tikrinimą ir atsekamumą. Tiek, kiek tai yra techniškai įmanoma, kūrėjai, diegėjai ir naudotojai turėtų užtikrinti, kad dirbtinis intelektas, robotika ir susijusios technologijos būtų diegiamos ir naudojamos visapusiškai laikantis skaidrumo reikalavimų ir sudarant sąlygas auditui ir atsekamumui;

(21)

siekiant užtikrinti skaidrumą ir atskaitomybę, piliečiai turėtų būti informuojami apie tai, kad sistemoje yra naudojamas dirbtinis intelektas, kad dirbtinio intelekto sistema pritaiko produktą ar paslaugą asmeniniams jų naudotojų poreikiams, apie tai, ar jie gali išjungti ar apriboti personalizavimą, ir tada, kai jie naudoja automatizuotų sprendimo priėmimo technologiją. Be to, skaidrumo priemonės, jei tai techniškai įmanoma, turėtų būti pateikiamos kartu su aiškiais ir suprantamais paaiškinimais apie naudojamus duomenis, algoritmą, jo paskirtį, rezultatus ir galimus pavojus;

(22)

programinės įrangos, algoritmų ir duomenų lemiamas šališkumas ir diskriminacija yra neteisėti ir su tuo turėtų būti kovojama reglamentuojant jų projektavimo ir diegimo procesus. Šališkumas gali kilti tiek dėl sprendimų, kurie grindžiami automatizuota sistema arba kuriuos priima tokia sistema, tiek dėl duomenų rinkinių, kuriais pagrįstas toks sprendimų priėmimas arba kuriais naudojantis apmokoma sistema;

(23)

programinė įranga, algoritmai ir duomenys, naudojami arba kuriami taikant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų būti laikomi šališkais, jei, pavyzdžiui, jų rezultatai bet kurio asmens ar asmenų grupės atžvilgiu yra neoptimalūs, remiantis išankstiniu asmeniniu ar socialiniu nusistatymu ir paskesniu duomenų, susijusių su jų savybėmis, tvarkymu;

(24)

laikantis Sąjungos teisės, programinė įranga, algoritmai ir duomenys, naudojami arba sukuriami taikant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų būti laikomi diskriminaciniais, jei naudojant tokias technologijas gaunami rezultatai, kurie turi neproporcingą neigiamą poveikį ir su asmeniu ar asmenų grupe elgiamasi skirtingai, be kita ko, jie patenka į nepalankią padėtį, palyginti su kitais asmenimis, dėl tokių priežasčių, kaip jų asmeninės savybės, nesant objektyvaus ar pagrįsto pateisinimo ir neatsižvelgiant į jokius reikalavimus dėl technologijų neutralumo;

(25)

laikantis Sąjungos teisės, teisėti tikslai, kuriais, vadovaujantis šiuo reglamentu, galėtų būti objektyviai pateisinamas bet koks skirtingas požiūris į asmenis ar asmenų grupes, yra visuomenės saugos, saugumo ir sveikatos apsauga, nusikalstamų veikų prevencija, pagrindinių teisių ir laisvių apsauga, sąžiningas atstovavimas ir objektyvūs reikalavimai dėl profesinių pareigų;

(26)

dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų padėti siekti tvarios pažangos. Tokios technologijos neturėtų prieštarauti aplinkos apsaugos ar perėjimo prie žaliosios ekonomikos tikslui. Jos galėtų atlikti svarbų vaidmenį siekiant Jungtinių Tautų nustatytų darnaus vystymosi tikslų, kad ateities kartos galėtų klestėti. Šios technologijos gali padėti stebėti tinkamą pažangą remiantis tvarumo ir socialinės sanglaudos rodikliais ir naudojant atsakingai vykdomų mokslinių tyrimų ir inovacijų priemones, kurioms reikia sutelkti Sąjungos ir jos valstybių narių išteklius siekiant remti projektus, kuriais siekiama tų tikslų, ir į juos investuoti;

(27)

kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, jokie asmenys neturėtų patirti tyčinio sužalojimo ir jiems ar visuomenei neturėtų būti sukelta jokios žalos arba toks sužalojimas ar žala neturėtų būti priimti kaip integruotieji. Todėl visų pirma didelės rizikos technologijos turėtų būti kuriamos, diegiamos ir naudojamos užtikrinant socialinę atsakomybę;

(28)

taigi, kūrėjams, diegėjams ir naudotojams atsakomybė už bet kokį asmenų sužalojimą ar žalą, padarytą asmenims ir visuomenei, turėtų būti taikoma tokiu mastu, kokiu jie yra susiję su atitinkamu dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ir laikantis Sąjungos ir nacionalinių taisyklių dėl atsakomybės;

(29)

visų pirma, turėtų būti laikoma, kad kūrėjai, priimantys sprendimus, kuriais nustatoma ir kontroliuojama dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo eiga ar būdas, taip pat jų diegimo procese priimant sprendimus dėl diegimo ir valdant susijusią riziką bei turint naudos iš tokio naudojimo dalyvaujantys diegėjai, atliekantys kontrolės ar valdymo funkciją, paprastai turėtų būti atsakingi už tai, kad būtų išvengta tokio sužalojimo ar žalos, visų pirma atitinkamai nustatydami tinkamas priemones kūrimo proceso metu ir visapusiškai laikydamiesi tokių priemonių diegimo etapu;

(30)

socialiniu požiūriu atsakingas dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, gali būti apibrėžiami kaip technologijos, kurios padeda rasti sprendimus, kuriais apsaugomi ir skatinami įvairūs su visuomene susiję tikslai, visų pirma demokratija, sveikatos apsauga ir ekonominis klestėjimas, lygios galimybės, darbuotojų ir socialinės teisės, įvairi ir nepriklausoma žiniasklaida ir objektyvi bei laisvai prieinama informacija, sudarant sąlygas viešoms diskusijoms, kokybiškam švietimui, kultūrų ir kalbų įvairovei, lyčių pusiausvyrai, skaitmeniniam raštingumui, inovacijoms ir kūrybiškumui. Šios technologijos taip pat kuriamos, diegiamos ir naudojamos tinkamai atsižvelgiant į jų galutinį poveikį fizinei ir psichinei piliečių gerovei ir neskatinant neapykantą kurstančių kalbų ar smurto. Tokių tikslų visų pirma turėtų būti siekiama naudojant didelės rizikos technologijas;

(31)

dirbtinis intelektas, robotika ir susijusios technologijos taip pat turėtų būti kuriamos, diegiamos ir naudojamos siekiant remti socialinę įtrauktį, demokratiją, pliuralizmą, solidarumą, teisingumą, lygybę ir bendradarbiavimą, o jų potencialas šioje srityje turėtų būti kuo labiau padidintas ir ištirtas vykdant mokslinių tyrimų ir inovacijų projektus. Todėl Sąjunga ir jos valstybės narės turėtų sutelkti savo komunikacijos, administracinius ir finansinius išteklius tokiems projektams remti ir investuoti į juos;

(32)

projektai, susiję su dirbtinio intelekto, robotikos ir susijusių technologijų potencialu sprendžiant socialinės gerovės klausimą, turėtų būti įgyvendinami remiantis atsakingai vykdomomis mokslinių tyrimų ir inovacijų priemonėmis, siekiant nuo pat pradžių užtikrinti tų projektų atitiktį etikos principams;

(33)

kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti atsižvelgiama į jų aplinkosauginį pėdsaką. Laikantis taikytinoje Sąjungos teisėje nustatytų įpareigojimų, tokios technologijos neturėtų daryti žalos aplinkai per visą jų eksploatavimo ciklą ir visą jų tiekimo grandinę ir turėtų būti kuriamos, diegiamos ir naudojamos taip, kad būtų išsaugota aplinka, sušvelnintas ir panaikintas aplinkosauginis pėdsakas, kad būtų prisidedama prie perėjimo prie žaliosios ekonomikos ir padedama siekti neutralaus poveikio klimatui ir žiedinės ekonomikos tikslų;

(34)

šio reglamento tikslais kūrėjai, diegėjai ir naudotojai turėtų būti laikomi atsakingais už bet kokią aplinkai padarytą žalą tokiu mastu, kokiu jie atitinkamai dalyvauja kuriant, diegiant ar naudojant bet kokį dirbtinį intelektą, robotiką ir susijusias technologijas, kurios laikomos keliančiomis didelę riziką, bei remiantis taikytinomis taisyklėmis dėl atsakomybės, susijusios su aplinkos apsauga;

(35)

šios technologijos taip pat turėtų būti kuriamos, diegiamos ir naudojamos padedant siekti taikytinuose Sąjungos teisės aktuose nustatytų aplinkos apsaugos tikslų, pavyzdžiui, mažinti atliekų susidarymą ir anglies pėdsaką, užkirsti kelią klimato kaitai ir saugoti aplinką, o jų potencialas šioje srityje turėtų būti kuo labiau padidintas ir ištirtas vykdant mokslinių tyrimų ir inovacijų projektus. Todėl Sąjunga ir valstybės narės turėtų sutelkti savo komunikacijos, administracinius ir finansinius išteklius tokiems projektams remti ir investuoti į juos;

(36)

projektai, susiję su dirbtinio intelekto, robotikos ir susijusių technologijų potencialu sprendžiant aplinkosaugos problemas, turėtų būti vykdomi remiantis atsakingai vykdomomis mokslinių tyrimų ir inovacijų priemonėmis, siekiant nuo pat pradžių užtikrinti tų projektų atitiktį etikos principams;

(37)

Sąjungoje kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti visiškai gerbiamos piliečių teisės į privatumą ir asmens duomenų apsaugą. Visų pirma, šių technologijų kūrimas, diegimas ir naudojimas turėtų atitikti Europos Parlamento ir Tarybos reglamentą (ES) 2016/679 (2) ir Europos Parlamento ir Tarybos direktyvą 2002/58/EB (3);

(38)

visų pirma, naudojant nuotolinio atpažinimo technologijas, pavyzdžiui, biometrinių požymių atpažinimą, visų pirma veido atpažinimą, siekiant automatiškai nustatyti asmenų tapatybę, reikėtų tinkamai atsižvelgti į dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, naudojimo etines ribas. Kai šias technologijas naudoja valdžios institucijos esminiais visuomenės intereso tikslais, t. y. siekdamos užtikrinti asmenų saugumą ir reaguoti į nacionalines ekstremaliąsias situacijas, o ne užtikrinti turto saugumą, šios technologijos visada turėtų būti naudojamos atskleidžiant informaciją, proporcingai, tikslingai ir apsiribojant konkrečiais tikslais, ribotą laiką ir laikantis Sąjungos teisės, tinkamai atsižvelgiant į žmogaus orumą, savarankiškumą ir Chartijoje išdėstytas pagrindines teises. tokio naudojimo kriterijai ir ribos turėtų būti peržiūrimos teismine tvarka, be to, reikėtų vykdyti jų demokratinę priežiūrą bei diskutuoti dėl jų pilietinėje visuomenėje;

(39)

vykdant atitinkamais standartais grindžiamą valdymą didinamas saugumas ir skatinamas piliečių pasitikėjimas dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kūrimu, diegimu ir naudojimu;

(40)

valdžios institucijos, prieš diegdamos didelės rizikos technologijas, padedančias įgyvendinti sprendimus, kurie yra priimami viešajame sektoriuje ir kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms, turėtų atlikti poveikio pagrindinėms teisėms vertinimą;

(41)

kaip atitinkamo esamo valdymo standartus galima nurodyti, pavyzdžiui, Europos Komisijos įsteigtos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais parengtas patikimo dirbtinio intelekto etikos gaires ir bet kuriuos kitus techninius standartus, pvz., tuos, kuriuos Europos lygmeniu priėmė Europos standartizacijos komitetas (CEN), Europos elektrotechnikos standartizacijos komitetas (CENELEC) ir Europos telekomunikacijų standartų institutas (ETSI), o tarptautiniu lygmeniu – Tarptautinė standartizacijos organizacija (ISO) ir Elektros ir elektronikos inžinierių institutas (IEEE);

(42)

keitimasis duomenimis ir jų naudojimas tais atvejais, kai dalyvauja daug dalyvių, yra opus klausimas, todėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas turėtų būti reglamentuojamas taikant atitinkamas taisykles, standartus ir protokolus, atspindinčius kokybės, vientisumo, saugumo, patikimumo, privatumo ir kontrolės reikalavimus. Duomenų valdymo strategijoje daugiausia dėmesio turėtų būti skiriama tokių duomenų tvarkymui, dalijimuisi jais ir prieigai prie jų, įskaitant tinkamą jų valdymą, galimybę tikrinti ir atsekamumą, ir užtikrinama tinkama duomenų, priklausančių pažeidžiamoms grupėms, įskaitant neįgaliuosius, pacientus, vaikus, mažumų atstovus ir migrantus arba kitas grupes, kurioms kyla atskirties pavojus, apsauga. Be to, prireikus kūrėjai, diegėjai ir naudotojai, vertindami duomenų rinkinius, kuriuos jie naudoja siekdami didinti savo sukurtų, diegiamų ir naudojamų technologijų patikimumą, turėtų galėti vadovautis svarbiais veiksmingumo rodikliais;

(43)

valstybės narės turėtų paskirti nepriklausomą administracinę instituciją, kuri veiktų kaip priežiūros institucija. Kiekviena nacionalinė priežiūros institucija visų pirma turėtų būti atsakinga už dirbtinio intelekto, robotikos ir susijusių technologijų, kurie, atsižvelgiant į šiame reglamente nustatytus rizikos vertinimo kriterijus, laikomi keliančiais didelę riziką, nustatymą ir šių technologijų atitikties šiame reglamente nustatytiems įpareigojimams vertinimą ir stebėseną;

(44)

kiekviena nacionalinė priežiūros institucija taip pat turėtų būti atsakinga už šių technologijų tinkamą valdymą, koordinuojant Komisijai ir (arba) kitoms susijusioms Sąjungos institucijoms, įstaigoms, tarnyboms ar agentūroms, kurios gali būti paskirtos šiuo tikslu. Todėl joms tenka svarbus vaidmuo skatinant Sąjungos piliečių pasitikėjimą ir didinant jų saugumą, taip pat kuriant demokratinę, pliuralistinę ir lygiateisę visuomenę;

(45)

siekdamos įvertinti technologijas, kurios pagal šį reglamentą laikomos didelės rizikos technologijomis, ir stebėti jų atitiktį reglamentui, nacionalinės priežiūros institucijos, kai taikytina, turėtų bendradarbiauti su institucijomis, atsakingomis už šių technologijų vertinimą ir stebėseną bei jų atitikties sektorių teisės aktams užtikrinimą;

(46)

nacionalinės priežiūros institucijos turėtų iš esmės ir reguliariai bendradarbiauti viena su kita, taip pat su Europos Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis, kad būtų užtikrinta darni tarpvalstybinė veikla ir sudarytos sąlygos nuosekliai kurti, diegti ir naudoti šias technologijas Sąjungoje laikantis šiame reglamente nustatytų etikos principų ir teisinių prievolių;

(47)

vykdant tokį bendradarbiavimą ir siekiant visiško suderinimo Sąjungos lygmeniu, nacionalinės priežiūros institucijos turėtų padėti Komisijai parengti bendrą ir išsamų didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų sąrašą, atitinkantį šiame reglamente ir jo priede nustatytus kriterijus. Be to, turėtų būti sukurtas Europos atitikties etikos principams sertifikato išdavimo procesas, įskaitant savanorišką paraiškų teikimo procesą visiems technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjams, diegėjams ar naudotojams, siekiantiems patvirtinti jų atitiktį šiam reglamentui;

(48)

nacionalinės priežiūros institucijos turėtų užtikrinti, kad būtų suburta kuo daugiau suinteresuotųjų subjektų, atstovaujančių, pavyzdžiui, pramonei, įmonėms, socialiniams partneriams, tyrėjams, vartotojams ir pilietinės visuomenės organizacijoms, ir sukurti pliuralistinį forumą svarstymams ir keitimuisi nuomonėmis, kad būtų parengtos išsamios ir tikslios išvados, kuriomis remiantis būtų galima nustatyti valdymo reglamentavimo gaires;

(49)

nacionalinės priežiūros institucijos turėtų užtikrinti, kad būtų suburta kuo daugiau suinteresuotųjų subjektų, atstovaujančių, pavyzdžiui, pramonei, įmonėms, socialiniams partneriams, tyrėjams, vartotojams ir pilietinės visuomenės organizacijoms, ir sukurti pliuralistinį forumą svarstymams ir keitimuisi nuomonėmis, sudaryti palankesnes sąlygas suinteresuotųjų subjektų, visų pirma akademikų, mokslininkų, pramonės atstovų, pilietinės visuomenės ir pavienių ekspertų, bendradarbiavimui ir bendrai veiklai, kad būtų parengtos išsamios ir tikslios išvados, kuriomis remiantis būtų galima nustatyti valdymo reglamentavimo gaires;

(50)

be to, šios nacionalinės priežiūros institucijos turėtų teikti profesines ir administracines gaires ir paramą kūrėjams, diegėjams ir naudotojams, visų pirma mažosioms ir vidutinėms įmonėms arba startuoliams, susiduriantiems su sunkumais, susijusiais su šiame reglamente nustatytų etikos principų ir teisinių prievolių laikymusi;

(51)

Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiuo tikslu, turėtų nustatyti privalomas gaires dėl metodikos, kurią nacionalinės priežiūros institucijos turėtų naudoti atlikdamos atitikties vertinimą;

(52)

teikiant pranešimus apie pažeidimus institucijos informuojamos apie galimus ir faktinius Sąjungos teisės pažeidimus, kad būtų užkirstas kelias sužalojimui, žalai ar nuostoliams, kurie kitu atveju būtų patirti. Be to, pranešimų teikimo procedūros gerina informacijos srautus įmonėse ir organizacijose, taip sumažinant riziką, kad bus kuriami turintys trūkumų ar klaidingi produktai ar paslaugos. Įmonės ir organizacijos, kuriančios, diegiančios arba naudojančios dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų sukurti pranešimų teikimo kanalus, o asmenys, pranešantys apie pažeidimus, turėtų būti apsaugoti nuo atsakomųjų veiksmų;

(53)

sparti dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, taip pat techninio mašinų mokymosi, samprotavimo procesų ir kitų technologijų, kuriomis grindžiamas toks kūrimas, plėtra yra nenuspėjama. Todėl tikslinga ir būtina nustatyti peržiūros mechanizmą, pagal kurį Komisija ne tik teiktų reglamento taikymo ataskaitas, bet ir reguliariai teiktų ataskaitas dėl galimo šio reglamento taikymo srities pakeitimo;

(54)

kadangi šio reglamento tikslo, t. y. sukurti bendrą reguliavimo sistemą dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų ir teisinių prievolių Sąjungoje, valstybės narės negali deramai pasiekti, o dėl šio tikslo masto arba poveikio būtų geriau jo siekti Sąjungos lygmeniu, laikydamasi Europos Sąjungos sutarties 5 straipsnyje nustatyto subsidiarumo principo Sąjunga gali patvirtinti priemones. Pagal tame straipsnyje nustatytą proporcingumo principą šiuo reglamentu neviršijama to, kas būtina nurodytam tikslui pasiekti;

(55)

šiame reglamente nustatytą koordinavimą Sąjungos lygmeniu geriausiai užtikrintų Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiomis aplinkybėmis, kad būtų išvengta susiskaidymo ir užtikrintas nuoseklus šio reglamento taikymas. Todėl reikėtų patikėti Komisijai užduotį rasti tinkamą sprendimą dėl tokio koordinavimo Sąjungos lygmeniu struktūros, kad būtų koordinuojami valstybių narių nacionalinių priežiūros institucijų įgaliojimai ir veiksmai, visų pirma vertinant dirbtinio intelekto, robotikos ir susijusių technologijų riziką, rengiant dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo valdymo bendrąją sistemą, rengiant ir išduodant atitikties šiame reglamente nustatytiems etikos principams ir teisinėms prievolėms sertifikatus, remiant reguliarius mainus su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene bei kuriant kompetencijos centrą, Sąjungos lygmeniu sutelkiant akademikus, mokslininkus, pramonės atstovus ir pavienius ekspertus, kad būtų skatinami žinių ir techninės praktinės patirties mainai, taip pat propaguojant Sąjungos požiūrį, šiuo tikslu pasitelkiant tarptautinį bendradarbiavimą, ir užtikrinant nuoseklų pasaulinį atsaką, atsižvelgiant į šių technologijų teikiamas galimybes ir keliamą riziką.

PRIĖMĖ ŠĮ REGLAMENTĄ:

I skyrius

Bendrosios nuostatos

1 straipsnis

Tikslas

Šiuo reglamentu siekiama sukurti išsamias ir perspektyvias Sąjungos lygmens etikos principų ir teisinių prievolių, taikomų Sąjungoje kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, reglamentavimo nuostatas.

2 straipsnis

Taikymo sritis

Šis reglamentas taikomas Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas.

3 straipsnis

Geografinė taikymo sritis

Šis reglamentas taikomas dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kai bet kuri jų dalis kuriama, diegiama ar naudojama Sąjungoje, neatsižvelgiant į tai, ar programinė įranga, algoritmai ar duomenys, naudojami ar kuriami taikant tokias technologijas, yra už Sąjungos ribų arba nėra susieti su konkrečia geografine vieta.

4 straipsnis

Terminų apibrėžtys

Šiame reglamente vartojamų terminų apibrėžtys:

a)

dirbtinis intelektas – programine įranga grindžiama arba techninėje įrangoje integruota sistema, kuri elgiasi protingai, be kita ko, rinkdama ir apdorodama duomenis, analizuodama ir interpretuodama savo aplinką bei darydama gana savarankiškus sprendimus konkretiems tikslams pasiekti (4);

b)

autonomija – dirbtinio intelekto sistema, kurios veikimas grindžiamas tam tikrų įvesties duomenų interpretavimu ir naudojimusi iš anksto apibrėžtomis instrukcijomis, tačiau šiomis instrukcijomis neapsiribojant, net jei sistemos elgseną riboja ir kryptingai lemia jai iškelto tikslo įgyvendinimas bei kitos susijusios integruotosios parinktys, sprendimą dėl kurių priima jos kūrėjas;

c)

robotika – technologijos, suteikiančios automatiškai valdomoms, perprogramuojamoms, daugiafunkcėms mašinoms (5) galimybę fiziniame pasaulyje atlikti tradiciškai žmonių vykdomus arba inicijuojamus veiksmus, be kito ko, taikant dirbtinį intelektą ar susijusias technologijas;

d)

susijusios technologijos – technologijos, kurias naudojant programinė įranga gali iš dalies arba visiškai savarankiškai kontroliuoti fizinį arba virtualų procesą, technologijos, kuriomis galima nustatyti biometrinius, genetinius arba kitus duomenis, ir technologijos, kuriomis kopijuojamos arba kitaip naudojamos žmogaus savybės;

e)

didelė rizika – su dirbtinio intelekto, robotikos ir susijusių technologijų kūrimu, diegimu ir naudojimu susijusi reikšminga rizika sužaloti asmenis arba padaryti žalos asmenims arba visuomenei, pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles, atsižvelgiant į konkretų jų naudojimą arba paskirtį, sektorių, kuriame jos kuriamos, diegiamos arba naudojamos, ir sužalojimo arba žalos, kurios galima tikėtis, sunkumą;

f)

kūrimas – algoritmų konstravimas ir projektavimas, programinės įrangos rašymas ir projektavimas arba duomenų rinkimas, saugojimas ir tvarkymas dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo ar mokymo tikslais arba siekiant sukurti naują taikomąją programą, skirtą esamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms;

g)

kūrėjas – fizinis arba juridinis asmuo, priimantis sprendimus, kuriais nustatoma ir kontroliuojama dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo eiga ar būdas;

h)

diegimas – dirbtinio intelekto, robotikos ir susijusių technologijų eksploatavimas ir valdymas, taip pat jų pateikimas rinkai arba pateikimas naudotojams kitu būdu;

i)

diegėjas – fizinis arba juridinis asmuo, dalyvaujantis konkrečiai diegiant dirbtinį intelektą, robotiką ir susijusias technologijas, atliekantis kontrolės ar valdymo funkciją priimant sprendimus, kontroliuojant riziką ir naudojantis šių technologijų teikiamais privalumais;

j)

naudojimas – bet koks veiksmas, susijęs su dirbtiniu intelektu, robotika ir susijusiomis technologijomis, išskyrus kūrimą ar diegimą;

k)

naudotojas – fizinis arba juridinis asmuo, kuris naudoja dirbtinį intelektą, robotiką ir susijusias technologijas ne kūrimo ar diegimo tikslais;

l)

šališkumas – bet koks išankstinis asmeninio ar socialinio pobūdžio nusistatymas asmens ar asmenų grupės atžvilgiu remiantis jų asmeninėmis savybėmis;

m)

diskriminacija – bet koks skirtingas požiūris į asmenį ar asmenų grupę remiantis pagrindu, kuris nėra objektyvus ar deramai pagrįstas, ir todėl draudžiamas pagal Sąjungos teisę;

n)

sužalojimas arba žala – be kita ko, dėl neapykantą kurstančios kalbos, šališkumo, diskriminacijos ar stigmatizavimo sukeltas kūno sužalojimas arba psichinė trauma, materialinė ar nematerialinė žala, pavyzdžiui, finansiniai arba ekonominiai nuostoliai, prarasta darbo arba mokymosi galimybė, nepagrįstai apribota pasirinkimo arba saviraiškos laisvė, privatumo praradimas ir bet koks Sąjungos teisės pažeidimas, darantis žalingą poveikį asmeniui;

o)

valdymas – būdas, kuriuo užtikrinama, kad kūrėjai, diegėjai ir naudotojai nusistatytų tinkamus ir pagrįstus standartus ir atitinkamus elgesio protokolus ir jų laikytųsi, remdamiesi formaliu taisyklių, procedūrų ir vertybių rinkiniu, kuris suteikia jiems galimybę tinkamai spręsti etikos klausimus, kai jie iškyla arba prieš jiems iškylant.

5 straipsnis

Dirbtiniam intelektui, robotikai ir susijusioms technologijoms taikomi etikos principai

1.   Dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, Sąjungoje kuriami, diegiami ir naudojami laikantis Sąjungos teisės ir užtikrinant visapusišką pagarbą žmogaus orumui, savarankiškumui ir saugumui bei kitoms Chartijoje įtvirtintoms pagrindinėms teisėms.

2.   Asmens duomenų, įskaitant asmens duomenis, gautus panaudojant ne asmens duomenis ir biometrinius duomenis, tvarkymas kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, vykdomas remiantis Reglamentu (ES) 2016/679 ir Direktyva 2002/58/EB.

3.   Sąjunga ir jos valstybės narės skatina mokslinių tyrimų projektus, kuriais siekiama pateikti dirbtiniu intelektu, robotika ir susijusiomis technologijomis grindžiamus sprendimus, kurių tikslas – propaguoti socialinę įtrauktį, demokratiją, pliuralizmą, solidarumą, teisingumą, lygybę ir bendradarbiavimą.

II skyrius

Su didelės rizikos technologijomis susiję įsipareigojimai

6 straipsnis

Su didelės rizikos technologijomis susiję įsipareigojimai

1.   Šio skyriaus nuostatos taikomos tik Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kurie laikomi didelės rizikos technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas.

2.   Didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriami, diegiami ir naudojami taip, kad nebūtų pažeisti šiame reglamente nustatyti etikos principai.

7 straipsnis

Į žmogų orientuotas ir žmogaus sukurtas dirbtinis intelektas

1.   Didelės rizikos dirbtinio intelekto technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriamos, diegiamos ir naudojamos taip, kad bet kuriuo metu būtų užtikrinta visapusiška žmogaus vykdoma priežiūra.

2.   1 dalyje nurodytos technologijos kuriamos, diegiamos ir naudojamos taip, kad prireikus būtų galima atgauti visišką žmogaus kontrolę, be kita ko, keičiant ar sustabdant tas technologijas.

8 straipsnis

Sauga, skaidrumas ir atskaitomybė

1.   Didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriami, diegiami ir naudojami užtikrinant, kad šios technologijos būtų:

a)

kuriamos, diegiamos ir naudojamos užtikrinant atsparumą, laikantis minimaliųjų kibernetinio saugumo bazinių linijų, atitinkančių nustatytą riziką, kad jomis būtų garantuojamas tinkamas saugumo lygis, taip užkertant kelią bet kokiam techniniam pažeidžiamumui, dėl kurio jos galėtų būti panaudotos piktavališkais ar neteisėtais tikslais;

b)

kuriamos, diegiamos ir naudojamos saugiai, užtikrinant, kad būtų numatytos apsaugos priemonės, kurios apimtų atsarginį planą ir veiksmus, jei kiltų pavojus saugai ar saugumui;

c)

kuriamos, diegiamos ir naudojamos užtikrinant patikimą jų veiksmingumą, kurio pagrįstai tikisi naudotojas, siekiant tikslų ir vykdant veiklą, kuriai jos buvo sukurtos, be kita ko, užtikrinant, kad visos operacijos būtų atkuriamos;

d)

kuriamos, diegiamos ir naudojamos užtikrinant, kad būtų tiksliai siekiama konkrečių technologijų tikslų ir vykdoma jų veikla; jei atsitiktinių netikslumų išvengti neįmanoma, sistema, naudodama atitinkamas priemones, kuo labiau atkreipia diegėjų ir naudotojų dėmesį į galimas klaidas ir netikslumus;

e)

kuriamos, diegiamos ir naudojamos lengvai paaiškinama forma, užtikrinant, kad būtų galima peržiūrėti technologijų techninius procesus;

f)

kuriamos, diegiamos ir naudojamos užtikrinant, kad jos informuotų naudotojus, jog jie sąveikauja su dirbtinio intelekto sistemomis, tinkamai ir visapusiškai atskleisdamos savo pajėgumus, tikslumą ir apribojimus dirbtinio intelekto kūrėjams, diegėjams ir naudotojams;

g)

pagal 6 straipsnį kuriamos, diegiamos ir naudojamos taip, kad neatitikties a–g punktuose nurodytoms saugos priemonėms atveju būtų galima laikinai atjungti atitinkamas funkcijas ir grįžti į ankstesnę būseną, atkuriant saugias funkcijas.

2.   Remiantis 6 straipsnio 1 dalimi, šio straipsnio 1 dalyje nurodytos technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, kuriamos, diegiamos ir naudojamos skaidriai ir atsekamai, kad jų elementai, procesai ir etapai būtų dokumentuojami laikantis aukščiausių galimų ir taikomų standartų ir kad 18 straipsnyje nurodytos nacionalinės priežiūros institucijos galėtų įvertinti, ar tokios technologijos atitinka šiame reglamente nustatytus įpareigojimus. Visų pirma, tų technologijų kūrėjas, diegėjas ar naudotojas atsako už tai, kad būtų laikomasi 1 dalyje nustatytų saugos priemonių, ir gali tai įrodyti.

3.   1 dalyje nurodytų technologijų kūrėjas, diegėjas ar naudotojas užtikrina, kad priemones, kurių imtasi siekiant užtikrinti atitiktį 1 dalyje nustatytoms saugos priemonėms, galėtų patikrinti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos arba, kai taikytina, kitos nacionalinės ar Europos sektorių priežiūros institucijos.

9 straipsnis

Nešališkumas ir nediskriminavimas

1.   Programinė įranga, algoritmas ar duomenys, naudojami ar sukurti taikant Sąjungoje sukurtą, įdiegtą ar naudojamą didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, turi būti nešališki ir, nedarant poveikio 2 daliai, nediskriminuojantys dėl rasės, lyties, seksualinės orientacijos, nėštumo, negalios, fizinių ar genetinių savybių, amžiaus, priklausymo tautinei mažumai, etninės ar socialinės kilmės, kalbos, religijos ar tikėjimo, politinių pažiūrų ar pilietinio dalyvavimo, pilietybės, civilinės ar ekonominės padėties, švietimo ar teistumo.

2.   Nukrypstant nuo 1 dalies ir nedarant poveikio Sąjungos teisei, reglamentuojančiai kovą su neteisėta diskriminacija, bet koks skirtingas požiūris į asmenis ar asmenų grupes gali būti pateisinamas tik tuo atveju, jei esama objektyvaus, pagrįsto ir teisėto tikslo, kuris yra proporcingas ir būtinas, ir jei nėra kitos alternatyvos, dėl kurios būtų mažiau pažeidžiamas vienodo požiūrio principas.

10 straipsnis

Socialinė atsakomybė ir lyčių lygybė

Bet koks Sąjungoje kuriamas, diegiamas ir naudojamas didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami naudojant tokias technologijas, turi būti kuriami, diegiami ir naudojami laikantis atitinkamos Sąjungos teisės, principų ir vertybių taip, kad nebūtų trukdoma rinkimams ir neprisidedama prie dezinformacijos sklaidos, kad būtų gerbiamos darbuotojų teisės, skatinamas kokybiškas švietimas ir skaitmeninis raštingumas, nedidinama lyčių nelygybė užkertant kelią lygioms galimybėms visiems ir nepažeidžiamos intelektinės nuosavybės teisės ir bet kokie jų apribojimai ar išimtys.

11 straipsnis

Aplinkos tvarumas

18 straipsnyje nurodytos nacionalinės priežiūros institucijos arba, atitinkamais atvejais, kitos nacionalinės ar ES priežiūros institucijos vertina didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, aplinkos tvarumą, užtikrindamos, kad būtų imtasi priemonių jų bendram poveikiui, susijusiam su gamtos ištekliais, energijos vartojimu, atliekų gamyba, anglies pėdsaku, klimato kaita ir aplinkos būklės blogėjimu, sušvelninti ir ištaisyti, kad būtų užtikrinta atitiktis Sąjungos ar nacionalinės teisės aktams, taip pat bet kokiems kitiems Sąjungos prisiimtiems tarptautiniams įsipareigojimams aplinkosaugos srityje.

12 straipsnis

Privatumo ir duomenų apsaugos užtikrinimas

Biometrinių duomenų naudojimas ir rinkimas nuotolinio identifikavimo tikslais viešose vietose, pvz., biometrinis arba veido atpažinimas, kelia konkretų pavojų pagrindinėms teisėms ir turi būti diegiamas arba naudojamas tik valstybių narių valdžios institucijų esminio viešojo intereso tikslais. Minėtos institucijos užtikrina, kad pagal Sąjungos ir nacionalinę teisę, visų pirma Reglamentą (ES) 2016/679 ir Direktyvą 2002/58/EB, ir tinkamai atsižvelgiant į žmogaus orumą ir savarankiškumą bei Chartijoje nustatytas pagrindines teises, t. y. teisę į privatumą ir asmens duomenų apsaugą, toks diegimas ar naudojimas būtų atskleistas visuomenei, būtų proporcingas, tikslingas ir apribotas konkrečiais tikslais ir laiko bei vietos atžvilgiu.

13 straipsnis

Teisė į teisių gynimą

Bet kuris fizinis arba juridinis asmuo turi teisę reikalauti atlyginti žalą, patirtą kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, pažeidžiant Sąjungos teisę ir šiame reglamente nustatytas pareigas.

14 straipsnis

Rizikos vertinimas

1.   Šiame reglamente dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar gaunami naudojant tokias technologijas, laikomi didelės rizikos technologijomis, kai atlikus rizikos vertinimą, grindžiamą objektyviais kriterijais, pavyzdžiui, jų konkrečiu naudojimu ar paskirtimi, sektoriumi, kuriame jie kuriami, diegiami ar naudojami, ir galimos žalos ar sužalojimų rimtumu juos kuriant, diegiant ar naudojant kyla didelis pavojus, kad pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles asmenys ar visuomenė patirs žalą ar sužalojimą.

2.   Nedarant poveikio taikytiniems sektoriniams teisės aktams, dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, rizikos vertinimą pagal šio straipsnio 1 dalyje nustatytus objektyvius kriterijus ir šio reglamento priede pateiktą išsamų suvestinį sąrašą atlieka 18 straipsnyje nurodytos nacionalinės priežiūros institucijos, koordinuojant Komisijai ir (arba) kitoms atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos bendradarbiauti šiuo tikslu.

3.   Bendradarbiaudama su 2 dalyje nurodytomis nacionalinėmis priežiūros institucijomis, Komisija, naudodamasi teise priimti deleguotuosius teisės aktus pagal 20 straipsnį, parengia ir vėliau atnaujina bendrą Sąjungoje nustatytų didelės rizikos technologijų sąrašą.

4.   Komisija, priimdama deleguotuosius teisės aktus pagal 20 straipsnį, taip pat reguliariai atnaujina šio reglamento priede pateiktą sąrašą.

15 straipsnis

Atitikties vertinimas

1.   Didelės rizikos dirbtiniam intelektui, robotikai ir susijusioms technologijoms turi būti atliekamas atitikties šio reglamento 6–12 straipsniuose nustatytiems įsipareigojimams vertinimas, taip pat turi būti vykdoma vėlesnė jų stebėsena, abu vertinimus turi atlikti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos, koordinuojant Komisijai ir (arba) kitoms atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos šiuo tikslu.

2.   Programinė įranga, algoritmai ar duomenys, naudojami ar sukurti taikant didelės rizikos technologijas, kurios, kaip įvertinta, atitinka šio reglamento 1 dalyje nustatytus įsipareigojimus, taip pat laikomi atitinkančiais minėtus įsipareigojimus, nebent atitinkama nacionalinė priežiūros institucija nuspręstų atlikti vertinimą savo iniciatyva arba kūrėjo, diegėjo ar naudotojo prašymu.

3.   Nedarant poveikio sektoriniams teisės aktams, Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti specialiai paskirti šiam tikslui, iki šio reglamento įsigaliojimo dienos parengia privalomas gaires dėl metodikos, kurią nacionalinės priežiūros institucijos turi taikyti atlikdamos 1 dalyje nurodytą atitikties vertinimą.

16 straipsnis

Europos atitikties etikos principams sertifikatas

1.   Jei pagal 15 straipsnį atliktas didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, atitikties vertinimas teigiamas, atitinkama nacionalinė priežiūros institucija išduoda Europos atitikties etikos principams sertifikatą.

2.   Bet kuris dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, kurie nelaikomi didelės rizikos ir todėl jiems netaikomi 6–12 straipsniuose nustatyti įpareigojimai ir 14 bei 15 straipsniuose numatytas rizikos vertinimas ir atitikties vertinimas, kūrėjas, diegėjas arba naudotojas taip pat gali siekti patvirtinti, kad laikomasi šiame reglamente nustatytų įpareigojimų arba jų dalies, kai tai pateisinama dėl atitinkamos technologijos pobūdžio, dėl kurio sprendimą priėmė nacionalinės priežiūros institucijos. Sertifikatas išduodamas tik tuo atveju, jei atitikties vertinimą atliko atitinkama nacionalinė priežiūros institucija ir tas vertinimas yra teigiamas.

3.   2 dalyje nurodyto sertifikato išdavimo tikslais Komisija ir (arba) kitos atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiuo tikslu, parengia paraiškų teikimo tvarką.

III skyrius

Institucinė priežiūra

17 straipsnis

Valdymo standartai ir įgyvendinimo gairės

1.   Sąjungoje kuriamas, diegiamas arba naudojamas dirbtinis intelektas, robotika ir susijusios technologijos turi atitikti atitinkamus valdymo standartus, kuriuos nustatė 18 straipsnyje nurodytos nacionalinės priežiūros institucijos, laikydamosi Sąjungos teisės, principų ir vertybių, koordinuojant Komisijai ir (arba) bet kurioms atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurie gali būti paskirti šiuo tikslu, ir konsultuojantis su atitinkamais suinteresuotaisiais subjektais.

2.   Į 1 dalyje nurodytus standartus įtraukiamos neprivalomos įgyvendinimo gairės dėl atitikties šiam reglamentui užtikrinimo metodikos, kuri skirta kūrėjams, diegėjams ir naudotojams. Šios gairės paskelbiamos iki šio reglamento įsigaliojimo dienos.

3.   Duomenis, naudojamus ar sukurtus taikant Sąjungoje sukurtą, įdiegtą arba naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, tvarko kūrėjai, diegėjai ir naudotojai, laikydamiesi 1 dalyje nurodytų atitinkamų nacionalinių, Sąjungos ir kitų Europos bei tarptautinių organizacijų taisyklių ir standartų, taip pat atitinkamų pramonės ir verslo protokolų. Visų pirma, kūrėjai ir diegėjai, kai įmanoma, atlieka dirbtinio intelekto, robotikos ir susijusių technologijų naudojamų duomenų išorinių šaltinių kokybės patikras ir įdiegia jų rinkimo, saugojimo, tvarkymo ir naudojimo priežiūros mechanizmus.

4.   Nedarant poveikio perkeliamumo teisėms ir asmenų, kuriems naudojant dirbtinį intelektą, robotiką ir susijusias technologijas buvo gauti duomenys, teisėms, duomenų, naudojamų ar sukurtų taikant Sąjungoje sukurtą, įdiegtą ar naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, rinkimas, saugojimas, apdorojimas, dalijimasis jais vykdomas ir prieiga prie jų suteikiama laikantis atitinkamų nacionalinių, Sąjungos, kitų Europos organizacijų ir tarptautinių taisyklių ir standartų, taip pat atitinkamų pramonės ir verslo protokolų. Visų pirma, kūrėjai ir diegėjai užtikrina, kad tie protokolai būtų taikomi kuriant ir diegiant dirbtinį intelektą, robotiką ir susijusias technologijas, aiškiai apibrėždami duomenų, kurie naudojami ar kuriami taikant šias technologijas, apdorojimo ir prieigos prie jų suteikimo reikalavimus, taip pat duomenų apdorojimo tikslą, aprėptį ir adresatus bei prieigos prie tokių duomenų suteikimą, visiems šiems aspektams taikant galimybės patikrinti ir atsekamumo bet kuriuo metu reikalavimą.

18 straipsnis

Priežiūros institucijos

1.   Kiekviena valstybė narė paskiria nepriklausomą valdžios instituciją, atsakingą už šio reglamento taikymo stebėseną (toliau – priežiūros institucija), taip pat už 14, 15 ir 16 straipsniuose numatytų rizikos ir atitikties vertinimų atlikimą ir sertifikavimą, nedarant poveikio sektoriniams teisės aktams.

2.   Kiekviena priežiūros institucija prisideda prie nuoseklaus šio reglamento taikymo visoje Sąjungoje. Tuo tikslu kiekvienos valstybės narės priežiūros institucijos bendradarbiauja tarpusavyje, su Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis, kurie gali būti paskirti šiuo tikslu.

3.   Kiekviena nacionalinė priežiūros institucija atlieka pirminio informacinio centro vaidmenį tais atvejais, kai įtariama, kad plėtojant, diegiant ar naudojant dirbtinį intelektą, robotiką ir susijusias technologijas pažeidžiami šiame reglamente nustatyti etikos principai ir teisinės prievolės, įskaitant diskriminacinį elgesį ar kitų teisių pažeidimus. Tokiais atvejais atitinkama nacionalinė priežiūros institucija atlieka atitikties vertinimą, siekiant paremti piliečių teisę užginčyti ir ginti savo teises.

4.   Kiekviena nacionalinė priežiūros institucija yra atsakinga už 17 straipsnyje nurodytų atitinkamų nacionalinių, Europos ir tarptautinių valdymo taisyklių ir standartų taikymo dirbtiniam intelektui, robotikai ir susijusioms technologijoms priežiūrą, be kita ko, palaikydama ryšius su kuo daugiau suinteresuotųjų subjektų. Tuo tikslu priežiūros institucijos kiekvienoje valstybėje narėje turi suburti forumą, skirtą reguliariems mainams informacija su akademinės bendruomenės, mokslinių tyrimų, pramonės ir pilietinės visuomenės suinteresuotaisiais subjektais ir tarp jų.

5.   Kiekviena nacionalinė priežiūros institucija teikia profesines ir administracines gaires ir paramą, kiek tai susiję su bendru Sąjungos teisės, taikytinos dirbtiniam intelektui, robotikai ir susijusioms technologijoms, ir šiame reglamente nustatytų etikos principų įgyvendinimu, visų pirma atitinkamoms mokslinių tyrimų ir technologinės plėtros organizacijoms, mažosioms ir vidutinėms įmonėms ar startuoliams.

6.   Kiekviena valstybė narė praneša Europos Komisijai apie teisines nuostatas, kurias ji priima pagal šį straipsnį, iki … [OL: prašom įrašyti datą – vieni metai po įsigaliojimo] ir nedelsdamos – apie visus vėlesnius joms įtakos turinčius pakeitimus.

7.   Valstybės narės imasi visų būtinų priemonių, kad užtikrintų šiame reglamente nustatytų etikos principų ir teisinių įsipareigojimų įgyvendinimą. Valstybės narės tiek Sąjungos, tiek nacionaliniu lygmeniu remia atitinkamų suinteresuotųjų subjektų ir pilietinės visuomenės pastangas užtikrinti laiku teikiamą, etišką ir gerai informacija pagrįstą atsaką į naujas galimybes ir iššūkius, visų pirma tarpvalstybinio pobūdžio, kylančius dėl technologinės plėtros, susijusios su dirbtiniu intelektu, robotika ir susijusiomis technologijomis.

19 straipsnis

Pranešimai apie pažeidimus ir pranešimų teikėjų apsauga

Pranešimams apie šio reglamento pažeidimus ir asmenų, pranešančių apie tokius pažeidimus, apsaugai taikoma Europos Parlamento ir Tarybos direktyva (ES) 2019/1937 (6).

20 straipsnis

Koordinavimas Sąjungos lygmeniu

1.   Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiame kontekste, vykdo šias užduotis:

užtikrina nuoseklų 14 straipsnyje nurodyto dirbtinio intelekto, robotikos ir susijusių technologijų rizikos vertinimą, kurį turi atlikti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos, remdamosi 8 straipsnio 1 dalyje numatytais bendrais objektyviais kriterijais ir šio reglamento priede pateiktu didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar tikslų sąrašu;

atsižvelgia į atitikties vertinimą ir tolesnę didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, nurodytų 15 straipsnyje, stebėseną, kurią turi atlikti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos;

parengia paraiškų teikimo tvarką norint gauti 16 straipsnyje nurodytą sertifikatą, kurį turi išduoti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos;

nedarant poveikio sektoriniams teisės aktams rengia 17 straipsnio 4 dalyje nurodytas privalomas gaires dėl metodikos, kurias turi naudoti 18 straipsnyje nurodytos nacionalinės priežiūros institucijos;

koordinuoja 18 straipsnyje nurodytų nacionalinių priežiūros institucijų atitinkamų valdymo standartų, nurodytų 17 straipsnyje, nustatymą, įskaitant kūrėjams, diegėjams ir naudotojams skirtas neprivalomas įgyvendinimo gaires dėl atitikties šiam reglamentui metodikos;

bendradarbiauja su 18 straipsnyje nurodytomis nacionalinėmis priežiūros institucijomis dėl jų indėlio į nuoseklų šio reglamento taikymą visoje Sąjungoje pagal 18 straipsnio 2 dalį;

veikia kaip kompetencijos centras, skatindami keitimąsi informacija, susijusia su dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ir remdami bendro supratimo plėtojimą bendrojoje rinkoje, teikdami papildomas gaires, nuomones ir ekspertines žinias 18 straipsnyje nurodytoms nacionalinėms priežiūros institucijoms, stebėdami, kaip įgyvendinami atitinkami Sąjungos teisės aktai, nustatydami geriausios praktikos standartus ir, kai tinkama, teikdami rekomendacijas dėl reguliavimo priemonių; tai darydami jie turėtų palaikyti ryšius su kuo didesniu atitinkamų suinteresuotųjų subjektų skaičiumi ir užtikrinti, kad jų sprendimų priėmimo lygmenų sudėtis būtų įvairi ir kad būtų užtikrinta lyčių lygybė;

rengti Saugumo ir gynybos darbo grupės, kurios tikslas – nagrinėti politikos ir investicijų klausimus, konkrečiai susijusius su etišku dirbtinio intelekto, robotikos ir susijusių technologijų naudojimu saugumo ir gynybos srityje, posėdžius.

21 straipsnis

Įgaliojimų delegavimas

1.   Įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami šiame straipsnyje nustatytomis sąlygomis.

2.   14 straipsnio 3 ir 4 dalyse nurodyti įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami 5 metų laikotarpiui nuo (šio reglamento įsigaliojimo diena).

3.   Europos Parlamentas arba Taryba gali bet kada atšaukti 14 straipsnio 3 ir 4 dalyse nurodytus deleguotuosius įgaliojimus. Sprendimu dėl įgaliojimų atšaukimo nutraukiami tame sprendime nurodyti įgaliojimai priimti deleguotuosius aktus. Jis įsigalioja kitą dieną po sprendimo paskelbimo Europos Sąjungos oficialiajame leidinyje arba vėlesnę sprendime nurodytą dieną. Jis nedaro poveikio jau galiojančių deleguotųjų aktų galiojimui.

4.   Prieš priimdama deleguotąjį aktą Komisija konsultuojasi su ekspertais, kiekvienos valstybės narės paskirtais laikantis 2016 m. balandžio 13 d. Tarpinstituciniame susitarime dėl geresnės teisėkūros nustatytų principų.

5.   Apie priimtą deleguotąjį aktą Komisija nedelsdama vienu metu praneša Europos Parlamentui ir Tarybai.

6.   Pagal 14 straipsnio 3 ir 4 dalis priimtas deleguotasis aktas įsigalioja tik tuo atveju, jeigu per tris mėnesius nuo pranešimo Europos Parlamentui ir Tarybai apie šį aktą dienos nei Europos Parlamentas, nei Taryba nepareiškia prieštaravimų arba jeigu dar nepasibaigus šiam laikotarpiui ir Europos Parlamentas, ir Taryba praneša Komisijai, kad prieštaravimų nereikš. Europos Parlamento arba Tarybos iniciatyva šis laikotarpis pratęsiamas trimis mėnesiais.

22 straipsnis

Direktyvos (ES) 2019/1937 dalinis keitimas

Direktyva (ES) 2019/1937 iš dalies keičiama taip:

1)

2 straipsnio 1 dalis papildoma šiuo punktu:

„xi)

dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo.“

2)

Priedo I dalis papildoma šiuo punktu:

„K.

2 straipsnio 1 dalies a punkto xi papunktis – dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas.

„xxi)

[data] Europos Parlamento ir Tarybos reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų“.“

23 straipsnis

Peržiūra

Komisija reguliariai peržiūri dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, raidą ir ne vėliau kaip … [OL: prašom įrašyti datą – treji metai po įsigaliojimo], o vėliau kas trejus metus teikia Europos Parlamentui, Tarybai ir Europos ekonomikos ir socialinių reikalų komitetui šio reglamento taikymo ataskaitą, įskaitant galimo šio reglamento taikymo srities pakeitimo vertinimą.

24 straipsnis

Įsigaliojimas

Šis reglamentas įsigalioja dvidešimtą dieną po jo paskelbimo Europos Sąjungos oficialiajame leidinyje.

Jis taikomas nuo … [data].

Šis reglamentas privalomas visas ir tiesiogiai taikomas visose valstybėse narėse.

Priimta ….

Europos Parlamento vardu

Pirmininkas

Tarybos vardu

Pirmininkas

PRIEDAS

Išsamus ir suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar tikslų, dėl kurių kyla pagrindinių teisių ir saugos taisyklių pažeidimo pavojus, sąrašas.

Didelės rizikos sektoriai

Užimtumas

Švietimas

Sveikatos priežiūra

Transportas

Energetika

Viešasis sektorius (prieglobstis, migracija, sienų kontrolė, teismai ir socialinės apsaugos tarnybos)

Gynyba ir saugumas

Finansai, bankininkystė, draudimas

Labai rizikingi naudojimo būdai arba tikslai

Įdarbinimas

Besimokančiųjų vertinimas, taip pat pažymiais

Viešųjų lėšų paskirstymas

Paskolų teikimas

Prekyba, tarpininkavimas, apmokestinimas ir t. t.

Medicininis gydymas ir procedūros

Rinkiminiai procesai ir politinės kampanijos

Viešojo sektoriaus sprendimai, kurie daro didelį tiesioginį poveikį fizinių ar juridinių asmenų teisėms ir pareigoms

Automatizuotas vairavimas

Eismo valdymas

Autonominės karinės sistemos

Energijos gamyba ir paskirstymas

Atliekų tvarkymas

Išmetamųjų teršalų kontrolė.


(1)  Automatizuoto transporto priemonių vairavimo atveju buvo pasiūlyti šeši vairavimo automatizavimo lygiai pagal SAE tarptautinį standartą J3016, paskutinį kartą atnaujiną 2018 m. į J3016_201806. https://www.sae.org/standards/content/j3016_201806/

(2)  2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).

(3)  2002 m. liepos 12 d. Europos Parlamento ir Tarybos direktyva 2002/58/EB dėl asmens duomenų tvarkymo ir privatumo apsaugos elektroninių ryšių sektoriuje (Direktyva dėl privatumo ir elektroninių ryšių) (OL L 201, 2002 7 31, p. 37).

(4)  Pritaikyta 2018 m. balandžio 25 d. Europos Komisijos komunikato COM(2018)0237 1 puslapyje pateikta apibrėžtis.

(5)  Remiantis ISO 8373 standarte pateikta pramoninių robotų apibrėžtimi.

(6)  2019 m. spalio 23 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/1937 dėl asmenų, pranešančių apie Sąjungos teisės pažeidimus, apsaugos (OL L 305, 2019 11 26, p. 17).