Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

Europos regionų komiteto nuomonė „Europos požiūris į dirbtinį intelektą. Dirbtinio intelekto aktas“ (pataisyta nuomonė)

COR 2021/02682

OL C 97, 2022 2 28, pp. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

2022 2 28   

LT

Europos Sąjungos oficialusis leidinys

C 97/60


Europos regionų komiteto nuomonė „Europos požiūris į dirbtinį intelektą. Dirbtinio intelekto aktas“

(pataisyta nuomonė)

(2022/C 97/12)

Pranešėjas

Guido RINK (NL / PES), Emeno vykdomosios tarybos narys

Pamatiniai dokumentai:

Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos požiūrio į dirbtinį intelektą formavimas“

COM(2021) 205

Pasiūlymas dėl Europos Parlamento ir Tarybos reglamento, kuriuo nustatomos suderintos dirbtinio intelekto taisyklės (Dirbtinio intelekto aktas) ir iš dalies keičiami tam tikri Sąjungos teisėkūros procedūra priimti aktai

COM(2021) 206

I.   SIŪLOMI PAKEITIMAI

1 pakeitimas

1 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

šio reglamento paskirtis – pagerinti vidaus rinkos veikimą nustatant vienodą teisinę sistemą, visų pirma skirtą dirbtinio intelekto kūrimui, pateikimui rinkai ir naudojimui paisant Sąjungos vertybių. Šiuo reglamentu siekiama įvairių svarbių su viešuoju interesu susijusių tikslų, pavyzdžiui, aukšto lygio sveikatos, saugumo ir pagrindinių teisių apsaugos, ir juo užtikrinamas laisvas DI pagrįstų prekių ir paslaugų tarpvalstybinis judėjimas, taip užkertant kelią valstybėms narėms nustatyti apribojimus kuriant, pateikiant rinkai ir naudojant DI sistemas, išskyrus atvejus, kai tai aiškiai leidžiama pagal šį reglamentą;

šio reglamento paskirtis – pagerinti vidaus rinkos veikimą ir užtikrinti pagrindines piliečių teises nustatant vienodą teisinę sistemą, visų pirma skirtą dirbtinio intelekto kūrimui, pateikimui rinkai ir naudojimui paisant Sąjungos vertybių. Šiuo reglamentu siekiama įvairių svarbių su viešuoju interesu susijusių tikslų, pavyzdžiui, aukšto lygio sveikatos, saugumo ir pagrindinių teisių apsaugos, ir juo užtikrinamas laisvas DI pagrįstų prekių ir paslaugų tarpvalstybinis judėjimas, taip užkertant kelią valstybėms narėms nustatyti apribojimus kuriant, pateikiant rinkai ir naudojant DI sistemas, išskyrus atvejus, kai tai aiškiai leidžiama pagal šį reglamentą;

Paaiškinimas

Nuoroda į pagrindines teises siekiama pabrėžti sąsają su Europos Sąjungos pagrindinių teisių chartija.

2 pakeitimas

Po 6 konstatuojamosios dalies įrašyti naują konstatuojamąją dalį:

Komisijos siūlomas tekstas

RK pakeitimas

 

dirbtinio intelekto sistemų apibrėžties kūrimas yra nuolatinis procesas, kurio metu atsižvelgiama į dirbtinio intelekto kontekstą, į visuomenės pokyčių šioje srityje tempą ir nepamirštamas kompetencijos ekosistemos ir pasitikėjimo ekosistemos ryšys;

Paaiškinimas

Pažanga dirbtinio intelekto ir technologijų srityje reikalauja pritaikomojo ir nuolat plėtojamo požiūrio. Šia konstatuojamąja dalimi siekiama paaiškinti, kad DI apibrėžtis laikui bėgant turi keistis atsižvelgiant į DI sistemų ir prietaikų pažangą.

3 pakeitimas

20 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

siekiant užtikrinti, kad tos sistemos būtų naudojamos atsakingai ir proporcingai, taip pat svarbu nustatyti, kad kiekvienoje iš šių trijų išsamiai nurodytų ir siaurai apibrėžtų situacijų būtų atsižvelgta į tam tikrus aspektus, visų pirma susijusius su situacijos, kurioje pateikiamas prašymas, pobūdžiu ir tokio naudojimo pasekmėmis visų susijusių asmenų teisėms ir laisvėms, taip pat su tokiu naudojimu susijusiomis apsaugos priemonėmis ir sąlygomis. Be to, tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimui viešosiose erdvėse teisėsaugos tikslais turėtų būti taikomos atitinkamos laiko ir erdvės ribos, atsižvelgiant visų pirma į įrodymus arba požymius, susijusius su grėsmėmis, aukomis arba nusikaltėliu. Su kiekviena iš trijų pirmiau nurodytų situacijų susijusiu atveju yra tinkama informacinė asmenų duomenų bazė;

siekiant užtikrinti, kad tos sistemos būtų naudojamos atsakingai ir proporcingai, taip pat svarbu nustatyti, kad kiekvienoje iš šių trijų išsamiai nurodytų ir siaurai apibrėžtų situacijų būtų atsižvelgta į tam tikrus aspektus, visų pirma susijusius su situacijos, kurioje pateikiamas prašymas, pobūdžiu ir tokio naudojimo pasekmėmis visų susijusių asmenų teisėms ir laisvėms, taip pat su tokiu naudojimu susijusiomis apsaugos priemonėmis ir sąlygomis. Prieš pradedant šias sistemas naudoti išimties tvarka turėtų būti konsultuojamasi su atitinkamomis vietos ir regionų valdžios institucijomis. Be to, tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimui viešosiose erdvėse teisėsaugos tikslais turėtų būti taikomos griežtos laiko ir erdvės ribos, atsižvelgiant visų pirma į įrodymus arba požymius, susijusius su grėsmėmis, aukomis arba nusikaltėliu. Su kiekviena iš trijų pirmiau nurodytų situacijų susijusiu atveju yra tinkama informacinė asmenų duomenų bazė;

Paaiškinimas

Tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos neturėtų būti naudojamos lengvabūdiškai.

4 pakeitimas

21 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

kiekvieną kartą viešosiose erdvėse teisėsaugos tikslais naudojant tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą, reikėtų gauti aiškų ir konkretų valstybės narės teismo institucijos arba bet kurios nepriklausomos administracinės institucijos leidimą. Toks leidimas iš esmės turėtų būti gautas iki naudojimo pradžios, išskyrus tinkamai pagrįstas neatidėliotinas situacijas, t. y. situacijas, kuriose poreikis naudoti atitinkamas sistemas yra toks, kad faktiškai ir objektyviai neįmanoma gauti leidimo prieš pradedant jas naudoti. Tokiose neatidėliotinose situacijose naudojimas turėtų apimti tik tai, kas absoliučiai minimaliai būtina, įskaitant tinkamų apsaugos priemonių ir sąlygų taikymą, kaip apibrėžta nacionalinėje teisėje ir kaip konkrečiai nurodė pati teisėsaugos institucija, atsižvelgdama į kiekvieną pavienį neatidėliotino naudojimo atvejį . Be to, tokiose situacijose teisėsaugos institucija turėtų stengtis kuo greičiau gauti leidimą , kartu nurodant priežastis, dėl kurių ji negalėjo leidimo prašyti anksčiau ;

kiekvieną kartą viešosiose erdvėse teisėsaugos tikslais naudojant tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą, reikėtų gauti aiškų ir konkretų valstybės narės teismo institucijos arba bet kurios nepriklausomos administracinės institucijos leidimą. Toks leidimas turėtų būti gautas iki naudojimo pradžios, išskyrus tinkamai pagrįstas neatidėliotinas situacijas, t. y. situacijas, kuriose poreikis naudoti atitinkamas sistemas yra toks, kad faktiškai ir objektyviai neįmanoma gauti leidimo prieš pradedant jas naudoti. Bet kuriuo atveju naudojimas turėtų apimti tik tai, kas absoliučiai minimaliai būtina, įskaitant tinkamų apsaugos priemonių ir sąlygų taikymą, kaip apibrėžta nacionalinėje teisėje. Be to, teisėsaugos institucija turėtų nedelsiant informuoti atitinkamas vietos ir regionų valdžios institucijas ir stengtis gauti kompetentingų valdžios institucijų leidimą;

Paaiškinimas

Politinė ir administracinė atsakomybė už viešųjų erdvių valdymą ir stebėseną tenka vietos ir regionų valdžios institucijoms. Todėl jos turėtų tinkamai dalyvauti diegiant tokias sistemas viešosiose erdvėse. Skubiais atvejais, kai būtų nepagrįsta laukti išankstinių konsultacijų, atitinkama vietos ar regiono valdžios institucija turėtų būti nedelsiant informuojama apie biometrinių sistemų diegimą viešojoje erdvėje.

5 pakeitimas

39 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos daro poveikį žmonėms, kurie dažnai būna ypač pažeidžiamoje padėtyje ir yra priklausomi nuo kompetentingų valdžios institucijų veiksmų rezultato. Todėl šiomis aplinkybėmis naudojamų DI sistemų tikslumas, nediskriminacinis pobūdis ir skaidrumas yra labai svarbūs, siekiant garantuoti pagarbą asmenų, kuriems daromas poveikis, pagrindinėms teisėms, ypač jų teisei laisvai judėti, teisei nebūti diskriminuojamiems, teisei į privataus gyvenimo ir asmens duomenų apsaugą, teisei į tarptautinę apsaugą ir gerą administravimą. Todėl DI sistemas, skirtas naudoti kompetentingoms institucijoms, kurioms pavestos užduotys migracijos, prieglobsčio ir sienų valdymo srityje, kaip poligrafus ir panašias priemones arba siekiant nustatyti fizinio asmens emocinę būklę, įvertinti tam tikrą riziką, kurią fiziniai asmenys kelia atvykdami į valstybės narės teritoriją arba prašydami išduoti vizą arba suteikti prieglobstį, patikrinti fizinių asmenų dokumentų autentiškumą, padėti kompetentingoms valdžios institucijoms išnagrinėti prašymus suteikti prieglobstį, išduoti vizą ir leidimą gyventi, ir susijusius skundus, siekiant nustatyti fizinių asmenų tinkamumą prašyti suteikti pabėgėlio statusą, tinkama klasifikuoti kaip didelės rizikos DI sistemas. Migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos, kurioms taikomas šis reglamentas, turėtų atitikti susijusius procedūrinius reikalavimus, nustatytus Europos Parlamento ir Tarybos direktyvoje 2013/32/ES, Europos Parlamento ir Tarybos reglamente (EB) Nr. 810/2009 ir kituose susijusiuose teisės aktuose;

migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos daro poveikį žmonėms, kurie dažnai būna ypač pažeidžiamoje padėtyje ir yra priklausomi nuo kompetentingų valdžios institucijų veiksmų rezultato. Todėl šiomis aplinkybėmis naudojamų DI sistemų tikslumas, nediskriminacinis pobūdis ir skaidrumas yra labai svarbūs, siekiant garantuoti pagarbą asmenų, kuriems daromas poveikis, pagrindinėms teisėms, ypač jų teisei laisvai judėti, teisei nebūti diskriminuojamiems, teisei į privataus gyvenimo ir asmens duomenų apsaugą, teisei į tarptautinę apsaugą ir gerą administravimą. Todėl DI sistemas, skirtas naudoti kompetentingoms institucijoms, kurioms pavestos užduotys migracijos, prieglobsčio ir sienų valdymo srityje, kaip poligrafus ir panašias priemones arba siekiant nustatyti fizinio asmens emocinę būklę, įvertinti tam tikrą riziką, kurią fiziniai asmenys kelia atvykdami į valstybės narės teritoriją arba prašydami išduoti vizą arba suteikti prieglobstį, patikrinti fizinių asmenų dokumentų autentiškumą, padėti kompetentingoms valdžios institucijoms išnagrinėti prašymus suteikti prieglobstį, išduoti vizą ir leidimą gyventi, ir susijusius skundus, siekiant nustatyti fizinių asmenų tinkamumą prašyti suteikti pabėgėlio statusą, būtina klasifikuoti kaip didelės rizikos DI sistemas. Migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos, kurioms taikomas šis reglamentas, turėtų atitikti susijusius procedūrinius reikalavimus, nustatytus Europos Parlamento ir Tarybos direktyvoje 2013/32/ES, Europos Parlamento ir Tarybos reglamente (EB) Nr. 810/2009 ir kituose susijusiuose teisės aktuose;

Paaiškinimas

Šiuo pakeitimu siekiama pabrėžti būtinybę atitinkamoms DI sistemoms taikyti griežtesnę tvarką, taikomą didelės rizikos DI sistemoms.

6 pakeitimas

43 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

reikalavimai turėtų būti taikomi didelės rizikos DI sistemoms tiek, kiek tai susiję su naudojamų duomenų rinkinių kokybe, techniniais dokumentais ir įrašų saugojimu, skaidrumu ir informacijos teikimu naudotojams, žmogaus vykdoma priežiūra, patikimumu, tikslumu ir kibernetiniu saugumu. Šie reikalavimai yra būtini siekiant veiksmingai sumažinti riziką sveikatai, saugumui ir pagrindinėms teisėms kartu atsižvelgiant į  numatytąją sistemos paskirtį, ir jeigu nėra pagrįstai prieinamų jokių kitų mažiau prekybą ribojančių priemonių, taip išvengiant nepagrįstų prekybos apribojimų;

reikalavimai turėtų būti taikomi didelės rizikos DI sistemoms tiek, kiek tai susiję su naudojamų duomenų rinkinių kokybe, techniniais dokumentais ir įrašų saugojimu, skaidrumu ir informacijos teikimu naudotojams, žmogaus vykdoma priežiūra, patikimumu, tikslumu ir kibernetiniu saugumu. Šie reikalavimai yra būtini siekiant veiksmingai sumažinti riziką sveikatai, saugumui , duomenų saugumui, vartotojų teisėms ir pagrindinėms teisėms kartu atsižvelgiant į sistemos paskirtį, ir jeigu nėra pagrįstai prieinamų jokių kitų mažiau prekybą ribojančių priemonių, taip išvengiant nepagrįstų prekybos apribojimų. Fiziniai asmenys ar asmenų grupės, kuriems daro poveikį Sąjungos rinkai pateikiamos ar kitaip pradedamos naudoti didelės rizikos DI sistemos, turėtų būti tinkamai, nesudėtingai ir suprantamai informuojami, taip pat jiems turi būti sudaryta prieiga prie aiškios, lengvai pasiekiamos ir viešai prieinamos informacijos, kad jiems tos sistemos taikomos;

Paaiškinimas

Skaidrumo ir informavimo reikalavimai tiekėjams ir naudotojams turėtų būti taikomi ir asmenims arba asmenų grupėms, kuriems gali turėti įtakos reglamento III priede išvardytų didelės rizikos dirbtinio intelekto sistemų naudojimas. Sąvoka „suprantamai“ visų pirma reiškia, kad kalba turi būti aiški ir suprantama vartotojui, įskaitant žodinę ir gestų kalbą.

7 pakeitimas

Po 44 konstatuojamosios dalies įrašyti naują konstatuojamąją dalį:

Komisijos siūlomas tekstas

RK pakeitimas

 

DI paslaugų teikėjai į savo kokybės valdymo sistemą negali įtraukti jokių priemonių, kuriomis būtų skatinama nepagrįsta diskriminacija dėl lyties, kilmės, religijos ar tikėjimo, negalios, amžiaus, seksualinės orientacijos ar bet kurios kitos priežasties;

Paaiškinimas

Neteisėta diskriminacija atsiranda dėl žmogaus veiklos. Dirbtinio intelekto sistemų tiekėjai neturėtų įtraukti į savo kokybės valdymo sistemą priemonių, kuriomis gali būti skatinama diskriminacija.

8 pakeitimas

47 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

siekiant spręsti neskaidrumo problemą, dėl kurios tam tikros DI sistemos fiziniams asmenims gali būti nesuprantamos arba pernelyg sudėtingos, didelės rizikos DI sistemoms reikėtų nustatyti reikalavimus dėl tam tikro skaidrumo lygio. Naudotojai turėtų turėti galimybę aiškinti sistemos išvedinį ir jį tinkamai panaudoti. Todėl dėl didelės rizikos DI sistemų turėtų būti parengiama atitinkama dokumentacija ir naudojimo instrukcijos, įskaitant nuoseklią ir aiškią informaciją, be kita ko, susijusią su galima rizika pagrindinėms teisėms ir, kai tinkama, diskriminacija;

siekiant spręsti neskaidrumo problemą, dėl kurios tam tikros DI sistemos fiziniams asmenims ar valdžios institucijoms bet kuriuo valdymo lygmeniu gali būti nesuprantamos arba pernelyg sudėtingos, didelės rizikos DI sistemoms reikėtų nustatyti reikalavimus dėl aukšto skaidrumo lygio. Naudotojai turėtų turėti galimybę aiškinti sistemos išvedinį ir jį tinkamai panaudoti. Todėl dėl didelės rizikos DI sistemų turėtų būti parengiama atitinkama dokumentacija ir naudojimo instrukcijos, įskaitant nuoseklią ir aiškią informaciją, be kita ko, susijusią su galima rizika pagrindinėms teisėms ir, kai tinkama, diskriminacija;

Paaiškinimas

Didelės rizikos DI sistemų projektuotojų atsakomybė silpnėja vartojant terminus „tam tikras skaidrumo lygis“.

9 pakeitimas

48 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

didelės rizikos DI sistemos turėtų būti kuriamos ir plėtojamos taip, kad fiziniai asmenys galėtų prižiūrėti jų veikimą. Šiuo tikslu sistemos tiekėjas prieš pateikdamas sistemą rinkai arba pradėdamas ją naudoti turėtų nustatyti atitinkamas žmogaus atliekamos priežiūros priemones. Visų pirma, kai tinkama, tokiomis priemonėmis turėtų būti garantuojama, kad sistemai būtų taikomi integruoti veikimo apribojimai, kurie būtų nepriklausomi nuo pačios sistemos ir kuriuos galėtų kontroliuoti žmogus, ir kad fiziniai asmenys, kuriems pavesta atlikti žmogaus priežiūrą, turėtų būtiną kompetenciją, kvalifikaciją ir įgaliojimus atlikti tą funkciją;

didelės rizikos DI sistemos turėtų būti kuriamos ir plėtojamos taip, kad fiziniai asmenys ir valdžios institucijos bet kuriuo valdymo lygmeniu galėtų prižiūrėti jų veikimą. Šiuo tikslu sistemos tiekėjas prieš pateikdamas sistemą rinkai arba pradėdamas ją naudoti turėtų nustatyti atitinkamas žmogaus atliekamos priežiūros priemones. Visų pirma, kai tinkama, tokiomis priemonėmis turėtų būti garantuojama, kad sistemai būtų taikomi integruoti veikimo apribojimai, kurie būtų nepriklausomi nuo pačios sistemos ir kuriuos galėtų kontroliuoti žmogus, ir kad fiziniai asmenys, kuriems pavesta atlikti žmogaus priežiūrą, turėtų būtiną kompetenciją, kvalifikaciją ir įgaliojimus atlikti tą funkciją;

Paaiškinimas

Savaime suprantama.

10 pakeitimas

67 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

kad didelės rizikos DI sistemos galėtų laisvai judėti vidaus rinkoje, jos turėtų būti ženklinamos CE ženklu, iš kurio būtų matyti, kad jos atitinka šį reglamentą. Valstybės narės neturėtų sudaryti nepagrįstų kliūčių pateikti rinkai ar pradėti naudoti didelės rizikos DI sistemas, kurios atitinka šiame reglamente nustatytus reikalavimus ir yra paženklintos CE ženklu;

kad didelės rizikos DI sistemos galėtų laisvai judėti vidaus rinkoje, jos turėtų būti ženklinamos CE ženklu, iš kurio būtų matyti, kad jos atitinka šį reglamentą. Valstybės narės neturėtų sudaryti kliūčių pateikti rinkai ar pradėti naudoti didelės rizikos DI sistemas, kurios atitinka šiame reglamente nustatytus reikalavimus ir yra paženklintos CE ženklu. Valstybės narės turi įgaliojimus reglamentuoti didelės rizikos DI praktiką ir sistemas tik dėl svarbių ir tinkamai pagrįstų viešųjų ir nacionalinio saugumo interesų;

Paaiškinimas

Valstybės narės neturėtų kliudyti reglamento taikymui ir jos turėtų išsaugoti teisę reglamentuoti didelės rizikos dirbtinio intelekto sistemas, jei kyla pavojus viešiesiems ir nacionaliniams saugumo interesams.

11 pakeitimas

70 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

tam tikros DI sistemos, kurių paskirtis – sąveikauti su fiziniais asmenimis arba kurti turinį, gali kelti konkrečią apsimetinėjimo arba apgaulės riziką, nepaisant to, ar jos klasifikuojamos kaip didelės rizikos DI sistemos, ar ne. Todėl šių sistemų naudojimui tam tikromis aplinkybėmis turėtų būti taikomi konkretūs skaidrumo įpareigojimai, nedarant poveikio didelės rizikos DI sistemoms taikomiems reikalavimams ir įpareigojimams. Visų pirma fizinius asmenis reikėtų informuoti, kad jie sąveikauja su DI sistema , išskyrus atvejus, kai tai aiškiai matyti iš aplinkybių ir naudojimo konteksto . Be to, fizinius asmenis reikėtų informuoti apie tai, kad jiems taikoma emocijų atpažinimo sistema arba biometrinio kategorizavimo sistema. Tokia informacija ir pranešimai neįgaliesiems turėtų būti teikiami prieinama forma. Be to, DI sistemų, kuriomis sukuriamas į realius asmenis, objektus, vietas ar kitus dalykus ar įvykius labai panašus judamo bei nejudamo vaizdo ir garso turinys, kurį asmuo gali klaidingai palaikyti autentišku, naudotojai turėtų nurodyti, kad tas turinys sukurtas dirbtinai arba kad su juo atliktos manipuliacijos, atitinkamai paženklinant dirbtinio intelekto išvedinį ir atskleidžiant informaciją apie jo dirbtinė kilmę;

tam tikros DI sistemos, kurių paskirtis – sąveikauti su fiziniais asmenimis arba kurti turinį, gali kelti konkrečią apsimetinėjimo arba apgaulės riziką, nepaisant to, ar jos klasifikuojamos kaip didelės rizikos DI sistemos, ar ne. Todėl šių sistemų naudojimui turėtų būti taikomi konkretūs skaidrumo įpareigojimai, nedarant poveikio didelės rizikos DI sistemoms taikomiems reikalavimams ir įpareigojimams. Visų pirma fizinius asmenis reikėtų sistemingai informuoti, kad jie sąveikauja su DI sistema. Be to, fizinius asmenis reikėtų informuoti apie tai, kad jiems taikoma emocijų atpažinimo sistema arba biometrinio kategorizavimo sistema. Tokia informacija ir pranešimai neįgaliesiems turėtų būti teikiami prieinama forma. Be to, DI sistemų, kuriomis sukuriamas į realius asmenis, objektus, vietas ar kitus dalykus ar įvykius labai panašus judamo bei nejudamo vaizdo ir garso turinys, kurį asmuo gali klaidingai palaikyti autentišku, naudotojai turėtų nurodyti, kad tas turinys sukurtas dirbtinai arba kad su juo atliktos manipuliacijos, atitinkamai paženklinant dirbtinio intelekto išvedinį ir atskleidžiant informaciją apie jo dirbtinė kilmę;

Paaiškinimas

Neturėtų būti daroma jokių išimčių skaidrumo ir informavimo prievolei, kai fiziniai asmenys sąveikauja su dirbtinio intelekto sistemomis.

12 pakeitimas

76 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

siekiant palengvinti sklandų, veiksmingą ir suderintą šio reglamento įgyvendinimą, reikėtų įsteigti Europos dirbtinio intelekto valdybą. Valdyba turėtų būti atsakinga už įvairias patariamąsias užduotis, taip pat nuomonių, rekomendacijų, patarimų ar gairių šio reglamento įgyvendinimo klausimais priėmimą, įskaitant klausimais dėl techninių specifikacijų arba esamų standartų, susijusių su šiame reglamente nustatytais reikalavimais, ir konsultuoti Komisiją bei jai padėti konkrečiais klausimais, susijusiais su dirbtiniu intelektu;

siekiant palengvinti sklandų, veiksmingą ir suderintą šio reglamento įgyvendinimą, reikėtų įsteigti Europos dirbtinio intelekto valdybą. Valdyba turėtų būti atsakinga už įvairias patariamąsias užduotis, taip pat nuomonių, rekomendacijų, patarimų ar gairių šio reglamento įgyvendinimo klausimais priėmimą, įskaitant klausimais dėl techninių specifikacijų arba esamų standartų, susijusių su šiame reglamente nustatytais reikalavimais, ir konsultuoti Komisiją bei jai padėti konkrečiais klausimais, susijusiais su dirbtiniu intelektu. Europos dirbtinio intelekto valdybos sudėtis turėtų atspindėti Europos visuomenės interesus ir užtikrinti lyčių pusiausvyrą;

Paaiškinimas

Europos dirbtinio intelekto valdyba turėtų tinkamai atspindėti pagrindinius Europos visuomenės interesus. Tai, be kita ko, žmogaus teisės, dirbtinio intelekto sistemų aplinka ir energijos vartojimo efektyvumas, saugumas, socialinė įtrauktis, sveikata ir kt. Lyčių pusiausvyra yra būtina sąlyga siekiant užtikrinti įvairovę vykdant patariamąją veiklą, rengiant gaires ir pan.

13 pakeitimas

77 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

labai svarbus vaidmuo taikant šį reglamentą ir užtikrinant jo vykdymą tenka valstybėms narėms. Šiuo atžvilgiu kiekviena valstybė narė turėtų paskirti vieną ar daugiau nacionalinių kompetentingų institucijų, kad jos prižiūrėtų, kaip taikomas ir įgyvendinamas šis reglamentas. Siekiant veiksmingesnės organizacijos valstybėse narėse ir sukurti oficialų ryšių palaikymo centrą, į kurį valstybės narės ir Sąjungos lygmeniu galėtų kreiptis valdžios ir kitos institucijos, kiekvienoje valstybėje narėje turėtų būti paskirta viena nacionalinė institucija, kuri veiktų kaip nacionalinė priežiūros institucija;

labai svarbus vaidmuo taikant šį reglamentą ir užtikrinant jo vykdymą tenka valstybėms narėms. Šiuo atžvilgiu kiekviena valstybė narė turėtų paskirti vieną ar daugiau nacionalinių kompetentingų institucijų, kad jos prižiūrėtų, kaip taikomas ir įgyvendinamas šis reglamentas. Siekiant veiksmingesnės organizacijos valstybėse narėse ir sukurti oficialų ryšių palaikymo centrą, į kurį valstybės narės ir Sąjungos lygmeniu galėtų kreiptis valdžios ir kitos institucijos, kiekvienoje valstybėje narėje turėtų būti paskirta viena nacionalinė institucija, kuri veiktų kaip nacionalinė priežiūros institucija. Vietos ir regionų valdžios institucijoms pavedamos stebėsenos arba vykdymo užtikrinimo užduotys, kai valstybė narė mano, kad to reikia;

Paaiškinimas

Reglamento taikymo ir jo priežiūros bei vykdymo užtikrinimo tikslais valstybei narei turėtų būti suteikti įgaliojimai stebėsenos arba vykdymo užtikrinimo užduotis pavesti vietos ir regionų valdžios institucijoms, kai tai būtina ir įmanoma.

14 pakeitimas

79 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

siekiant užtikrinti tinkamą ir veiksmingą šiame reglamente, kuris yra Sąjungos derinamasis teisės aktas, nustatytų reikalavimų ir pareigų vykdymą, turėtų būti visa apimtimi taikoma rinkos priežiūros ir gaminių atitikties sistema, nustatyta Reglamentu (ES) 2019/1020. Jei tai būtina atsižvelgiant į nacionalinių valdžios institucijų ar įstaigų, prižiūrinčių Sąjungos teisės aktų, kuriais apsaugomos pagrindinės teisės, taikymą, įskaitant lygybės institucijas, įgaliojimus, šios institucijos ir įstaigos taip pat turėtų turėti prieigą prie bet kokių pagal šį reglamentą sukurtų dokumentų;

siekiant užtikrinti tinkamą ir veiksmingą šiame reglamente, kuris yra Sąjungos derinamasis teisės aktas, nustatytų reikalavimų ir pareigų vykdymą, turėtų būti visa apimtimi taikoma rinkos priežiūros ir gaminių atitikties sistema, nustatyta Reglamentu (ES) 2019/1020. Jei tai būtina atsižvelgiant į nacionalinių valdžios institucijų ir, kai taikytina, vietos ar regionų valdžios institucijų ar įstaigų, prižiūrinčių Sąjungos teisės aktų, kuriais apsaugomos pagrindinės teisės, taikymą, įskaitant lygybės institucijas, įgaliojimus, šios institucijos ir įstaigos taip pat turėtų turėti prieigą prie bet kokių pagal šį reglamentą sukurtų dokumentų;

Paaiškinimas

Šiuo pakeitimu siekiama atsižvelgti į skirtingas valdymo struktūras ES valstybėse narėse.

15 pakeitimas

83 konstatuojamoji dalis

Komisijos siūlomas tekstas

RK pakeitimas

siekdamos užtikrinti patikimą ir konstruktyvų kompetentingų institucijų bendradarbiavimą Sąjungos ir nacionaliniu lygmenimis, visos šalys, kurios dalyvauja taikant šį reglamentą, turėtų užtikrinti informacijos ir duomenų, gautų vykdant savo užduotis, konfidencialumą;

siekdamos užtikrinti patikimą ir konstruktyvų kompetentingų institucijų bendradarbiavimą Sąjungos, nacionaliniu , regionų ir vietos lygmenimis, visos šalys, kurios dalyvauja taikant šį reglamentą, turėtų užtikrinti informacijos ir duomenų, gautų vykdant savo užduotis, konfidencialumą;

Paaiškinimas

Šiuo pakeitimu siekiama atsižvelgti į skirtingas valdymo struktūras ES valstybėse narėse.

16 pakeitimas

I ANTRAŠTINĖ DALIS, 3 straipsnis. Apibrėžtys, 1 punktas

Komisijos siūlomas tekstas

RK pakeitimas

dirbtinio intelekto sistema (DI sistema) – programinė įranga, sukurta taikant vieną ar daugiau I priede išvardytų metodų ir principų ir gebanti pagal tam tikrus žmogaus nustatytus tikslus generuoti išvedinius, pavyzdžiui, turinį, predikcijas, rekomendacijas, arba sprendimus, turinčius įtakos aplinkai, su kuria ji sąveikauja;

dirbtinio intelekto sistema (DI sistema) – programinė įranga, sukurta taikant vieną ar daugiau I priede ( neišsamiai) išvardytų metodų ir principų, susijusi su socialine praktika, tapatybe ir kultūra ir gebanti pagal tam tikrus žmogaus nustatytus tikslus , remdamasi savo aplinkos suvokimu, kurį užtikrina duomenų rinkimas, surinktų struktūrizuotų ar nestruktūrizuotų duomenų aiškinimas, žinių valdymas ar iš šių duomenų gautos informacijos apdorojimas , generuoti išvedinius, pavyzdžiui, turinį, predikcijas, rekomendacijas, arba sprendimus, turinčius įtakos aplinkai, su kuria ji sąveikauja;

Paaiškinimas

Dirbtinio intelekto sistema – tai techninių elementų, kuriais duomenys, algoritmai ir kompiuterijos galia susiejami su socialine praktika, visuomene, tapatybe ir kultūra, derinys. Todėl tokios dinamiškos socialinių ir techninių aspektų visumos apibrėžtis turėtų būti parengta remiantis ilgalaike perspektyva ir reguliariai atnaujinama, kad būtų tiksliai atspindėtas vis didėjantis DI poveikis visuomenei, kartu nustatant greitai kintančius su DI susijusius iššūkius ir galimybes, įskaitant žinių valdymo ir dirbtinio intelekto sąsają. Šiuo požiūriu reglamentas turėtų būti taikomas ir tiems algoritmams, kurie yra sukurti kitų algoritmų.

17 pakeitimas

5 straipsnio 1 punktas

Komisijos siūlomas tekstas

RK pakeitimas

Draudžiama taikyti šią su dirbtiniu intelektu susijusią praktiką:

Draudžiama taikyti šią su dirbtiniu intelektu susijusią praktiką:

a)

pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kuria, pasitelkiant pasąmonę veikiančius metodus, kurių asmuo nesuvokia, jo elgesys iš esmės pakeičiamas taip, kad jis pats arba kitas asmuo patirtų fizinę ar psichologinę žalą arba būtų tikėtina, kad jis ar kitas asmuo tokią žalą patirs;

a)

pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kuria, pasitelkiant pasąmonę veikiančius metodus, kurių asmuo nesuvokia, jo elgesys iš esmės pakeičiamas taip, kad jis pats arba kitas asmuo patirtų fizinę ar psichologinę žalą arba būtų tikėtina, kad jis ar kitas asmuo tokią žalą patirs , pažeidžiamos arba tikėtina, kad gali būti pažeidžiamos pagrindinės kito asmens ar asmenų grupės teisės, įskaitant jų sveikatą ir fizinį ar psichologinį saugumą, sukelia arba tikėtina, kad gali sukelti žalą vartotojams, pavyzdžiui, piniginius nuostolius ar ekonominę diskriminaciją, arba kenkiama arba tikėtina, kad gali būti kenkiama demokratijai ir teisinei valstybei ;

b)

pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kuria, pasinaudojant konkrečios asmenų grupės pažeidžiamumu dėl jų amžiaus arba fizinės ar protinės negalios, tai grupei priklausančio asmens elgesys iš esmės pakeičiamas taip, kad jis pats arba kitas asmuo patirtų fizinę ar psichologinę žalą arba būtų tikėtina, kad jis ar kitas asmuo tokią žalą patirs;

b)

pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kuria, pasinaudojant konkrečios asmenų grupės pažeidžiamumu dėl jų amžiaus arba fizinės ar protinės negalios, tai grupei priklausančio asmens elgesys iš esmės pakeičiamas taip, kad jis pats arba kitas asmuo patirtų fizinę ar psichologinę žalą arba būtų tikėtina, kad jis ar kitas asmuo tokią žalą patirs;

c)

valdžios institucijoms arba jų vardu pateikti rinkai, pradėti naudoti arba naudoti DI sistemas fizinių asmenų patikimumui tam tikru laikotarpiu vertinti ar klasifikuoti pagal jų socialinę elgseną arba žinomus ar nuspėjamus asmeninius ar asmenybės bruožus , jei socialinis reitingas lemia vieną arba abu toliau išvardytus dalykus:

i)

žalingą ar nepalankų elgesį su tam tikrais fiziniais asmenimis ar tokių asmenų grupėmis socialinėmis aplinkybėmis, kurios nėra panašios į aplinkybes, kuriomis duomenys buvo iš pradžių generuojami ar renkami;

ii)

žalingą ar nepalankų elgesį su tam tikrais fiziniais asmenimis ar tokių asmenų grupėmis, kuris yra nepagrįstas arba neproporcingas jų socialinei elgsenai ar jos svarbumui;

c)

valdžios institucijoms arba jų vardu pateikti rinkai, pradėti naudoti arba naudoti DI sistemas fizinių asmenų ar asmenų grupių patikimumui tam tikru laikotarpiu vertinti ar klasifikuoti pagal jų socialinę elgseną arba žinomus ar nuspėjamus asmeninius ar asmenybės bruožus , kai naudojant DI vykdomas socialinis reitingavimas bendriems tikslams;

d)

viešosiose erdvėse teisėsaugos tikslais naudoti tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas, išskyrus tuo atveju, kai tikrai būtina, siekiant vieno iš šių tikslų:

i)

vykdant tikslinę konkrečių galimų nusikaltimo aukų, įskaitant dingusius vaikus, paiešką;

ii)

siekiant išvengti konkrečios didelės artėjančios grėsmės fizinių asmenų gyvybei ar fizinei saugai arba teroristinio išpuolio;

iii)

siekiant išaiškinti asmenis, padariusius Tarybos pagrindų sprendimo 2002/584/TVR ([62]) 2 straipsnio 2 dalyje nurodytą nusikalstamą veiką, už kurią atitinkamoje valstybėje narėje jos teisėje nustatyta tvarka baudžiama laisvės atėmimo bausme arba įkalinimu, kurio ilgiausias terminas – bent treji metai, arba asmenis, įtariamus tokios veikos padarymu, nustatyti jų buvimo vietą ar tapatybę arba patraukti juos baudžiamojon atsakomybėn.

d)

valdžios institucijoms arba jų vardu pateikti rinkai, pradėti naudoti arba naudoti DI sistemas, bendrai naudojančias socialinės elgsenos vertinimo sistemas, kurių neprižiūri žmonės, tai darant socialinėmis aplinkybėmis, kurios nėra susijusios su aplinkybėmis, kuriomis duomenys buvo iš pradžių sukurti arba surinkti fizinių asmenų ar asmenų grupių patikimumui tam tikru laikotarpiu vertinti ar klasifikuoti pagal jų socialinę elgseną arba žinomus ar nuspėjamus asmeninius ar asmenybės bruožus, vykdant socialinį reitingavimą, lemiantį žalingą ar nepalankų elgesį su tam tikrais fiziniais asmenimis ar tokių asmenų grupėmis, kuris yra nepagrįstas arba neproporcingas jų socialinei elgsenai ar jos svarbumui;

 

e )

viešose erdvėse teisėsaugos tikslais naudoti tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas, išskyrus tuo atveju, kai tikrai būtina, siekiant vieno iš šių tikslų:

i)

vykdant tikslinę konkrečių galimų nusikaltimo aukų, įskaitant dingusius vaikus, paiešką;

ii)

siekiant išvengti konkrečios didelės artėjančios grėsmės fizinių asmenų gyvybei ar fizinei saugai arba teroristinio išpuolio;

iii)

siekiant išaiškinti asmenis, padariusius Tarybos pagrindų sprendimo 2002/584/TVR ([62]) 2 straipsnio 2 dalyje nurodytą nusikalstamą veiką, už kurią atitinkamoje valstybėje narėje jos teisėje nustatyta tvarka baudžiama laisvės atėmimo bausme arba įkalinimu, kurio ilgiausias terminas – bent treji metai, arba asmenis, įtariamus tokios veikos padarymu, nustatyti jų buvimo vietą ar tapatybę arba patraukti juos baudžiamojon atsakomybėn.

Paaiškinimas

Pasąmonę veikiančios technologijos apskritai gali pakenkti laisvei, žmogaus teisėms, taigi ir demokratinės teisinės valstybės veikimui. Be to, dirbtinis intelektas gali pažeisti vartotojų teises. Siūlomų papildymų tikslas – paaiškinti šį punktą.

Kalbant apie valdžios institucijų arba jų vardu vykdomą socialinį reitingavimą, jis turėtų būti uždraustas, jei jis vykdomas bendraisiais tikslais, atsižvelgiant į tokios praktikos keliamą pavojų, kaip paaiškinta 17 konstatuojamojoje dalyje. Generuoti arba rinkti duomenis konkrečiais tikslais turėtų būti leidžiama tik prižiūrint žmogui ir nepažeidžiant teisės į orumą ir nediskriminavimą bei laikantis lygybės ir teisingumo vertybių.

18 pakeitimas

5 straipsnio 4 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Valstybė narė gali nuspręsti numatyti galimybę suteikti visišką arba dalinį leidimą tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas naudoti viešosiose erdvėse teisėsaugos tikslais, laikantis 1 dalies d punkte ir 2 bei 3 dalyse nurodytų apribojimų ir sąlygų. Ta valstybė narė savo nacionalinėje teisėje nustato būtinas išsamias taisykles, kuriomis reglamentuojama 3 dalyje nurodytų leidimų prašymo, išdavimo, vykdymo ir su jais susijusios priežiūros tvarka. Tose taisyklėse taip pat nurodoma, kurių iš 1 dalies d punkte išvardytų ir su kuria to punkto iii papunktyje nurodyta nusikalstama veika susijusių tikslų kompetentingoms institucijoms gali būti leidžiama siekti naudojant tas sistemas teisėsaugos tikslais.

Valstybė narė gali nuspręsti numatyti galimybę suteikti visišką arba dalinį leidimą tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas naudoti viešosiose erdvėse teisėsaugos tikslais, laikantis 1 dalies d punkte ir 2 bei 3 dalyse nurodytų apribojimų ir sąlygų. Ta valstybė narė savo nacionalinėje teisėje nustato būtinas išsamias taisykles, kuriomis reglamentuojama 3 dalyje nurodytų leidimų prašymo, išdavimo, vykdymo ir su jais susijusios priežiūros tvarka. Tose taisyklėse taip pat nurodoma, kurių iš 1 dalies d punkte išvardytų ir su kuria to punkto iii papunktyje nurodyta nusikalstama veika susijusių tikslų kompetentingoms institucijoms gali būti leidžiama siekti naudojant tas sistemas teisėsaugos tikslais. Šiomis taisyklėmis taip pat nustatoma atitinkamų vietos ir regionų valdžios institucijų informavimo ir konsultavimosi su jomis tvarka. Konsultacijos turi vykti prieš pradedant šias sistemas naudoti išimties tvarka viešosiose erdvėse. Susidarius nepaprastajai padėčiai, kai išankstinių konsultacijų pagrįstai negalima tikėtis, atitinkama vietos ar regiono valdžios institucija turi būti nedelsiant informuojama apie DI taikymą praktikoje.

Paaiškinimas

Politinė ir administracinė atsakomybė už viešųjų erdvių valdymą ir stebėseną tenka vietos ir regionų valdžios institucijoms. Todėl joms turėtų būti suteikta galimybė pareikšti savo nuomonę prieš pradedant dirbtinį intelektą taikyti praktikoje ir jos turi būti tinkamai informuojamos apie dirbtinio intelekto sistemų naudojimą išimties tvarka teisėsaugos tikslais.

Susidarius nepaprastajai padėčiai, kai išankstinių konsultacijų pagrįstai negalima tikėtis, atitinkama vietos ar regiono valdžios institucija turi būti nedelsiant informuojama.

19 pakeitimas

13 straipsnis

Komisijos siūlomas tekstas

RK pakeitimas

13 straipsnis. Skaidrumas ir informacijos teikimas naudotojams

13a straipsnis. Skaidrumas ir informacijos teikimas naudotojams

1.   Projektuojant ir kuriant didelės rizikos DI sistemas užtikrinama, kad jos veiktų pakankamai skaidriai, kad naudotojai galėtų tinkamai interpretuoti ir naudoti sistemos išvedinius. Turi būti užtikrintas atitinkamos rūšies ir lygio skaidrumas, kad naudotojai ir tiekėjai galėtų įvykdyti atitinkamas šios antraštinės dalies 3 skyriuje nustatytas pareigas.

1.   Projektuojant ir kuriant didelės rizikos DI sistemas užtikrinama, kad jos veiktų pakankamai skaidriai, kad naudotojai galėtų tinkamai interpretuoti ir naudoti sistemos išvedinius. Turi būti užtikrintas atitinkamos rūšies ir lygio skaidrumas ir pateiktas suprantamas paaiškinimas , kad naudotojai ir tiekėjai galėtų įvykdyti atitinkamas šios antraštinės dalies 3 skyriuje nustatytas pareigas. Šis paaiškinimas turi būti pateikiamas bent šalies, kurioje įdiegta DI sistema, kalba.

2.   Su didelės rizikos DI sistemomis pateikiamos tinkamo skaitmeninio arba kitokio formato naudojimo instrukcijos, kuriose pateikiama glausta, išsami, teisinga ir aiški naudotojams svarbi, prieinama ir suprantama informacija.

2.   Su didelės rizikos DI sistemomis pateikiamos tinkamo skaitmeninio arba kitokio formato viešai prieinamos, aiškios ir visiems suprantamos naudojimo instrukcijos, kuriose pateikiama glausta, išsami, teisinga ir aiški naudotojams svarbi, prieinama ir suprantama informacija.

3.   2 dalyje nurodyta informacija apima:

3.   2 dalyje nurodyta informacija apima:

a)

tiekėjo ir, jei taikoma, jo įgaliotojo atstovo tapatybę ir kontaktinius duomenis;

a)

tiekėjo ir, jei taikoma, jo įgaliotojo atstovo tapatybę ir kontaktinius duomenis;

b)

didelės rizikos DI sistemos charakteristikas, pajėgumus ir veikimo apribojimus, įskaitant:

b)

didelės rizikos DI sistemos charakteristikas, pajėgumus ir veikimo apribojimus, įskaitant:

 

i)

jos numatytąją paskirtį;

 

i)

jos numatytąją paskirtį;

 

ii)

15 straipsnyje nurodytą didelės rizikos DI sistemos tikslumo, patikimumo ir kibernetinio saugumo lygį, kuris buvo išbandytas ir validuotas ir kurio galima tikėtis, taip pat visas žinomas ir numatomas aplinkybes, galinčias daryti poveikį numatomam tikslumo, patvarumo ir kibernetinio saugumo lygiui;

 

ii)

15 straipsnyje nurodytą didelės rizikos DI sistemos tikslumo (išreikšto atitinkama modelio vertinimo metrika) , patikimumo ir kibernetinio saugumo lygį, kuris buvo išbandytas ir validuotas ir kurio galima tikėtis, taip pat visas žinomas ir numatomas aplinkybes, galinčias daryti poveikį numatomam tikslumo, patvarumo ir kibernetinio saugumo lygiui;

 

iii)

visas žinomas ir numatomas aplinkybes, susijusias su didelės rizikos DI sistemos naudojimu pagal numatytąją paskirtį arba pagrįstai numatomo netinkamo naudojimo sąlygomis, dėl kurio gali kilti rizika sveikatai ir saugai arba pagrindinėms teisėms;

 

iii)

visas žinomas ir numatomas aplinkybes, susijusias su didelės rizikos DI sistemos naudojimu pagal numatytąją paskirtį arba pagrįstai numatomo netinkamo naudojimo sąlygomis, dėl kurio gali kilti rizika sveikatai ir saugai arba pagrindinėms teisėms;

 

iv)

jos veikimą, susijusį su asmenimis ar asmenų grupėmis, kurių atžvilgiu ją ketinama naudoti;

 

iv)

jos veikimą, susijusį su asmenimis ar asmenų grupėmis, kurių atžvilgiu ją ketinama naudoti;

 

v)

kai tinkama, įvesties duomenų specifikacijas arba visą kitą svarbią informaciją, susijusią su naudojamais mokymo, validavimo ir bandymo duomenų rinkiniais, atsižvelgiant į numatytąją DI sistemos paskirtį;

 

v)

kai tinkama, įvesties duomenų specifikacijas arba visą kitą svarbią informaciją, susijusią su naudojamais mokymo, validavimo ir bandymo duomenų rinkiniais, atsižvelgiant į numatytąją DI sistemos paskirtį;

vi)

parametrus, naudojamus modeliui reguliuoti, ir priemones, kurių imtasi siekiant išvengti per didelio ar nepakankamo koregavimo;

c)

didelės rizikos DI sistemos ir jos veikimo, kurį tiekėjas iš anksto nustatė per pirminį atitikties vertinimą, pokyčius, jei taikoma;

c)

didelės rizikos DI sistemos ir jos veikimo, kurį tiekėjas iš anksto nustatė per pirminį atitikties vertinimą, pokyčius, jei taikoma;

d)

14 straipsnyje nurodytas žmogaus vykdomos priežiūros priemones, įskaitant technines priemones, įdiegtas tam, kad naudotojams būtų lengviau interpretuoti DI sistemų išvedinius;

d)

14 straipsnyje nurodytas žmogaus vykdomos priežiūros priemones, įskaitant technines priemones, įdiegtas tam, kad naudotojams būtų lengviau interpretuoti DI sistemų išvedinius;

e)

numatomą didelės rizikos DI sistemos gyvavimo laiką ir visas techninės ir kitos priežiūros priemones, būtinas tinkamam tos DI sistemos veikimui užtikrinti, įskaitant programinės įrangos atnaujinimą.

e)

numatomą didelės rizikos DI sistemos gyvavimo laiką ir visas techninės ir kitos priežiūros priemones, būtinas tinkamam tos DI sistemos veikimui užtikrinti, įskaitant programinės įrangos atnaujinimą.

 

13b straipsnis. Skaidrumas ir susijusių asmenų informavimas

Asmenys ar asmenų grupės, kuriems gali būti taikoma didelės rizikos dirbtinio intelekto sistema, turi būti aiškiai, nesudėtingai ir suprantamai informuojami, taip pat jiems turi būti sudaryta prieiga prie aiškios, lengvai pasiekiamos ir viešai prieinamos informacijos apie tai.

Paaiškinimas

Siekiant sustiprinti pasitikėjimo ekosistemą, visuomenei turėtų būti pateiktos didelės rizikos dirbtinio intelekto sistemų naudojimo instrukcijos. Šios instrukcijos turi būti parengtos suprantamai, šalies, kurioje įdiegta DI sistema, kalba.

Siekiant užtikrinti algoritmų skaidrumą ir suprantamumą, turėtų būti paaiškinta, kokie parametrai buvo naudojami modeliui reguliuoti ir kokių priemonių imtasi siekiant išvengti per didelio ar nepakankamo koregavimo.

13b straipsnyje reglamentuojama skaidrumo ir informavimo prievolė asmenims, kurie sąveikauja su DI sistemomis arba kuriems DI sistema gali daryti poveikį.

20 pakeitimas

14 straipsnio 4 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Asmenims, kuriems pavesta vykdyti tokią priežiūrą, 3 dalyje nurodytomis priemonėmis turi būti sudarytos sąlygos, jei tai tinkama pagal aplinkybes:

Asmenims, kuriems pavesta vykdyti tokią priežiūrą, 3 dalyje nurodytomis priemonėmis turi būti sudarytos sąlygos, jei tai tinkama pagal aplinkybes:

a)

visiškai suprasti didelės rizikos DI sistemos pajėgumus ir apribojimus ir sugebėti tinkamai stebėti jos veikimą, kad būtų galima kuo greičiau aptikti ir pašalinti anomalijų, sutrikimų ir netikėto veikimo apraiškas;

a)

visiškai suprasti didelės rizikos DI sistemos pajėgumus ir apribojimus ir sugebėti tinkamai stebėti jos veikimą, kad būtų galima kuo greičiau aptikti ir pašalinti anomalijų, sutrikimų ir netikėto veikimo apraiškas;

b)

nepamiršti galimos tendencijos automatiškai arba pernelyg pasikliauti didelės rizikos DI sistemos išvediniais (automatiško šališkumo), visų pirma tais atvejais, kai didelės rizikos DI sistemos naudojamos informacijai arba rekomendacijoms, kuriomis remdamiesi fiziniai asmenys turi priimti sprendimus, teikti;

b)

nepamiršti galimos tendencijos automatiškai arba pernelyg pasikliauti didelės rizikos DI sistemos išvediniais (automatiško šališkumo) ar bet kokiu kitu šališkumu , visų pirma tais atvejais, kai didelės rizikos DI sistemos naudojamos informacijai arba rekomendacijoms, kuriomis remdamiesi fiziniai asmenys turi priimti sprendimus, teikti;

c)

sugebėti teisingai interpretuoti didelės rizikos DI sistemos išvedinius, visų pirma atsižvelgiant į sistemos charakteristikas ir turimas interpretavimo priemones bei metodus;

c)

sugebėti teisingai interpretuoti didelės rizikos DI sistemos išvedinius, visų pirma atsižvelgiant į sistemos charakteristikas ir turimas interpretavimo priemones bei metodus;

d)

gebėti nuspręsti nenaudoti didelės rizikos DI sistemos tam tikroje situacijoje arba kitaip nepaisyti tos sistemos išvedinių, juos panaikinti ar ištaisyti;

d)

gebėti nuspręsti nenaudoti didelės rizikos DI sistemos tam tikroje situacijoje arba kitaip nepaisyti tos sistemos išvedinių, juos panaikinti ar ištaisyti;

e)

sugebėti įsikišti į didelės rizikos DI sistemos veikimą arba sistemą išjungti tam skirtu mygtuku ar panašiu būdu.

e)

sugebėti įsikišti į didelės rizikos DI sistemos veikimą arba sistemą išjungti tam skirtu mygtuku ar panašiu būdu.

Paaiškinimas

Esama kelių rūšių šališkumo, dėl kurio gali kilti problemų. Pavyzdžiu galima pateikti projektuotojo ar paties naudotojo šališkumą („socialinis šališkumas“), šališkumą, susijusį su klausimu, ar įdiegta DI sistema yra tinkamas problemos sprendimas („technologinis šališkumas“), ir įvairių rūšių statistinį šališkumą.

21 pakeitimas

14 straipsnis. Po 5 dalies įrašyti naują dalį:

Komisijos siūlomas tekstas

RK pakeitimas

 

Visuose sprendimuose, kuriuos priima III priedo 5 punkto a ir b papunkčiuose nurodytos DI sistemos, turi dalyvauti žmogus ir jie turi būti grindžiami griežtu sprendimų priėmimo procesu. Turi būti užtikrinamas žmogaus sąlytis su šiais sprendimais.

Paaiškinimas

14 straipsnyje kalbama tik apie žmonių vykdomą didelės rizikos dirbtinio intelekto sistemų kontrolę. Kalbant apie valdžios institucijų priimamus sprendimus, svarbu pabrėžti, kad būtina užtikrinti žmogaus dalyvavimą ir kontaktą bei procedūrų laikymąsi.

22 pakeitimas

17 straipsnio 1 punktas: po m punkto įrašyti du punktus:

Komisijos siūlomas tekstas

RK pakeitimas

Didelės rizikos DI sistemų tiekėjai įdiegia kokybės valdymo sistemą, kuria užtikrinama atitiktis šiam reglamentui. Ta sistema sistemingai ir tvarkingai įtvirtinama rašytinės politikos, procedūrų ir nurodymų dokumentuose ir apima bent šiuos aspektus:

Didelės rizikos DI sistemų tiekėjai įdiegia kokybės valdymo sistemą, kuria užtikrinama atitiktis šiam reglamentui. Ta sistema sistemingai ir tvarkingai įtvirtinama rašytinės politikos, procedūrų ir nurodymų dokumentuose ir apima bent šiuos aspektus:

a)

atitikties reglamentuojamiems reikalavimams strategiją, apimančią atitikties vertinimo procedūrų ir didelės rizikos DI sistemos pakeitimų valdymo procedūrų laikymąsi;

a)

atitikties reglamentuojamiems reikalavimams strategiją, apimančią atitikties vertinimo procedūrų ir didelės rizikos DI sistemos pakeitimų valdymo procedūrų laikymąsi;

b)

metodus, procedūras ir sistemingus veiksmus, taikytinus projektuojant didelės rizikos DI sistemą, vykdant jos projekto kontrolę ir tikrinimą;

b)

metodus, procedūras ir sistemingus veiksmus, taikytinus projektuojant didelės rizikos DI sistemą, vykdant jos projekto kontrolę ir tikrinimą;

c)

metodus, procedūras ir sistemingus veiksmus, taikytinus kuriant didelės rizikos DI sistemą, vykdant jos kokybės kontrolę ir užtikrinant jos kokybę;

c)

metodus, procedūras ir sistemingus veiksmus, taikytinus kuriant didelės rizikos DI sistemą, vykdant jos kokybės kontrolę ir užtikrinant jos kokybę;

d)

tikrinimo, bandymo ir validavimo procedūras, atliktinas prieš kuriant didelės rizikos DI sistemą, jos kūrimo metu ir ją sukūrus, ir jų atlikimo dažnumą;

d)

tikrinimo, bandymo ir validavimo procedūras, atliktinas prieš kuriant didelės rizikos DI sistemą, jos kūrimo metu ir ją sukūrus, ir jų atlikimo dažnumą;

e)

taikytinas technines specifikacijas, įskaitant standartus, ir, jei atitinkami darnieji standartai taikomi ne visa apimtimi, priemones, naudotinas siekiant užtikrinti, kad didelės rizikos DI sistema atitiktų šios antraštinės dalies 2 skyriuje nustatytus reikalavimus;

e)

taikytinas technines specifikacijas, įskaitant standartus, ir, jei atitinkami darnieji standartai taikomi ne visa apimtimi, priemones, naudotinas siekiant užtikrinti, kad didelės rizikos DI sistema atitiktų šios antraštinės dalies 2 skyriuje nustatytus reikalavimus;

f)

duomenų tvarkymo sistemas ir procedūras, įskaitant duomenų rinkimo, duomenų analizės, duomenų žymėjimo, duomenų laikymo, duomenų filtravimo, duomenų gavybos, duomenų apibendrinimo, duomenų saugojimo ir bet kokią kitą su duomenimis susijusią veiklą, kuri atliekama prieš didelės rizikos DI sistemą pateikiant rinkai arba pradedant naudoti ir kuri atliekama tuo tikslu;

f)

duomenų tvarkymo sistemas ir procedūras, įskaitant duomenų rinkimo, duomenų analizės, duomenų žymėjimo, duomenų laikymo, duomenų filtravimo, duomenų gavybos, duomenų apibendrinimo, duomenų saugojimo ir bet kokią kitą su duomenimis susijusią veiklą, kuri atliekama prieš didelės rizikos DI sistemą pateikiant rinkai arba pradedant naudoti ir kuri atliekama tuo tikslu;

g)

9 straipsnyje nurodytą rizikos valdymo sistemą;

g)

9 straipsnyje nurodytą rizikos valdymo sistemą;

h)

priežiūros po pateikimo rinkai sistemos nustatymą, įgyvendinimą ir priežiūrą pagal 61 straipsnį;

h)

priežiūros po pateikimo rinkai sistemos nustatymą, įgyvendinimą ir priežiūrą pagal 61 straipsnį;

i)

pranešimo apie didelius incidentus ir veikimo sutrikimus pagal 62 straipsnį procedūras;

i)

pranešimo apie didelius incidentus ir veikimo sutrikimus pagal 62 straipsnį procedūras;

j)

ryšių su nacionalinėmis ir kitomis kompetentingomis institucijomis, įskaitant sektorių kompetentingas institucijas, teikiančiomis arba palaikančiomis prieigą prie duomenų, notifikuotosiomis įstaigomis, kitais veiklos vykdytojais, klientais ar kitais suinteresuotaisiais subjektais palaikymą;

j)

ryšių su nacionalinėmis ir kitomis kompetentingomis institucijomis, įskaitant sektorių kompetentingas institucijas, teikiančiomis arba palaikančiomis prieigą prie duomenų, notifikuotosiomis įstaigomis, kitais veiklos vykdytojais, klientais ar kitais suinteresuotaisiais subjektais palaikymą;

k)

visų svarbių dokumentų ir informacijos registravimo sistemas ir procedūras;

k)

visų svarbių dokumentų ir informacijos registravimo sistemas ir procedūras;

l)

išteklių valdymą, įskaitant su tiekimo saugumu susijusias priemones;

l)

išteklių valdymą, įskaitant su tiekimo saugumu susijusias priemones;

m)

atskaitomybės sistemą, kurioje nustatyta vadovybės ir kitų darbuotojų atsakomybė, apimanti visus šioje dalyje išvardytus aspektus.

m)

atskaitomybės sistemą, kurioje nustatyta vadovybės ir kitų darbuotojų atsakomybė, apimanti visus šioje dalyje išvardytus aspektus;

 

n)

priemones, kuriomis siekiama užkirsti kelią bet kokiai nepagrįstai diskriminacijai dėl lyties, etninės kilmės, religijos ar tikėjimo, negalios, amžiaus, seksualinės orientacijos ar bet kokios kitos priežasties;

o)

paaiškinimą, kaip kuriant didelės rizikos DI sistemą buvo atsižvelgta į etines problemas.

Paaiškinimas

Šiuo papildymu pabrėžiama, kad įtraukumas ir kova su nepagrįsta diskriminacija turėtų būti svarbūs kokybės valdymo sistemos elementai.

Sistemoje turi būti atsižvelgiama į etines vertybes, kurias DI sistemos naudotojas nori įtraukti arba kurių tiekėjas gali pagrįstai tikėtis, kad jos bus susietos su didelės rizikos dirbtinio intelekto sistema. Tiekėjas turėtų gebėti paaiškinti, kaip jis į tai atsižvelgė.

23 pakeitimas

19 straipsnio 1 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Didelės rizikos DI sistemų tiekėjai užtikrina, kad prieš tas sistemas pateikiant rinkai arba pradedant naudoti būtų pagal 43 straipsnį atliekama atitinkama jų atitikties vertinimo procedūra. Jeigu atlikus tą atitikties vertinimą nustatoma, kad DI sistemos atitinka šios antraštinės dalies 2 skyriuje nustatytus reikalavimus, tiekėjai parengia ES atitikties deklaraciją pagal 48 straipsnį ir pažymi sistemą CE atitikties ženklu pagal 49 straipsnį.

Didelės rizikos DI sistemų tiekėjai užtikrina, kad prieš tas sistemas pateikiant rinkai arba pradedant naudoti būtų pagal 43 straipsnį atliekama atitinkama jų atitikties vertinimo procedūra. Jeigu atlikus tą atitikties vertinimą nustatoma, kad DI sistemos atitinka šios antraštinės dalies 2 skyriuje nustatytus reikalavimus, tiekėjai parengia ES atitikties deklaraciją pagal 48 straipsnį ir pažymi sistemą CE atitikties ženklu pagal 49 straipsnį. Didelės rizikos DI sistemų tiekėjai viešai prieinamoje vietoje skelbia ES atitikties deklaraciją ir atitikties vertinimo santrauką.

Paaiškinimas

Siekiant sustiprinti pasitikėjimo ekosistemą DI sistemose, didelės rizikos dirbtinio intelekto sistemų tiekėjai turėtų veikti atvirai. Todėl visuomenei turėtų būti suteikta galimybė patikrinti, ar atitikties vertinimas buvo atliktas tinkamai pagal reglamento nuostatas.

24 pakeitimas

29 straipsnis. Po 6 dalies įrašyti naują dalį:

Komisijos siūlomas tekstas

RK pakeitimas

 

Didelės rizikos DI sistemų naudotojai atlieka etinį vertinimą prieš sistemai pradedant veikti. Jie turi gebėti paaiškinti galimą technologijų diegimo poveikį asmenims ir visuomenei. Jie nurodo DI sistemos diegimo tikslus, pagrindines vertybes ir kaip jos buvo nustatytos, taip pat nurodo, ar į jas buvo atsižvelgta sistemoje. Jie įvertina faktinį sistemos poveikį žmonėms ir visuomenei per visą DI sistemos gyvavimo ciklą.

Paaiškinimas

Etika yra plati sąvoka. Yra daug būdų laikytis etikos technologijų srityje, tiek teorinio pagrindimo, tiek konkrečių metodikų, priemonių ir projektavimo vertybių požiūriu. Vertybės yra elementai, kuriuos tam tikri asmenys ar asmenų grupės laiko svarbiais. Jos gali būti konkrečios arba konceptualios. Svarbu išsaugoti įvairias moralines vertybes, kurias galima įgyvendinti, ir nuolat vertinti DI sistemos gyvavimo ciklą.

25 pakeitimas

52 straipsnio 1 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Tiekėjai užtikrina, kad DI sistemos, kurių paskirtis – bendrauti su fiziniais asmenimis, būtų suprojektuotos ir sukurtos taip, kad fiziniai asmenys būtų informuojami apie tai, kad bendrauja su DI sistema, nebent tai būtų akivaizdu iš aplinkybių ir naudojimo konteksto . Šis reikalavimas netaikomas DI sistemoms, kurias pagal teisės aktus leidžiama naudoti siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ir už jas patraukti baudžiamojon atsakomybėn, išskyrus atvejus, kai tomis sistemomis pranešimo apie nusikalstamą veiką tikslais leidžiama naudotis visuomenei.

Tiekėjai užtikrina, kad DI sistemos, kurių paskirtis – bendrauti su fiziniais asmenimis, būtų suprojektuotos ir sukurtos taip, kad fiziniai asmenys būtų informuojami apie tai, kad bendrauja su DI sistema. Šis reikalavimas netaikomas DI sistemoms, kurias pagal teisės aktus leidžiama naudoti siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ir už jas patraukti baudžiamojon atsakomybėn, išskyrus atvejus, kai tomis sistemomis pranešimo apie nusikalstamą veiką tikslais leidžiama naudotis visuomenei. Neturi būti ribojama, kokie fiziniai ir kokį teisinį statusą turintys asmenys ir kokiais būdais gali sąveikauti su DI sistemomis.

Paaiškinimas

Kai technologiniai instrumentai naudojami kaip bendravimo su fiziniais asmenimis priemonė, gali kilti pavojus, kad su tais instrumentais sąveikaujančių fizinių asmenų pasirinkimas bus ribotas. Fiziniai asmenys visada turėtų būti tinkamai informuojami visais atvejais, kai jie bendrauja su DI sistemomis, ir ši prievolė neturėtų priklausyti nuo tam tikros situacijos aiškinimo. Jų teisės turėtų būti užtikrintos visada sąveikaujant su DI sistemomis.

26 pakeitimas

57 straipsnio 1 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Valdybą sudaro nacionalinės priežiūros institucijos, kurioms atstovauja tų institucijų vadovai arba lygiaverčiai aukšto rango pareigūnai, ir Europos duomenų apsaugos priežiūros pareigūnas. Kitos nacionalinės institucijos gali būti kviečiamos į posėdžius, kuriuose nagrinėjami joms svarbūs klausimai.

Valdybą sudaro nacionalinės priežiūros institucijos, kurioms atstovauja tų institucijų vadovai arba lygiaverčiai aukšto rango pareigūnai, ir Europos duomenų apsaugos priežiūros pareigūnas. Kitos nacionalinės , regionų ir vietos valdžios institucijos gali būti kviečiamos į posėdžius, kuriuose nagrinėjami joms svarbūs klausimai.

Paaiškinimas

Vietos ir regionų valdžios institucijoms turėtų būti suteikta galimybė dalyvauti stebint dirbtinio intelekto sistemas ir teikti jų įgyvendinimo vietoje ataskaitas.

27 pakeitimas

58 straipsnis

Komisijos siūlomas tekstas

RK pakeitimas

Teikdama rekomendacijas ir pagalbą Komisijai pagal 56 straipsnio 2 dalį, Valdyba visų pirma:

Teikdama rekomendacijas ir pagalbą Komisijai pagal 56 straipsnio 2 dalį, Valdyba visų pirma:

a)

renka ekspertines žinias ir geriausią patirtį ir ja dalijasi su valstybėmis narėmis;

a)

renka ekspertines žinias ir geriausią patirtį ir ja dalijasi su valstybėmis narėmis , regionų ir vietos valdžios institucijomis ;

b)

prisideda prie vienodos administracinės praktikos valstybėse narėse, be kita ko, susijusios su 53 straipsnyje nurodytos apribotos bandomosios reglamentavimo aplinkos veikimu;

b)

prisideda prie vienodos administracinės praktikos valstybėse narėse, be kita ko, susijusios su 53 straipsnyje nurodytos apribotos bandomosios reglamentavimo aplinkos veikimu;

c)

teikia nuomones, rekomendacijas arba rašytines pastabas klausimais, susijusiais su šio reglamento įgyvendinimu, visų pirma dėl

c)

teikia nuomones, rekomendacijas arba rašytines pastabas klausimais, susijusiais su šio reglamento įgyvendinimu, visų pirma dėl

 

i)

techninių specifikacijų arba esamų standartų, susijusių su III antraštinės dalies 2 skyriuje nustatytais reikalavimais,

ii)

40 ir 41 straipsniuose nurodytų darniųjų standartų arba bendrųjų specifikacijų naudojimo,

iii)

rekomendacinių dokumentų, įskaitant rekomendacijas dėl 71 straipsnyje nurodytų administracinių baudų nustatymo, rengimo.

 

i)

techninių specifikacijų arba esamų standartų, susijusių su III antraštinės dalies 2 skyriuje nustatytais reikalavimais,

ii)

40 ir 41 straipsniuose nurodytų darniųjų standartų arba bendrųjų specifikacijų naudojimo,

iii)

rekomendacinių dokumentų, įskaitant rekomendacijas dėl 71 straipsnyje nurodytų administracinių baudų nustatymo, rengimo.

Paaiškinimas

Vietos ir regionų valdžios institucijos yra arčiausiai vietos gyventojų ir ekonomikos. Kalbant apie dalijimąsi žiniomis, joms turėtų būti skiriamas tinkamas dėmesys.

28 pakeitimas

59 straipsnio 1 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Kiekviena valstybė narė įsteigia arba paskiria nacionalines kompetentingas institucijas šio reglamento taikymui ir įgyvendinimui užtikrinti. Nacionalinių kompetentingų institucijų organizacinė struktūra turi būti tokia, kad būtų užtikrintas jų veiklos ir užduočių objektyvumas ir nešališkumas.

Kiekviena valstybė narė įsteigia arba paskiria nacionalines kompetentingas institucijas šio reglamento taikymui ir įgyvendinimui užtikrinti. Nacionalinių kompetentingų institucijų organizacinė struktūra turi būti tokia, kad būtų užtikrintas jų veiklos ir užduočių objektyvumas ir nešališkumas. Vietos ir regionų valdžios institucijos įgaliojamos vykdyti stebėsenos arba vykdymo užtikrinimo užduotis, kai valstybė narė mano, kad to reikia.

Paaiškinimas

Reglamento taikymo ir jo priežiūros bei vykdymo užtikrinimo tikslais valstybė narė turėtų galėti stebėsenos arba vykdymo užtikrinimo užduotis pavesti vietos ir regionų valdžios institucijoms, kai tai būtina ir įmanoma. Šiuo požiūriu vietos ir regionų valdžios institucijoms turi būti teikiama parama ir organizuojami mokymai, kad jos visapusiškai galėtų vykdyti priežiūros ar vykdymo užtikrinimo užduotis.

29 pakeitimas

69 straipsnio 3 dalis

Komisijos siūlomas tekstas

RK pakeitimas

Elgesio kodeksus gali rengti atskiri DI sistemų tiekėjai arba jiems atstovaujančios organizacijos, arba ir vieni, ir kiti, be kita ko, įtraukdami naudotojus, suinteresuotuosius subjektus ir jiems atstovaujančias organizacijas. Elgesio kodeksai gali būti taikomi vienai ar daugiau DI sistemų, atsižvelgiant į atitinkamų sistemų numatytosios paskirties panašumą.

Elgesio kodeksus gali rengti nacionalinės, regionų ar vietos valdžios institucijos , atskiri DI sistemų tiekėjai arba jiems atstovaujančios organizacijos, arba ir vieni, ir kiti, be kita ko, įtraukdami naudotojus, suinteresuotuosius subjektus ir jiems atstovaujančias organizacijas. Elgesio kodeksai gali būti taikomi vienai ar daugiau DI sistemų, atsižvelgiant į atitinkamų sistemų numatytosios paskirties panašumą.

Paaiškinimas

Nacionalinės, vietos ir regionų valdžios institucijoms turėtų būti suteikta teisiniai įgaliojimai rengti savo kuriamų ar naudojamų DI sistemų elgesio kodeksus.

30 pakeitimas

I PRIEDAS. 3 straipsnio 1 dalyje nurodyti dirbtinio intelekto metodai ir principai

Komisijos siūlomas tekstas

RK pakeitimas

 

Atsižvelgiant į dabartinę mokslo padėtį, dirbtinis intelektas apima šiuos metodus ir principus:

a)

Mašinų mokymosi principai, įskaitant prižiūrimą, neprižiūrimą ir sustiprintąjį mokymąsi, naudojant pačius įvairiausius metodus, įskaitant gilųjį mokymąsi;

a)

Mašinų mokymosi principai, įskaitant prižiūrimą, neprižiūrimą ir sustiprintąjį mokymąsi, naudojant pačius įvairiausius metodus, įskaitant gilųjį mokymąsi;

b)

logika ir žiniomis pagrįsti principai, įskaitant žinių pateikimą, induktyvųjį (loginį) programavimą, žinių bazę, išvadų ir dedukciniai mechanizmai, (simbolinis) argumentavimas ir ekspertų sistemos;

b)

logika ir žiniomis pagrįsti principai, įskaitant žinių pateikimą, induktyvųjį (loginį) programavimą, žinių bazę, išvadų ir dedukciniai mechanizmai, (simbolinis) argumentavimas ir ekspertų sistemos;

c)

statistiniai metodai, Bajeso įvertis, paieškos ir optimizavimo metodai.

c)

statistiniai metodai, Bajeso įvertis, paieškos ir optimizavimo metodai;

Paaiškinimas

Dirbtinio intelekto metodų apibrėžtis ir sąrašas turėtų būti orientuoti į ateitį. Konkrečių metodų ir principų, naudojamų dirbtinio intelekto sistemoms kurti, sąrašas neturėtų būti baigtinis. Be to, turi būti aišku, kad jis grindžiamas dabartine mokslo padėtimi.

31 pakeitimas

III PRIEDO 1–5 punktai

Komisijos siūlomas tekstas

RK pakeitimas

Didelės rizikos DI sistemos pagal 6 straipsnio 2 dalį ir bet kurioje iš toliau nurodytų sričių išvardytos DI sistemos:

Didelės rizikos DI sistemos pagal 6 straipsnio 2 dalį ir bet kurioje iš toliau nurodytų sričių išvardytos DI sistemos:

1.

Biometrinis tapatybės nustatymas ir fizinių asmenų kategorizavimas:

1.

Biometrinis tapatybės nustatymas ir fizinių asmenų kategorizavimas:

a)

DI sistemos, kurias numatoma naudoti kaip tikralaikio ir netikralaikio nuotolinio biometrinio fizinių asmenų tapatybės nustatymo sistemas.

a)

DI sistemos, kurias numatoma naudoti kaip tikralaikio ir netikralaikio nuotolinio biometrinio fizinių asmenų tapatybės nustatymo sistemas.

2.

Ypatingos svarbos infrastruktūros objektų valdymas ir naudojimas:

2.

Ypatingos svarbos infrastruktūros objektų valdymas ir naudojimas:

a)

DI sistemos, kurias numatoma naudoti kaip saugos komponentus valdant ir užtikrinant kelių eismą ir vandens, dujų, šilumos ir elektros energijos tiekimą.

a)

DI sistemos, kurias numatoma naudoti kaip saugos komponentus valdant ir užtikrinant kelių eismą ir vandens, dujų, šilumos ir elektros energijos tiekimą, taip pat ryšių, vandens ir interneto tiekimo infrastruktūroje .

3.

Švietimas ir profesinis mokymas:

3.

Švietimas ir profesinis mokymas:

a)

DI sistemos, kurias numatoma naudoti siekiant priimti sprendimą dėl fizinių asmenų priėmimo arba paskyrimo į švietimo ir profesinio mokymo įstaigas;

a)

DI sistemos, kurias numatoma naudoti siekiant priimti sprendimą dėl fizinių asmenų priėmimo arba paskyrimo į švietimo ir profesinio mokymo įstaigas;

b)

DI sistemos, kurias numatoma naudoti studentų, besimokančių švietimo ir profesinio mokymo įstaigose, įvertinimo tikslais ir siekiant įvertinti testų, kurių paprastai reikalaujama priimant į švietimo įstaigas, dalyvius.

b)

DI sistemos, kurias numatoma naudoti studentų, besimokančių švietimo ir profesinio mokymo įstaigose, įvertinimo tikslais ir siekiant įvertinti testų, kurių paprastai reikalaujama priimant į švietimo įstaigas, dalyvius.

4.

Užimtumas, darbuotojų valdymas ir galimybė dirbti savarankiškai:

4.

Užimtumas, darbuotojų valdymas ir galimybė dirbti savarankiškai:

a)

DI sistemos, kurias numatoma naudoti fizinių asmenų įdarbinimo arba atrankos tikslais, visų pirma skelbiant apie laisvas darbo vietas, tikrinant ar filtruojant paraiškas, vertinant kandidatus per pokalbius ar testus;

a)

DI sistemos, kurias numatoma naudoti fizinių asmenų įdarbinimo arba atrankos tikslais, visų pirma skelbiant apie laisvas darbo vietas, tikrinant ar filtruojant paraiškas, vertinant kandidatus per pokalbius ar testus;

b)

DI sistemos, kurias numatyta naudoti priimant sprendimus dėl paaukštinimo arba sutartinių darbo santykių nutraukimo, siekiant paskirstyti užduotis ir stebėti bei įvertinti tokiuose santykiuose dalyvaujančių asmenų rezultatus ir elgesį.

b)

DI sistemos, kurias numatyta naudoti priimant sprendimus dėl paaukštinimo arba sutartinių darbo santykių nutraukimo, siekiant paskirstyti užduotis ir stebėti bei įvertinti tokiuose santykiuose dalyvaujančių asmenų rezultatus ir elgesį.

5.

Galimybė gauti esmines privačiąsias paslaugas ir viešąsias paslaugas ir išmokas ir naudojimasis jomis:

5.

Galimybė gauti esmines privačiąsias paslaugas ir viešąsias paslaugas ir išmokas ir naudojimasis jomis:

a)

DI sistemos, kurias numatoma naudoti valdžios institucijose arba jų vardu siekiant įvertinti fizinių asmenų tinkamumą gauti viešosios paramos išmokas ir paslaugas, taip pat vertinant tokių išmokų ir paslaugų suteikimą, apimties sumažinimą, panaikinimą arba susigrąžinimą;

a)

DI sistemos, kurias numatoma naudoti valdžios institucijose arba jų vardu siekiant įvertinti ir priimti sprendimą dėl fizinių asmenų tinkamumo gauti viešosios paramos išmokas ir paslaugas, taip pat vertinant tokių išmokų ir paslaugų suteikimą, apimties sumažinimą, panaikinimą arba susigrąžinimą;

b)

DI sistemos, kurias numatoma naudoti siekiant įvertinti fizinių asmenų kreditingumą arba nustatyti jų kredito reitingą, išskyrus atvejus, kai DI sistemas smulkieji tiekėjai pradeda naudoti savo reikmėms;

b)

DI sistemos, kurias numatoma naudoti siekiant apibrėžti fizinių asmenų kreditingumą arba nustatyti jų kredito reitingą, išskyrus atvejus, kai DI sistemas smulkieji tiekėjai pradeda naudoti savo reikmėms;

c)

DI sistemos, kurias numatoma naudoti teikiant arba nustatant prioritetines teiktinas skubias pirmosios pagalbos paslaugas, įskaitant ugniagesių ir medicininės pagalbos paslaugas.

c)

DI sistemos, kurias numatoma naudoti teikiant arba nustatant prioritetines teiktinas skubias pirmosios pagalbos paslaugas, įskaitant ugniagesių ir medicininės pagalbos paslaugas.

Paaiškinimas

Telekomunikacijų, vandens ir interneto tiekimo infrastruktūra yra ypatingos svarbos infrastruktūros dalis.

Dirbtinio intelekto sistemos priskyrimas didelės rizikos sistemai priklauso nuo to, ar tokios sistemos gali kelti realų pavojų piliečiams. Vien analitinis ir teorinis asmenų tinkamumo gauti viešąsias paslaugas vertinimas savaime nekelia didelės rizikos. Veiksmažodžiu „įvertinti“ papildant žodžius „priimti sprendimą“ pabrėžiama, kad priimant sprendimą ši rizika iš tiesų kyla, visų pirma susijusių asmenų atžvilgiu.

II.   POLITINĖS REKOMENDACIJOS

EUROPOS REGIONŲ KOMITETAS

Kompetencijos ekosistema

1.

pabrėžia, kad Komisijos tikslą pasiekti, kad ES taptų pasauline į žmogų orientuoto dirbtinio intelekto (DI) plėtros lydere, bus galima įgyvendinti tik tuo atveju, jei vietos ir regionų valdžios institucijos užims tvirtą poziciją šiame procese. Vietos ir regionų valdžios institucijos gali geriausiai padėti sukurti aplinką, palankią didesnėms investicijoms į DI ateityje, ir skatinti pasitikėjimą šia technologija;

2.

pabrėžia, kad svarbu ne tik įtraukti vietos ir regionų valdžios institucijas, bet ir joms teikti paramą ir mokymus siekiant stiprinti jų kompetenciją šioje srityje, ypač atsižvelgiant į tai, kad jos gali atlikti priežiūros ir vykdymo užtikrinimo funkcijas;

3.

pažymi, kad dirbtiniam intelektui plėtoti bus skiriamos ES lėšos, tačiau atkreipia dėmesį į metodo nenuoseklumą, atsirandantį dėl programų įvairovės, o dėl to didėja susiskaidymo ir dubliavimosi rizika;

4.

todėl ragina Komisiją sukurti ir susieti tvirtas ir daugialypes bendras duomenų erdves, kurios padėtų išspręsti visuomenės problemas naudojant viešuosius ir privačius duomenis. Tam visų pirma reikia suderinti teisės aktų iniciatyvas su Europos duomenų strategija;

Pasitikėjimo ekosistema

5.

apgailestauja, kad pasiūlyme dėl reglamento nėra nuorodos į vietos ir regionų valdžios institucijas, nors teisinė sistema taikoma ir viešiesiems, ir privatiems subjektams;

6.

šiuo tikslu atkreipia dėmesį, kad DI sistemos gali atlikti svarbų vaidmenį vietos ir regionų valdžios institucijoms bendraujant su piliečiais ir teikiant paslaugas. Be to, DI sistemos taip pat turi potencialą padidinti viešojo sektoriaus veiksmingumą ir padėti vietos ir regionų valdžios institucijoms vietos ir regionų lygmeniu atlikti pakeitimus, kurie yra būtini žaliajai ir skaitmeninei pertvarkai įgyvendinti. Todėl svarbu, kad į vietos ir regionų valdžios institucijų įgytą patirtį būtų atsižvelgiama šiuo metu persvarstant reglamentą;

7.

ragina tiksliau apibrėžti sąvokas „tiekėjas“ ir „naudotojas“, ypač tais atvejais, kai įmonės, mokslinių tyrimų institutai, valdžios institucijos ir piliečiai kartu kuria ir bando dirbtinio intelekto sistemas „gyvosiose laboratorijose“. Deramas dėmesys taip pat turėtų būti skiriamas piliečiams arba vartotojams, kuriems daro poveikį profesionalių naudotojų naudojamų DI grindžiamų sistemų sprendimai;

8.

pabrėžia, kad reikia iš anksto konsultuotis su atitinkamomis vietos ir regionų valdžios institucijomis, kai viešosiose erdvėse teisėsaugos tikslais naudojamos tikralaikio nuotolinio biometrinio fizinių asmenų tapatybės nustatymo dirbtinio intelekto sistemos;

9.

palankiai vertina Europos Komisijos viešas konsultacijas dėl civilinės atsakomybės taisyklių pritaikymo prie konkrečių skaitmeninio amžiaus ir dirbtinio intelekto uždavinių (1) ir tikisi, kad joms pasibaigus bus atnaujinta sistema, kurios tikslas – užtikrinti, kad vartotojams būtų atlyginta dirbtinio intelekto prietaikų padaryta žala;

10.

kelia klausimą, kodėl DI sistemos, naudojamos demokratiniuose procesuose, pavyzdžiui, rinkimuose, neįtrauktos į didelės rizikos dirbtinio intelekto sistemų sąrašą;

11.

primygtinai ragina didelės rizikos dirbtinio intelekto sistemoms taikyti tokius pačius skaidrumo ir informavimo reikalavimus fiziniams asmenims, kokie šiuo metu taikomi naudotojams;

12.

pažymi, kad socialinių reitingų naudojimas kelia didelę grėsmę ir daro didelį poveikį žmogaus teisėms;

13.

šiomis aplinkybėmis labai skeptiškai vertina dvi reglamente (2) pateiktas situacijas siekiant nustatyti, kada socialinis reitingas lemia žalingą ar nepalankų elgesį su asmenimis ar asmenų grupėmis, nes labai sunku nustatyti tokias situacijas. Šiomis aplinkybėmis Komitetas primygtinai ragina aiškiai suformuluoti griežtas apsaugos priemones siekiant užtikrinti, kad nebus apeinamas draudimas taikyti socialinių reitingų praktiką;

14.

atkreipia dėmesį į tai, kad reglamento konstatuojamosiose dalyse išsamiai aptariama rizika, kuri kyla fiziniams asmenims dėl jų sąveikos su didelės rizikos dirbtinio intelekto sistemomis, visų pirma kalbant apie švietimą, mokymą, užimtumą, žmogiškųjų išteklių valdymą, galimybes dirbti savarankiškai arba galimybes naudotis tam tikromis esminėmis viešosiomis ir privačiosiomis paslaugomis ir teises jomis naudotis;

15.

ragina Komisiją išsamiau išnagrinėti dirbtinio intelekto sistemų, skirtų naudoti valdžios institucijoms, didelės rizikos klasifikaciją (3);

16.

pageidauja, kad valdžios institucija ex ante pateiktų tvirtą nuomonę dėl reglamento nuostatų, taip pat ir susijusių su Bendruoju duomenų apsaugos reglamentu, aiškinimo. Taip padidės teisinis tikrumas ir bus sumažintos dirbtinio intelekto sistemų kūrimo ir diegimo išlaidos;

17.

todėl pabrėžia, kad svarbu aiškiai suformuluoti reglamentą, kuris padeda sukurti pasitikėjimo ekosistemą ir panaikinti teisinį netikrumą, susijusį su dirbtinio intelekto sistemų kūrimu ir naudojimu. Taip būtų išvengta neteisingo siūlomų reikalavimų aiškinimo ir sumažėtų rizika, susijusi su netinkamu dirbtinio intelekto prietaikų valdymu, tokiu būdu padidėtų reglamento veiksmingumas ir sankcijų patikimumas. Kartu, laikantis Europos Komisijos geresnio reglamentavimo darbotvarkės, labai svarbu anksti nustatyti ir panaikinti galimą dubliavimąsi ir (arba) prieštaravimus esamoms taisyklėms;

18.

pažymi, kad daugelis vietos ir regionų valdžios institucijų naudoja tas pačias dirbtinio intelekto sistemas panašioms užduotims atlikti. Daugeliu atvejų šias sistemas kuria privačios bendrovės;

19.

pažymi, kad pasiūlymas nėra vienintelis dokumentas piliečių teisėms užtikrinti, todėl turi būti vertinamas atsižvelgiant į esamus teisės aktus. Taigi, valstybės narės raginamos užtikrinti, kad nuolat būtų imtasi būtinų administracinių priemonių siekiant atsižvelgti į dirbtinio intelekto naudojimo viešajame sektoriuje teikiamas galimybes ir keliamą riziką;

20.

pažymi, kad būtent įmonės ir notifikuotosios įstaigos aiškina Europos ir nacionalines taisykles atlikdamos atitikties vertinimą, todėl šis aiškinimas atsispindi vietos ir regionų valdžios institucijų, naudojančių šias dirbtinio intelekto sistemas, praktikoje. Todėl sunku nustatyti, kokiu mastu šiose DI sistemose galima atsižvelgti į vietos ir regioninę politiką. Todėl Komitetas atkreipia dėmesį į konkrečius vietos ir regionų valdžios institucijų poreikius ir į tai, kad visiems tinkantis metodas gali sumažinti dirbtinio intelekto sistemų veiksmingumą tenkinant šiuos poreikius. Be to, Komitetas siūlo, kad valstybėms narėms būtų suteikti įgaliojimai reguliuoti didelės rizikos dirbtinio intelekto sistemas dėl svarbių ir pagrįstų viešojo intereso priežasčių;

21.

atsižvelgdamas į tai ragina užtikrinti, kad atitikties vertinimai būtų skaidrūs ir viešai prieinami. Be to, vietos ir regionų valdžios institucijoms taip pat turėtų būti suteikta galimybė dalyvauti stebint dirbtinio intelekto sistemas, teikti jų taikymo vietoje ataskaitas ir oficialiai prisidėti prie Europos Komisijos atliekamo reglamento įgyvendinimo vertinimo;

22.

pabrėžia, kad reikia sukurti tinkamas teisines, metodines ir etines sąlygas, kad būtų galima taikyti „apribotą bandomąją reglamentavimo aplinką“ siekiant plėtoti technologijas, rengti teisės aktus ir juos vertinti. Be to, turėtų būti nustatyti aiškūs kriterijai, pagal kuriuos bendrovėms būtų leidžiama patekti į apribotą bandomąją reglamentavimo aplinką. Siekiant užtikrinti, kad vartotojų organizacijos galėtų užtikrinti Dirbtinio intelekto akto nuostatų vykdymą, pastarasis turi būti įtrauktas į Europos direktyvos dėl atstovaujamųjų ieškinių siekiant apsaugoti vartotojų kolektyvinius interesus ((ES) 2020/1828) I priedą;

Informacinės kampanijos

23.

pabrėžia viešųjų kampanijų svarbą, kad plačioji visuomenė būtų informuojama ir supažindinama su egzistuojančiomis DI sistemomis, jų naudingumu ir galima rizika; be to, pabrėžia, kad vartotojams reikia kuo skubiau pateikti išsamios informacijos apie sprendimų priėmimą naudojant dirbtinį intelektą ir (arba) techniką; šiuo tikslu prašo Europos Komisijos tokioms kampanijoms skirti finansavimą;

Administracinės kliūtys

24.

reiškia susirūpinimą dėl administracinės naštos, kuri gali susidaryti dėl siūlomo reglamento. Administracinė našta gali trukdyti mažosioms ir vidutinėms įmonėms bei vietos ir regionų valdžios institucijoms skatinti inovacijas ir diegti dirbtinio intelekto sistemas (4);

Proporcingumas ir subsidiarumas

25.

mano, kad pasiūlymas dėl reglamento atitinka proporcingumo ir subsidiarumo principus. ES veiksmų šioje srityje pridėtinė vertė ir atitinkamas Komisijos pasirinktas teisinis pagrindas yra aiškūs ir nuoseklūs. Į poveikio vertinimą įtrauktas atskiras skirsnis dėl subsidiarumo. Be to, iki 2021 m. rugsėjo 2 d. nustatyto paraiškų pateikimo termino nė vienas nacionalinis parlamentas nepateikė pagrįstos nuomonės dėl subsidiarumo principo nesilaikymo.

Briuselis, 2021 m. gruodžio 2 d.

Europos regionų komiteto pirmininkas

Apostolos TZITZIKOSTAS


([62])  [62] 2002 m. birželio 13 d. Tarybos pagrindų sprendimas 2002/584/TVR dėl Europos arešto orderio ir perdavimo tarp valstybių narių tvarkos (OL L 190, 2002 7 18, p. 1).

([62])  [62] 2002 m. birželio 13 d. Tarybos pagrindų sprendimas 2002/584/TVR dėl Europos arešto orderio ir perdavimo tarp valstybių narių tvarkos (OL L 190, 2002 7 18, p. 1).

(1)  https://ec.europa.eu/info/law/-/--/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_lt

(2)  5 straipsnio 1 dalies c punktas.

(3)  III priedo 5a punktas.

(4)  Neseniai Europos Komisijos užsakymu atliktame tyrime (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, p. 12) apskaičiuota, kad, remiantis pagrįstomis prielaidomis, dirbtinio intelekto sistemos sertifikavimas galėtų kainuoti vidutiniškai nuo 16 800 iki 23 000 EUR arba sudaryti maždaug 10–14 proc. kūrimo išlaidų.


Top