Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Priekšlikums Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (Mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus” (COM(2021) 206 final – 2021/106 (COD))

    EESC 2021/02482

    OV C 517, 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    LV

    Eiropas Savienības Oficiālais Vēstnesis

    C 517/61


    Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Priekšlikums Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (Mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus”

    (COM(2021) 206 final – 2021/106 (COD))

    (2021/C 517/09)

    Ziņotāja:

    Catelijne MULLER

    Atzinuma pieprasījums

    Eiropas Parlaments, 7.6.2021.

    Padome, 15.6.2021.

    Juridiskais pamats

    Līguma par Eiropas Savienības darbību 114. pants

    Atbildīgā specializētā nodaļa

    Vienotā tirgus, ražošanas un patēriņa specializētā nodaļa

    Pieņemts specializētās nodaļas sanāksmē

    2.9.2021.

    Pieņemts plenārsesijā

    22.9.2021.

    Plenārsesija Nr.

    563

    Balsojuma rezultāts

    (par/pret/atturas)

    225/3/6

    1.   Secinājumi un ieteikumi

    1.1.

    Eiropas Ekonomikas un sociālo lietu komiteja (EESK) atzinīgi vērtē to, ka Komisijas priekšlikumā Mākslīgā intelekta aktam ne tikai risināti ar mākslīgo intelektu (AI – Artificial Intelligence) saistītie riski, bet arī ievērojami paaugstināts prasību līmenis attiecībā uz tāda AI kvalitāti, sniegumu un uzticamību, ko ES grasās atļaut. EESK ir īpaši gandarīta par to, ka Mākslīgā intelekta aktā īpaša uzmanība pievērsta veselības, drošības un pamattiesību jautājumiem un ka tā darbības jomai ir pasaules mērogs.

    1.2.

    EESK uzskata, ka uzlabojumi iespējami tādās jomās kā aizliegtas AI prakses tvērums, definīcija un skaidrība; ietekme, ko rada ierindošana riska kategorijā saskaņā ar “riska piramīdu”; riska mazināšanas efekts, kuru rada prasības augsta riska AI jomā; Mākslīgā intelekta akta izpildāmība un saistība ar spēkā esošo regulējumu un citiem neseniem tiesību aktu priekšlikumiem.

    1.3.

    EESK uzsver, ka AI vienmēr ir darbojies pasaulē, kurā pastāv likumi. Tā kā Mākslīgā intelekta aktam ir plaša darbības joma un tā kā minētajam aktam kā ES regulai ir prioritāra spēkā esamība, varētu rasties pretrunas starp to un spēkā esošajiem valstu un ES tiesību aktiem un saistītajiem tiesību aktu priekšlikumiem. EESK iesaka grozīt 41. apsvērumu, lai pienācīgi atspoguļotu un precizētu attiecības starp Mākslīgā intelekta aktu un spēkā esošajiem un gaidāmajiem tiesību aktiem.

    1.4.

    EESK iesaka precizēt AI definīciju, svītrojot I pielikumu, nedaudz grozot 3. pantu un paplašinot Mākslīgā intelekta akta darbības jomu, lai tajā iekļautu “mantotās AI sistēmas” un AI komponentus, kas brīvības, drošības un tiesiskuma telpā veido lielapjoma IT sistēmas, kuras uzskaitītas IX pielikumā.

    1.5.

    EESK iesaka precizēt aizliegumus attiecībā uz “sublimināliem paņēmieniem” un “ietekmējamības izmantošanu”, lai atspoguļotu kaitīgas manipulācijas aizliegumu, un šo aizliegumu nosacījumus papildināt ar “kaitējumu pamattiesībām, demokrātijai un tiesiskumam”.

    1.6.

    EESK uzskata, ka Eiropas Savienībā nedrīkst notikt tās iedzīvotāju uzticamības vērtēšana, pamatojoties uz viņu sociālo uzvedību vai personību raksturojošām iezīmēm, neatkarīgi no tā, kas izvērtēšanu veic. EESK iesaka paplašināt šā aizlieguma tvērumu nolūkā iekļaut tajā iedzīvotāju vērtēšanu, ko veic privātas organizācijas un daļēji publiskas iestādes.

    1.7.

    EESK aicina aizliegt AI izmantošanu automatizētai biometriskajai atpazīšanai publiski un privāti pieejamās vietās (izņemot autentifikācijas nolūkam īpašos apstākļos), kā arī automatizētai ar cilvēka uzvedību saistītu signālu atpazīšanai publiski un privāti pieejamās vietās, izņemot ļoti konkrētas situācijas, piemēram, dažus gadījumus veselības aizsardzības nolūkos, kad pacientu emociju atpazīšana ir svarīga.

    1.8.

    “Sarakstos balstīta” pieeja augsta riska AI jomā rada iespēju, ka varētu tikt atzītas par pieņemamām un integrētas vairākas AI sistēmas un lietojumi, kurus joprojām plaši kritizē. EESK brīdina, ka atbilstība prasībām, kas noteiktas attiecībā uz vidēja riska un augsta riska AI, ne vienmēr mazina visu veidu augsta riska AI radīto veselības, drošības un pamattiesību apdraudējuma risku. EESK iesaka Mākslīgā intelekta aktā paredzēt tādu situāciju. Būtu vismaz jāpievieno Ētikas vadlīnijās uzticamam mākslīgajam intelektam ietvertās prasības attiecībā uz i) cilvēka subjektību, ii) privātumu, iii) daudzveidību, nediskrimināciju un taisnīgumu, iv) paskaidrojamību un v) vidisko un sociālo labbūtību.

    1.9.

    Saskaņā ar EESK izsenis atbalstīto “cilvēka īstenotas kontroles” pieeju attiecībā uz AI, Komiteja stingri iesaka Mākslīgā intelekta aktā paredzēt, ka dažu lēmumu pieņemšana paliek cilvēku prerogatīva, it īpaši jomās, kurās šiem lēmumiem ir ētiska dimensija un juridiskas sekas vai sociāla ietekme, piemēram, tiesu varas, tiesībaizsardzības, sociālo pakalpojumu, veselības aprūpes, mājokļu, finanšu pakalpojumu, darba attiecību un izglītības jomā.

    1.10.

    EESK iesaka trešās personas veiktu atbilstības novērtējumu padarīt obligātu attiecībā uz visu veidu augsta riska AI.

    1.11.

    EESK iesaka iekļaut sūdzību un tiesiskās aizsardzības mehānismu attiecībā uz organizācijām un iedzīvotājiem, kas cietuši no jebkādas AI sistēmas, prakses vai lietojuma, kas ietilpst Mākslīgā intelekta akta darbības jomā.

    2.   Priekšlikums tiesību aktam par mākslīgo intelektu – Mākslīgā intelekta akts

    2.1.

    EESK atzinīgi vērtē to, ka Komisijas priekšlikumā Mākslīgā intelekta aktam ne tikai risināti ar AI saistītie riski, bet arī ievērojami paaugstināts prasību līmenis attiecībā uz tā AI kvalitāti, sniegumu un uzticamību, ko ES grasās atļaut.

    3.   Vispārīgas piezīmes: Mākslīgā intelekta akts

    Mērķis un darbības joma

    3.1.

    EESK atzinīgi vērtē Mākslīgā intelekta akta mērķi un darbības jomu. EESK ir īpaši gandarīta par to, ka Mākslīgā intelekta aktā Komisija īpašu uzmanību pievērsusi veselības, drošības un pamattiesību jautājumiem. EESK atzinīgi vērtē arī Mākslīgā intelekta akta ārējo ietekmi, kas paredz, ka ārpus ES izstrādātam AI ir jāatbilst tādām pašām tiesību normām, ja to lieto vai tam ir ietekme Eiropas Savienībā.

    AI definīcija

    3.2.

    AI definīcija (Mākslīgā intelekta akta 3. panta 1. punkts I pielikuma kontekstā) ir izraisījusi diskusiju starp AI pētniekiem sakarā ar to, ka vairākus I pielikumā minētos piemērus AI pētnieki neuzskata par AI, kā arī nav minētas vairākas svarīgas AI metodes. EESK uzskata, ka I pielikumam nav pievienotās vērtības, un iesaka to no Mākslīgā intelekta akta pilnībā svītrot. EESK arī iesaka grozīt definīciju 3. panta 1. punktā šādi:

    ““mākslīgā intelekta sistēma” (AI sistēma) ir programmatūra, kas attiecībā uz cilvēka noteiktu konkrētu mērķu kopumu var automatizēti radīt tādu iznākumu kā saturs, prognozes, ieteikumi vai lēmumi, kuri ietekmē vidi, ar ko tā mijiedarbojas”.

    Veselība, drošība un pamattiesības – riska piramīda

    3.3.

    Pieaugošajā “riska piramīdā” (no zema/vidēja riska līdz augstam un nepieņemamam riskam), ko izmanto, lai iedalītu kategorijās vairākas vispārējas AI prakses un ar konkrētām jomām saistītus AI lietojuma gadījumus, atzīts, ka ne visu veidu AI rada riskus un ne visi riski ir vienādi vai tiem nepieciešami vienādi mazināšanas pasākumi.

    3.4.

    Izraudzītā pieeja mums rada divus svarīgus jautājumus. Pirmkārt, vai mazināšanas pasākumi (augsta riska un zema/vidēja riska AI) patiešām pietiekami mazina risku, kas saistīts ar kaitējumu veselībai, drošībai un pamattiesībām? Otrkārt, vai esam gatavi atļaut AI lielā mērā aizstāt cilvēka veiktu lēmumu pieņemšanu pat kritiski svarīgos procesos, piemēram, tiesībaizsardzības un tiesu sistēmā?

    3.5.

    Runājot par pirmo jautājumu, EESK brīdina, ka atbilstība prasībām, kas noteiktas vidēja un augsta riska AI, ne visos gadījumos pilnīgi noteikti mazina risku, kurš saistīts ar kaitējumu veselībai, drošībai un pamattiesībām. Tas tiks sīkāk iztirzāts 4. punktā.

    3.6.

    Runājot par otro jautājumu, Mākslīgā intelekta aktā netiek minēts, ka AI potenciāls ir saistīts ar cilvēka pieņemtu lēmumu un cilvēka prāta sniegto iespēju pastiprināšanu, nevis to aizstāšanu. Mākslīgā intelekta akts balstās uz pieņēmumu, ka AI var lielā mērā aizstāt cilvēka pieņemtus lēmumus, ja ir izpildītas prasības attiecībā uz vidēja un augsta riska AI.

    3.7.

    EESK visnotaļ iesaka Mākslīgā intelekta aktā paredzēt, ka dažu lēmumu pieņemšana paliek cilvēku prerogatīva, it īpaši jomās, kurās šiem lēmumiem ir ētiska dimensija un juridiskas sekas vai sociāla ietekme, piemēram, tiesu varas, tiesībaizsardzības, sociālo pakalpojumu, veselības aprūpes, mājokļu, finanšu pakalpojumu, darba attiecību un izglītības jomā.

    3.8.

    MI sistēmas darbojas pasaulē, kurā pastāv likumi. Pašlaik vairāki juridiski saistoši noteikumi Eiropas, valstu un starptautiskā līmenī jau tiek piemēroti vai attiecas uz AI sistēmām. Juridiskie avoti ir, piemēram, ES primārie tiesību akti (Eiropas Savienības līgumi un tās Pamattiesību harta), ES sekundārie tiesību akti (piemēram, Vispārīgā datu aizsardzības regula, Produktatbildības direktīva, Regula par nepersondatu brīvu apriti, diskriminācijas novēršanas direktīvas, patērētāju tiesību aizsardzības direktīvas, kā arī darba drošības un veselības aizsardzības direktīvas), ANO cilvēktiesību līgumi un Eiropas Padomes konvencijas (piemēram, Eiropas Cilvēktiesību konvencija), un daudzi ES dalībvalstu tiesību akti. Līdztekus horizontāli piemērojamiem noteikumiem pastāv dažādi nozarei specifiski noteikumi, kas attiecas uz konkrētiem AI lietojumiem (piemēram, Medicīnisko ierīču regula veselības aprūpes nozarē). EESK iesaka grozīt 41. apsvērumu, lai to pienācīgi atspoguļotu.

    4.   Konkrētas piezīmes un ieteikumi: Mākslīgā intelekta akts

    Aizliegta AI prakse

    4.1.

    EESK piekrīt, ka 5. pantā minēto veidu AI prakse patiešām nerada sabiedrisku labumu un būtu jāaizliedz. Tomēr tā uzskata, ka daži formulējumi ir neskaidri, kas varētu apgrūtināt dažu aizliegumu interpretāciju un ļaut tos viegli apiet.

    4.2.

    Pieredze liecina, ka sublimināli paņēmieni var ne tikai radīt fizisku vai psiholoģisku kaitējumu (pašreizējie nosacījumi šī konkrētā aizlieguma ieviešanai), bet, ņemot vērā vidi, kurā tie tiek izmantoti, var citādā veidā nelabvēlīgi ietekmēt indivīdus, sabiedrību vai demokrātiju, piemēram, mainīt balsošanas paradumus. Turklāt daudzos gadījumos tādu ietekmi izraisa nevis paši subliminālie paņēmieni, bet gan lēmums par to, uz kādu mērķgrupu attiecīgais mākslīgajā intelektā balstītais subliminālais paņēmiens būs vērsts.

    4.3.

    Lai atspoguļotu to, ko Mākslīgā intelekta akts tiecas aizliegt 5. panta 1. punkta a) apakšpunktā – cilvēku manipulēšanu ar mērķi viņus mudināt uz kaitīgu rīcību –, EESK iesaka grozīt šo punktu šādi: “(..) AI sistēma, kas ieviesta, paredzēta vai lietota, lai būtiski iespaidotu personas uzvedību tādā veidā, kas rada vai var radīt kaitējumu šīs vai citas personas vai personu grupas pamattiesībām, tostarp fiziskai vai psiholoģiskai veselībai un drošībai, vai arī demokrātijai un tiesiskumam.”

    4.4.

    EESK iesaka tādā pašā veidā grozīt 5. panta 1. punkta b) apakšpunktā minēto aizliegto praksi, kas izpaužas kā ietekmējamības izmantošana, un iekļaut kaitējumu pamattiesībām (tostarp fizisku vai psiholoģisku kaitējumu).

    4.5.

    EESK atzinīgi vērtē to, ka 5. panta 1. punkta c) apakšpunktā ir aizliegta “iedzīvotāju vērtēšana”. EESK iesaka iedzīvotāju vērtēšanas aizliegumu attiecināt arī uz privātām organizācijām un daļēji publiskām iestādēm, nevis tikai publiskām iestādēm. Eiropas Savienībā nedrīkst notikt tās iedzīvotāju uzticamības vērtēšana, ņemot vērā viņu sociālo uzvedību vai personību raksturojošas iezīmes, neatkarīgi no tā, kas izvērtēšanu veic. Pretējā gadījumā ES radītu iespēju atļaut iedzīvotāju vērtēšanu vairākās jomās, piemēram, darbavietā. Nosacījumi, kas minēti i) un ii) apakšpunktā, būtu jāprecizē, lai skaidri nošķirtu to, ko uzskata par iedzīvotāju vērtēšanu, un to, ko var uzskatīt par pieņemamu novērtēšanas veidu konkrētam mērķim, t. i., jānosaka brīdis, kad novērtējumā izmantoto informāciju vairs nevar uzskatīt par būtisku vai pamatoti saistītu ar novērtējuma mērķi.

    4.6.

    Mākslīgā intelekta akta mērķis ir aizliegt reāllaika biometrisko tālidentifikāciju (piemēram, izmantojot sejas atpazīšanu) tiesībaizsardzības nolūkos un klasificēt to kā saistītu ar “augstu risku”, ja to izmanto citiem mērķiem. Līdz ar to ir atļauta “vēlāklaika” un “gandrīz reāllaika” biometriskā atpazīšana. Tāpat ir atļauta arī biometriskā atpazīšana, kuras mērķis nav identificēt personu, bet gan novērtēt personas uzvedību, pamatojoties uz tās biometriskajām pazīmēm (mikroizteiksme, gaita, temperatūra, sirdsdarbības ātrums u. c.). Aprobežojoties ar tiesībaizsardzības mērķiem, biometrisku identifikāciju, kā arī jebkuru cita veida biometrisko atpazīšanu, kuras mērķis nav identificēt konkrētu personu (tostarp visus minētos emociju atpazīšanas veidus jebkādiem mērķiem), var īstenot visi citi dalībnieki visās publiskajās un privātajās vietās, tostarp darba vietā, veikalos, stadionos, teātros u. c. Tas paver plašas iespējas pastāvīgi izvērtēt mūsu emocijas jebkuram nolūkam, ko vien mūsu vērtētājs uzskatīs par vajadzīgu.

    4.7.

    Mākslīgā intelekta aktā “emociju uztveršanu” lielākoties klasificē kā saistītu ar zemu risku, izņemot dažus lietotāju domēnus, kuros tā ir klasificēta kā saistīta ar augstu risku. Šāda veida biometrisko atpazīšanu sauc arī par “afektīva stāvokļa atpazīšanu” un dažkārt par “uzvedības atpazīšanu”. Visi šie AI prakses veidi ir ārkārtīgi invazīvi, tiem nav nekāda zinātniska pamatojuma, un tie rada būtiska kaitējuma risku attiecībā uz vairākām ES Pamattiesību hartā minētajām pamattiesībām, piemēram, tiesībām uz cilvēka cieņas ievērošanu, tiesībām uz personas neaizskaramību (kas ietver arī garīgo neaizskaramību) un tiesībām uz privāto dzīvi.

    4.8.

    Pilnībā piekrītot 2021. gada 21. jūnijā paustajam Eiropas Datu aizsardzības uzraudzītāja un Eiropas Datu aizsardzības kolēģijas aicinājumam aizliegt AI izmantošanu, kas paredzēta cilvēka pazīmju automatizētai atpazīšanai publiski pieejamās vietās, un dažus citus AI lietojumus, kuri var izraisīt netaisnīgu diskrimināciju, EESK aicina:

    aizliegt AI izmantošanu automatizētai biometriskajai atpazīšanai publiski un privāti pieejamās vietās (piemēram, sejas, gaitas, balss un citu biometrisko īpatnību atpazīšanai), izņemot autentifikācijas nolūkā īpašos apstākļos (piemēram, lai nodrošinātu piekļuvi drošības ziņā jutīgām telpām),

    aizliegt AI lietošanu automatizētai ar cilvēka uzvedību saistītu signālu atpazīšanai publiski un privāti pieejamās vietās,

    aizliegt AI sistēmām, kas izmanto biometriskos datus, iedalīt cilvēkus kategorijās, balstoties uz etnisko piederību, dzimumu, politisko vai seksuālo orientāciju vai citām pazīmēm, kuru dēļ ar Hartas 21. pantu ir aizliegta diskriminācija,

    aizliegt AI lietošanu fiziskas personas emociju, uzvedības, nodomu vai pazīmju izsecināšanai, izņemot ļoti specifiskus gadījumus, piemēram, dažos gadījumos veselības aprūpes nolūkos, kad ir svarīgi atpazīt pacienta emocijas.

    Augsta riska AI

    4.9.

    Lemjot par to, vai AI prakse vai lietojums, kas rada risku veselībai, drošībai vai pamattiesībām, tomēr būtu jāatļauj saskaņā ar stingriem nosacījumiem, Komisija apsvēra divus elementus: i) vai AI prakse vai lietojums var radīt sabiedrisku labumu un ii) vai šī lietojuma radītos riskus, kas saistīti ar kaitējumu veselībai, drošībai un pamattiesībām, tomēr var mazināt, ja ir izpildītas vairākas prasības.

    4.10.

    EESK atzinīgi vērtē šo prasību saskaņošanu ar elementiem, kas iekļauti Ētikas vadlīnijās uzticamam mākslīgajam intelektam (EGTAI). Tomēr Mākslīgā intelekta aktā nav nepārprotamu norāžu uz piecām svarīgām EGTAI prasībām attiecībā uz augsta riska AI, proti: i) cilvēka subjektību, ii) privātumu, iii) daudzveidību, nediskrimināciju un taisnīgumu, iv) paskaidrojamību un v) vidisko un sociālo labbūtību. EESK uzskata, ka tā ir neizmantota iespēja, jo daudzi AI radīti riski ir saistīti ar privātuma apdraudējumu, aizspriedumiem, atstumtību, AI pieņemtu lēmumu rezultātu neizskaidrojamību, apdraudējumu cilvēka subjektībai un videi un visi ir atspoguļoti mūsu pamattiesībās.

    4.11.

    EESK iesaka papildināt ar šīm prasībām Mākslīgā intelekta akta III sadaļas 2. nodaļu, lai uzlabotu Mākslīgā intelekta akta spēju efektīvi aizsargāt mūsu veselību, drošību un pamattiesības no tāda AI nelabvēlīgās ietekmes, ko izmanto kā publiskas iestādes, tā privātas organizācijas.

    4.12.

    EESK atzinīgi vērtē Mākslīgā intelekta akta un Savienības saskaņošanas tiesību aktu “integrēto sistēmu”. Komiteja iesaka paplašināt Mākslīgā intelekta akta darbības jomu un attiecināt prasības augsta riska AI ne tikai uz “AI drošības sastāvdaļām” vai gadījumiem, kad AI sistēma pati ir produkts, uz ko attiecas Savienības saskaņošanas tiesību akti, kuri uzskaitīti II pielikumā. Tas vajadzīgs, jo AI var radīt riskus ne tikai tad, ja to lieto kā šo produktu drošības sastāvdaļu, bet arī tādēļ, ka AI sistēma ne vienmēr ir produkts. Piemēram, gadījumos, kad to lieto kā daļu no diagnostikas vai prognožu instrumenta medicīnas nozarē vai kad AI vada termostatu, kas regulē katla darbību.

    4.13.

    Tomēr EESK brīdina, ka III pielikumā minētā “sarakstos balstītā” pieeja, kas izraudzīta augsta riska AI, var izraisīt to, ka diezgan daudzi AI prakses veidi, kuri joprojām tiek plaši kritizēti un kuru sabiedriskais labums ir apšaubāms vai tāda nav vispār, var tikt atzīti par likumīgiem, pieņemamiem un visur derīgiem.

    4.14.

    Turklāt risku, kas saistīts ar kaitējumu veselībai, drošībai un pamattiesībām, ne vienmēr iespējams mazināt, ievērojot minētās piecas prasības attiecībā uz augsta riska AI, – it īpaši gadījumos, kad skartas mazāk zināmas pamattiesības, kuras AI varētu ietekmēt, piemēram, tiesības uz cilvēka cieņas ievērošanu, nevainības prezumpcija, tiesības uz godīgiem un taisnīgiem darba apstākļiem, biedrošanās un pulcēšanās brīvība, tiesības streikot, kā arī citas.

    4.15.

    EESK iesaka papildināt III pielikuma 2. punktu ar norādi uz telesakaru un interneta infrastruktūras pārvaldību un darbību. EESK ierosina arī paplašināt šā punkta darbības jomu un attiecināt to ne tikai uz AI drošības sastāvdaļām.

    4.16.

    AI sistēmas, kuru uzdevums ir regulēt piekļuvi izglītībai un novērtēt skolēnu zināšanas, rada vairākus riskus saistībā ar kaitējumu skolēnu veselībai, drošībai un pamattiesībām. Piemēram, tiešsaistes uzraudzības rīki “aizdomīgas uzvedības” un “krāpšanās pazīmju” konstatēšanai tiešsaistes eksāmenos, kad tiek izmantoti visdažādākie biometriskie rīki un izsekota uzvedība, ir patiesi invazīvi un nav zinātniski pamatoti.

    4.17.

    AI sistēmu izmantošana darba ņēmēju uzraudzībai, izsekošanai un novērtēšanai rada nopietnas bažas par to, vai tiek ievērotas darba ņēmēju pamattiesības uz godīgiem un taisnīgiem darba apstākļiem, informēšanu un uzklausīšanu, kā arī pamatotu atlaišanu. Šo AI sistēmu iekļaušana augsta riska sarakstā var būt pretrunā valstu darba tiesību aktiem un darba koplīgumiem par taisnīgu atlaišanu, veselīgiem un drošiem darba apstākļiem un darba ņēmēju informēšanu. EESK aicina gādāt par to, ka darba ņēmēji un sociālie partneri tiek pilnībā iesaistīti un informēti attiecībā uz lēmuma pieņemšanu par AI izmantošanu darbavietā, kā arī par tā izstrādi, iegādi un ieviešanu.

    4.18.

    Prasība par “cilvēka veiktu uzraudzību” ir īpaši svarīga darba attiecībās, jo uzraudzību veiks kāds darbinieks vai darbinieku grupa. EESK uzsver, ka šie darbinieki būtu jāapmāca, kā minētais uzdevums veicams. Turklāt, ņemot vērā, ka paredzams, ka šiem darbiniekiem būs tiesības neņemt vērā AI sistēmas rezultātus vai pat izlemt neizmantot to vispār, būtu vajadzīgi pasākumi, kas novērstu bažas par negatīvām sekām (piemēram, pazemināšanas amatā vai atlaišanas), ja tāds lēmums tiktu pieņemts.

    4.19.

    Saistībā ar piekļuvi sabiedriskajiem pakalpojumiem un to izmantošanu AI sistēmas iespējams izmantot plašāk nekā saistībā ar piekļuvi būtiskiem privātiem pakalpojumiem un to izmantošanu, un tiek uzskatīts, ka tikai AI veikta kredītspējas novērtēšana saistīta ar augstu risku. EESK iesaka paplašināt III pielikuma 5. punkta b) apakšpunkta darbības jomu, attiecinot to uz AI sistēmām, kas paredzētas, lai novērtētu tiesības saņemt būtiskus privātus pakalpojumus.

    4.20.

    Al lietojums tiesībaizsardzības iestādēs un migrācijas, patvēruma un robežkontroles pārvaldībā ar mērķi veikt atsevišķus (noziedzīgu nodarījumu vai drošības) risku novērtējumus, apdraud nevainīguma prezumpciju, tiesības uz aizstāvību un tiesības uz patvērumu, kas noteiktas ES Pamattiesību hartā. AI sistēmas parasti meklē tikai korelācijas, kuru pamatā ir iezīmes, kas piemīt līdzīgiem gadījumiem. Tādos gadījumos aizdomas nebalstās uz faktiskām aizdomām par konkrētas personas izdarītu noziegumu vai pārkāpumu, bet tikai uz iezīmēm (piemēram, adresi, ienākumiem, pilsonību, parādiem, nodarbinātību, pašas personas, tās draugu un ģimenes locekļu uzvedību utt.), kas šai personai ir kopīgas ar notiesātiem noziedzniekiem.

    4.21.

    AI lietojums tiesu sistēmas un demokrātijas procesu pārvaldībā ir īpaši jutīgs, un to vajadzētu risināt individuālāk un rūpīgāk, nekā tas ir pašlaik. Uzmanību veltot tikai sistēmām, kas izmantojamas ar mērķi palīdzēt tiesu iestādei pētīt un interpretēt faktus un tiesību aktus un piemērot tiesību aktus konkrētam faktu kopumam, netiek ņemts vērā tas, ka iztiesāšana nebūt nav tikai vēsturisku datu modeļu atrašana (ko būtībā veic pašreizējās AI sistēmas). Tekstā arī tiek pieņemts, ka šādu veidu AI tikai palīdzēs tiesu iestādēm, bet pilnībā automatizēta tiesas lēmumu pieņemšana netiek iekļauta darbības jomā. EESK pauž nožēlu arī par to, ka AI sistēmas un to lietojums nav minēts saistībā ar tādu demokrātisku procesu jomu kā vēlēšanas.

    4.22.

    EESK iesaka pievienot noteikumu, kas paredz darbības, ja ir acīmredzams vai iepriekšējā atbilstības novērtējumā ir konstatēts, ka minētās sešas prasības pietiekamā mērā nemazina risku, kurš saistīts ar kaitējumu veselībai, drošībai un cilvēktiesībām (piemēram, grozot Mākslīgā intelekta akta 16. panta g) daļu).

    Pārvaldība un izpildāmība

    4.23.

    EESK atzinīgi vērtē ar Mākslīgā intelekta aktu izveidoto pārvaldības struktūru. Komiteja iesaka AI padomei regulāri rīkot obligātas viedokļu apmaiņas ar plašāku sabiedrību, tostarp sociālajiem partneriem un NVO.

    4.24.

    EESK visnotaļ iesaka paplašināt Mākslīgā intelekta akta darbības jomu, iekļaujot tajā “mantotās AI sistēmas”, proti, sistēmas, kuras jau tiek izmantotas vai kuru izmantošana tiks uzsākta pirms Mākslīgā intelekta akta stāšanās spēkā, un tādējādi nepieļaut, ka uzstādītāji steigšus reģistrē aizliegtas, augsta un vidēja riska AI nolūkā neievērot atbilstības prasības. Turklāt EESK stingri iesaka no Mākslīgā intelekta akta darbības jomas neizslēgt AI, kas ir daļa no IX pielikumā uzskaitītajām lielapjoma IT sistēmām brīvības, drošības un tiesiskuma telpā.

    4.25.

    Prasību un pārskatatbildības darbību sarežģītība, kā arī pašnovērtējums rada risku, ka pārbaudes sarakstos šis process būs atspoguļots vienkāršoti un attiecībā uz prasību izpildi būs vienkārši jānorāda “jā” vai “nē”. EESK iesaka noteikt, ka trešās puses veikti novērtējumi ir obligāti visos augsta riska AI gadījumos.

    4.26.

    EESK iesaka gādāt par to, ka mikroorganizācijām un mazām organizācijām tiek paredzēti atbilstoši [finansiāla] atbalsta pasākumi un vienkārši un pieejami rīki, kuri ļautu tām izprast Mākslīgā intelekta akta mērķi un nozīmi, kā arī sasniegt atbilstību tā prasībām. Šiem pasākumiem būtu jāaptver ne tikai atbalsts digitālo inovāciju centriem, bet arī piekļuves veicināšana augsta līmeņa zinātībai saistībā ar Mākslīgā intelekta aktu, tajā noteiktajām prasībām un pienākumiem un it īpaši to pamatojumam.

    4.27.

    EESK iesaka iekļaut sūdzību un tiesiskās aizsardzības mehānismu attiecībā uz organizācijām un iedzīvotājiem, kas cietuši no jebkādas AI sistēmas, prakses vai lietojuma, kurš ietilpst Mākslīgā intelekta akta darbības jomā.

    Briselē, 2021. gada 22. septembrī

    Eiropas Ekonomikas un sociālo lietu komitejas priekšsēdētāja

    Christa SCHWENG


    Top