Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Euroopa Majandus- ja Sotsiaalkomitee arvamus teemal „Ettepanek: Euroopa Parlamendi ja nõukogu määrus, millega nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid (tehisintellekti käsitlev õigusakt) ja muudetakse teatavaid liidu õigusakte“ (COM(2021) 206 final – 2021/106 (COD)

    EESC 2021/02482

    ELT C 517, 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    ET

    Euroopa Liidu Teataja

    C 517/61


    Euroopa Majandus- ja Sotsiaalkomitee arvamus teemal „Ettepanek: Euroopa Parlamendi ja nõukogu määrus, millega nähakse ette tehisintellekti käsitlevad ühtlustatud õigusnormid (tehisintellekti käsitlev õigusakt) ja muudetakse teatavaid liidu õigusakte“

    (COM(2021) 206 final – 2021/106 (COD)

    (2021/C 517/09)

    Raportöör:

    Catelijne MULLER

    Konsulteerimistaotlus

    Euroopa Parlament, 7.6.2021

    nõukogu, 15.6.2021

    Õiguslik alus

    Euroopa Liidu toimimise lepingu artikkel 114

    Vastutav sektsioon

    ühtse turu, tootmise ja tarbimise sektsioon

    Vastuvõtmine sektsioonis

    2.9.2021

    Vastuvõtmine täiskogus

    22.9.2021

    Täiskogu istungjärk nr

    563

    Hääletuse tulemus

    (poolt/vastu/erapooletuid)

    225/03/06

    1.   Järeldused ja soovitused

    1.1.

    Euroopa Majandus- ja Sotsiaalkomitee kiidab heaks asjaolu, et komisjoni ettepanek tehisintellekti käsitleva õigusakti vastuvõtmiseks ei käsitle ainult tehisintellektiga seotud riske, vaid seab lati kõrgele ka sellise tehisintellekti kvaliteedi, toimivuse ja usaldusväärsuse osas, mida EL on nõus lubama. Komitee tunneb erilist heameelt selle üle, et tehisintellekti käsitlev õigusakt seab tervise, ohutuse ja põhiõigused õigusakti keskmesse ning on üleilmse ulatusega.

    1.2.

    Komitee tõdeb, et parandamist vajavad sellised valdkonnad nagu keelatud tehisintellektitavade ulatus, määratlus ja selgus, „riskipüramiidiga“ seoses tehtud liigitamisvalikute mõju, suure riskiga tehisintellektile esitatavate nõuete riski maandav mõju, tehisintellekti käsitleva õigusakti jõustatavus ning seos kehtivate määruste ja muude hiljutiste regulatiivsete ettepanekutega.

    1.3.

    Komitee rõhutab, et tehisintellekt ei ole kunagi toiminud seadusetus maailmas. Oma ulatuse ja ülimuslikkuse tõttu ELi määrusena võib tehisintellekti käsitlev õigusakt tekitada pingeid olemasolevate riiklike ja ELi õigusaktide ning nendega seotud regulatiivsete ettepanekutega. Komitee soovitab muuta põhjendust 41, et nõuetekohaselt kajastada ja selgitada mõjuhindamise ning kehtivate ja tulevaste õigusaktide vahelisi seoseid.

    1.4.

    Komitee soovitab tehisintellekti mõistet täpsustada, eemaldades I lisa, muutes pisut artiklit 3 ja laiendades tehisintellekti käsitleva õigusakti kohaldamisala nii, et see hõlmaks varasemaid tehisintellektisüsteeme ning IX lisa vabadusel, turvalisusel ja õigusel rajaneva ala suuremahuliste IT-süsteemide tehisintellekti komponente.

    1.5.

    Komitee soovitab selgitada keeldusid, mis puudutavad „alalävisele tajule suunatud võtteid“ ja „haavatavuste ärakasutamist“, et need kajastaksid kahjuliku manipuleerimise keeldu, ning lisada nende keeldude tingimustena „põhiõiguste, demokraatia ja õigusriigi kahjustamise“.

    1.6.

    Komitee arvates ei ole ELis kohta ELi kodanike usaldusväärsuse hindamisele nende sotsiaalse käitumise või isikuomaduste põhjal, olenemata hindajast. Komitee soovitab laiendada selle keelu kohaldamisala, et see hõlmaks ka eraorganisatsioonide ja riigiasutuste sotsiaalset hindamist.

    1.7.

    Komitee kutsub üles keelustama tehisintellekti kasutamise automaatseks biomeetriliseks tuvastamiseks avalikes ja eraviisiliselt juurdepääsetavates ruumides, välja arvatud autentimise eesmärgil väga konkreetsetel juhtudel, ning inimese käitumuslike signaalide automaatseks tuvastamiseks avalikes ja eraviisiliselt juurdepääsetavates ruumides, välja arvatud väga spetsiifilistel juhtumitel, näiteks mõnel tervisalasel eesmärgil, kus patsiendi emotsioonide äratundmine võib olla oluline.

    1.8.

    „Loendipõhine“ lähenemisviis suure riskiga tehisintellektile ohustab mitmete tehisintellektisüsteemide ja kasutuste normaliseerimist ning peavoolustamist, mida endiselt tugevalt kritiseeritakse. Komitee hoiatab, et keskmise ja suure riskiga tehisintellektile kehtestatud nõuete täitmine ei pruugi iga suure riskiga tehisintellekti puhul vähendada ohtu, et see kahjustab tervist, ohutust ning põhiõigusi. Komitee soovitab tehisintellekti käsitlevas õigusaktis seda olukorda ette näha. Lisada tuleks vähemalt usaldusväärse tehisintellektiga seotud eetikajuhiste i) inimkontrolli, ii) privaatsuse, iii) mitmekesisuse, mittediskrimineerimise ja õigluse, iv) selgitatavuse ning v) keskkonna- ja sotsiaalse heaolu nõuded.

    1.9.

    Kooskõlas oma ammu propageeritud „inimjuhitavuse“ lähenemisviisiga tehisintellektile soovitab komitee tungivalt, et tehisintellekti käsitlev õigusakt näeks ette, et teatavad otsused jäävad inimeste eelisõiguseks, eriti valdkondades, kus neil otsustel on moraalne komponent ning õiguslik või ühiskondlik mõju, sh kohtusüsteem, õiguskaitse, sotsiaalteenused, tervishoid, eluase, finantsteenused, töösuhted ja haridus.

    1.10.

    Komitee soovitab muuta kolmandate isikute vastavushindamise kohustuslikuks kõigi suure riskiga tehisintellektide puhul.

    1.11.

    Komitee soovitab lisada kaebuste ja kahju hüvitamise mehhanismi organisatsioonide ning kodanike jaoks, kes on saanud kahju tehisintellekti käsitleva õigusakti kohaldamisalasse kuuluva tehisintellektisüsteemi, selle tegevuse või kasutamise tõttu.

    2.   Ettepanek tehisintellekti määruse kohta – tehisintellekti käsitlev õigusakt

    2.1.

    Komitee kiidab heaks asjaolu, et komisjoni ettepanek tehisintellekti käsitleva õigusakti vastuvõtmiseks ei käsitle ainult tehisintellektiga seotud riske, vaid seab lati kõrgemale sellise tehisintellekti kvaliteedi, toimivuse ja usaldusväärsuse osas, mida EL on nõus lubama.

    3.   Üldised kommentaarid – tehisintellekti käsitlev õigusakt

    Eesmärk ja kohaldamisala

    3.1.

    Komitee tervitab nii tehisintellekti käsitleva õigusakti eesmärki kui ka ulatust. Komitee tunneb erilist heameelt selle üle, et komisjon seab tervise, ohutuse ja põhiõigused tehisintellekti käsitleva õigusakti keskmesse. Komitee kiidab ka tehisintellekti käsitleva õigusakti välist mõju, millega tagatakse, et kui väljaspool ELi välja arendatud tehisintellekti kasutatakse või kui see avaldab mõju ELis, peab see vastama samadele õiguslikele standarditele.

    Tehisintellekti määratlus

    3.2.

    Tehisintellekti määratlus (artikli 3 esimene punkt koostoimes tehisintellekti käsitleva õigusakti I lisaga) on tekitanud tehisintellektiteadlaste vahel arutelu, mille kohaselt tehisintellektiteadlased ei pea mitut I lisas toodud näidet tehisintellektiks, samuti puudub hulk olulisi tehisintellektimeetodeid. Komitee ei näe I lisas lisandväärtust ja soovitab selle tehisintellekti käsitlevast õigusaktist täielikult välja jätta. Komitee soovitab muuta artikli 3 esimese punkti määratlust järgmiselt:

    „„tehisintellektisüsteem“ – tarkvara, mis võib automatiseeritud kujul teatavate inimese kindlaks määratud eesmärkide jaoks luua väljundeid, näiteks sisu, prognoose, soovitusi või otsuseid, mis mõjutavad keskkondi, millega nad suhtlevad.“

    Tervis, ohutus ja põhiõigused – riskipüramiid

    3.3.

    Eskaleeruv „riskipüramiid“ (alates väikesest/keskmisest riskist kuni suure riski ja vastuvõetamatu riskini), mida kasutatakse hulga üldiste tehisintellekti tavade ja valdkonnapõhiste tehisintellektide liigitamiseks, näitab, et mitte iga tehisintellekt ei kujuta endast ohtu ja kõik riskid pole võrdsed ega nõua samu leevendusmeetmeid.

    3.4.

    Valitud lähenemisviis tõstatab kaks meie jaoks olulist küsimust. Esiteks, kas leevendusmeetmed (suure ning väikese/keskmise riskiga tehisintellekti puhul) maandavad tõepoolest piisavalt ohte tervisele, ohutusele ja põhiõigustele? Teiseks, kas oleme valmis lubama tehisintellektil inimeste otsuseid suures osas asendada ka kriitiliste protsesside puhul, nagu õiguskaitse ja kohtusüsteem?

    3.5.

    Esimese küsimuse osas hoiatab komitee, et keskmise ja suure riskiga tehisintellektile kehtestatud nõuete täitmine ei pruugi kõigi suure riskiga tehisintellektide puhul vähendada tervise, ohutuse ning põhiõiguste kahjustamise ohtu. Seda täpsustatakse 4. punktis.

    3.6.

    Teise küsimuse osas on tehisintellekti käsitlevast õigusaktist puudu märkus, et tehisintellekti potentsiaal seisneb inimese otsuste tegemise ja inimintellekti suurendamises, mitte asendamises. Tehisintellekti käsitlev õigusakt töötab eeldusel, et keskmise ja suure riskiga tehisintellekti nõuete täitmise korral võib tehisintellekt inimese otsuseid suures osas asendada.

    3.7.

    Komitee soovitab tungivalt, et tehisintellekti käsitlev õigusakt näeks ette, et teatavad otsused jäävad inimeste eelisõiguseks, eriti valdkondades, kus neil otsustel on moraalne komponent ning õiguslik või ühiskondlik mõju, sh kohtusüsteem, õiguskaitse, sotsiaalteenused, tervishoid, eluase, finantsteenused, töösuhted ja haridus.

    3.8.

    Tehisintellekti süsteemid ei toimi seadusetus maailmas. Euroopa, riiklikul ja rahvusvahelisel tasandil kehtib juba õiguslikult siduvaid eeskirju, mis käsitlevad tehisintellekti süsteeme või on nende suhtes asjakohased. Õiguslikud allikad hõlmavad muu hulgas järgmist: ELi esmane õigus (Euroopa Liidu aluslepingud ja liidu põhiõiguste harta), ELi teisesed õigusaktid (näiteks isikuandmete kaitse üldmäärus, tootevastutuse direktiiv, määrus isikustamata andmete vaba liikumise kohta, diskrimineerimisvastased direktiivid, tarbijaõigus ning tööohutus ja töötervishoid), ÜRO inimõigustealased lepingud ja Euroopa Nõukogu konventsioonid (näiteks Euroopa inimõiguste konventsioon) ning arvukad ELi liikmesriikide õigusaktid. Lisaks horisontaalselt kohaldatavatele eeskirjadele on erinevaid valdkonnapõhiseid eeskirju, mida kohaldatakse konkreetsete tehisintellektirakenduste suhtes (näiteks meditsiiniseadmete määrus tervishoiusektoris). Komitee soovitab muuta põhjendust 41, et seda nõuetekohaselt kajastada.

    4.   Konkreetsed märkused ja soovitused – tehisintellekti käsitlev õigusakt

    Tehisintellekti keelatud kasutusviisid

    4.1.

    Komitee nõustub, et artiklis 5 sätestatud tehisintellekti kasutusviisidel sotsiaalne kasu tõepoolest puudub ja need tuleks keelata. Komitee leiab, et osa sõnastusi on ebaselged, mis võib muuta mõne keelu raskesti tõlgendatavaks ja hõlpsasti välditavaks.

    4.2.

    On tõendeid selle kohta, et alalävisele tajule suunatud võtted võivad põhjustada mitte ainult füüsilist või psühholoogilist kahju (praegu seda keeldu käivitavad tingimused), vaid võivad oma rakendamiskeskkonnast sõltuvalt põhjustada muid ebasoodsaid tagajärgi isikule, ühiskonnale või demokraatiale, näiteks hääletuskäitumise muutumine. Pealegi juhib tehisintellekt sageli mitte alalävisele tajule suunatud võtteid, vaid pigem otsust, kes selliste võtetega sihikule võtta.

    4.3.

    Et anda edasi tehisintellekti käsitleva õigusakti artikli 5 lõike 1 punkti a eesmärki, mis on keelata inimeste manipuleerimine kahjulikul viisil käituma, soovitab komitee punkti muuta järgmiselt: „[---] sellised tehisintellektisüsteemid, mille eesmärk on või mis võetakse kasutusele või mida kasutatakse sooviga oluliselt moonutada inimese käitumist viisil, mis kahjustab või võib kahjustada selle isiku, teise isiku või isikute rühma põhiõigusi, sealhulgas nende füüsilist või psühholoogilist tervist ja ohutust või demokraatia ja õigusriigi põhimõtteid“.

    4.4.

    Komitee soovitab muuta artikli 5 lõike 1 punktis b haavatavuse ärakasutamise keelatud tavasid samal viisil, lisades põhiõiguste kahjustamise, sealhulgas füüsilise või psühholoogilise kahju.

    4.5.

    Komitee tervitab artikli 5 lõike 1 punktis c sätestatud ühiskondliku reitingu (sotsiaalse hindamise) keeldu. Komitee soovitab, et sotsiaalse hindamise keeld kehtiks ka eraorganisatsioonide ja avaliku sektori osalusega asutuste, mitte ainult ametiasutuste puhul. ELis ei ole kohta ELi kodanike usaldusväärsuse hindamisele nende sotsiaalse käitumise või isikuomaduste põhjal, olenemata hindajast. Vastasel juhul avaks EL ukse mitmele valdkonnale, kus sotsiaalne hindamine oleks lubatud, näiteks töökohal. Alapunktides i) ja ii) sätestatud tingimusi tuleks selgitada, et tõmmata selge piir selle vahel, mida peetakse „sotsiaalseks hindamiseks“ ja mida võib pidada vastuvõetavaks hindamisviisiks konkreetsel eesmärgil, st millal ei tohiks hindamisel kasutatavat teavet enam pidada asjakohaseks või mõistlikult seotuks hindamise eesmärgiga.

    4.6.

    Tehisintellekti käsitleva õigusakti eesmärk on keelata õiguskaitse jaoks reaalajas toimuv biomeetriline kaugtuvastus (näiteks näotuvastus) ja liigitada see muudel eesmärkidel kasutamise korral „suure riskiga“ tegevuseks. See jätab „tagantjärele“ ja „peaaegu otse“ biomeetrilise tuvastuse lubatuks. Selle kohaselt jääb lubatuks biomeetriline tuvastamine, mille eesmärk ei ole isiku tuvastamine, vaid isiku käitumise hindamine tema biomeetriliste tunnuste (mikronäoilme, kõnnak, temperatuur, südame löögisagedus jne) alusel. Piirdumine „õiguskaitsega“ võimaldab biomeetrilist tuvastamist ja kõiki muid biomeetrilise kindlakstegemise vorme, mille eesmärk ei ole isiku tuvastamine, sealhulgas kõiki loetletud „emotsioonide tuvastamise“ vorme kõigil muudel eesmärkidel kõigi teiste osalejate poolt kõikjal avalikus ja eraruumis, muu hulgas töökohtadel, kauplustes, staadionitel ja teatris. See jätab uksed valla maailmale, kus meie „emotsioone hinnatakse“ pidevalt mis tahes eesmärgil, mida meie hindaja vajalikuks peab.

    4.7.

    Tehisintellekti käsitlev õigusakt liigitab „emotsioonide tuvastamise“ üldiselt väikese riskiga tegevuseks, kui välja arvata üksikud kasutajadomeenid, kus need on liigitatud suure riskiga tegevuseks. Seda liiki biomeetriliste andmete tuvastamist nimetatakse ka „emotsioonituvastuseks“ ja mõnikord „käitumise tuvastuseks“. Kõik need tegevused tehisintellekti poolt on äärmiselt invasiivsed, neil puudub kindel teaduslik alus ja need võivad oluliselt kahjustada mitmeid ELi põhiõiguste hartas sätestatud õigusi, nagu õigus inimväärikusele, õigus isikupuutumatusele (mis hõlmab vaimset puutumatust) ja õigus eraelule.

    4.8.

    Kooskõlas Euroopa Andmekaitseinspektori ja Euroopa Andmekaitsenõukogu 21. juuni 2021. aasta üleskutsega keelata tehisintellekti kasutamine inimtunnuste automaatseks tuvastamiseks avalikult juurdepääsetavates kohtades ja veel mõned tehisintellekti kasutusviisid, mis võivad põhjustada ebaõiglast diskrimineerimist, kutsub komitee üles:

    keelama tehisintellekti kasutamise näiteks näo, kõnnaku, hääle ja muude biomeetriliste tunnuste automaatseks biomeetriliseks tuvastamiseks avalikes ja eraviisiliselt juurdepääsetavates ruumides, välja arvatud väga spetsiifilistel juhtumitel (näiteks juurdepääsuks julgeoleku seisukohalt tundlikule alale);

    keelama tehisintellekti kasutamise inimeste käitumuslike signaalide tuvastamiseks avalikes ja eraviisiliselt juurdepääsetavates ruumides;

    keelama biomeetriat kasutavad tehisintellektisüsteemid inimeste liigitamiseks klastritesse rahvuse, soo, poliitiliste vaadete või seksuaalse sättumuse või muudel ELi põhiõiguste harta artikli 21 alusel keelatud diskrimineerivatel alustel;

    keelama tehisintellekti kasutamise füüsilise isiku emotsioonide, käitumise, kavatsuste või isikuomaduste kohta järelduste tegemiseks, välja arvatud väga konkreetsetel juhtumitel, näiteks mõnel tervisalasel eesmärgil, kus patsiendi emotsioonide äratundmine on oluline.

    Suure riskiga tehisintellekt

    4.9.

    Otsuse tegemisel selle kohta, kas tervist, ohutust või põhiõigusi ohustavad tehisintellektitavad või kasutamine võiks siiski rangetel tingimustel lubatud olla, arvestas komisjon kahte elementi: i) kas tehisintellektitavad või kasutamine võib anda sotsiaalset kasu ning ii) kas selle kasutamisega kaasnevaid ohte tervisele, ohutusele ja põhiõigustele saab vähendada teatavate nõuete täitmise korral.

    4.10.

    Komitee tunneb heameelt nende nõuete kooskõlla viimise üle usaldusväärse tehisintellekti eetikasuuniste elementidega. Kuid tehisintellekti käsitlevas õigusaktis ei käsitleta suure riskiga tehisintellektiga seotud nõuete puhul eraldi viit olulist usaldusväärse tehisintellekti eetikasuuniste nõuet, mis on: i) inimese toimevõime, ii) privaatsus, iii) mitmekesisus, mittediskrimineerimine ja õiglus, iv) selgitatavus ning v) keskkonna ja ühiskonna heaolu. Komitee peab seda kasutamata võimaluseks, sest paljud tehisintellektist tulenevad ohud on seotud privaatsuse, erapoolikuse, tõrjutuse, tehisintellekti otsuste tulemuste seletamatuse, inimese toimevõime ja keskkonna õõnestamisega ning kõik need kajastuvad meie põhiõigustes.

    4.11.

    Komitee soovitab lisada need nõuded tehisintellekti käsitleva õigusakti III jaotise 2. peatüki nõuetele, et parandada tehisintellekti käsitleva õigusakti võimet kaitsta tõhusalt meie tervist, ohutust ja põhiõigusi nii ametiasutuste kui ka eraorganisatsioonide kasutatava tehisintellekti kahjuliku mõju eest.

    4.12.

    Komitee tervitab tehisintellekti käsitleva õigusakti ja liidu ühtlustamisõigusaktide „põimitud süsteemi“. Komitee soovitab tehisintellekti käsitleva õigusakti kohaldamisala ja suure riskiga tehisintellektile esitatavaid nõudeid laiendada, et ei piirdutaks tehisintellekti turvakomponentide või olukorraga, kus tehisintellektisüsteem on II lisas loetletud liidu ühtlustamisaktide kohaldamisalasse kuuluv toode. Seda põhjusel, et tehisintellekt võib kujutada endast ohtu ka siis, kui seda kasutatakse nende toodete turvakomponentidena, ja kuna tehisintellektisüsteem ise ei ole alati toode. Näiteks kasutamise korral diagnostika- või prognoosivahendina meditsiinivaldkonnas või tehisintellekti juhitava termostaadina, mis reguleerib boilerit.

    4.13.

    Komitee hoiatab siiski, et III lisas valitud „loetelupõhine“ lähenemisviis suure riskiga tehisintellektile võib seadustada, normida ja peavoolustada arvukaid tehisintellektitavasid, mida endiselt tugevalt kritiseeritakse ja mille kasu ühiskonnale on küsitav või puudub.

    4.14.

    Pealegi ei saa tervise, ohutuse ja põhiõiguste kahjustamise riske alati tingimata vähendada suure riskiga tehisintellekti viie nõude täitmise abil, eriti vähem mainitud põhiõiguste osas, mida tehisintellekt võib mõjutada, näiteks õigus inimväärikusele, süütuse presumptsioon, õigus headele ja õiglastele töötingimustele, ühinemis- ja kogunemisvabadus, streigiõigus, kui nimetada vaid mõnd.

    4.15.

    Komitee soovitab tungivalt lisada III lisa punkti 2 telekommunikatsiooni- ja internetitaristu haldamine ning käitamine. Samuti soovitab komitee laiendada selle punkti kohaldamisala, et see ei piirduks tehisintellekti turvakomponentidega.

    4.16.

    Kui tehisintellektisüsteemid määravad juurdepääsu haridusele ja hindavad õpilasi, kujutab see mitmeid ohte õpilaste tervisele, ohutusele ja põhiõigustele. Veebipõhised tuvastusvahendid, mis väidetavalt märgistavad veebieksamite ajal „kahtlast käitumist“ ja „petmise ilminguid“, kasutavad näiteks igat liiki biomeetriat ja käitumise jälgimist, on tõeliselt invasiivsed ja teadusliku aluseta.

    4.17.

    Tehisintellektisüsteemide kasutamine töötajate seiramiseks, jälgimiseks ja hindamiseks tekitab tõsist muret seoses töötajate põhiõigustega headele ja õiglastele töötingimustele, teabele ja konsulteerimisele ning põhjendatud alusel vallandamisele. Selliste tehisintellektisüsteemide lisamine suure riskiga süsteemide loetellu satub tõenäoliselt vastuollu riigi tööõigusega (eba)õiglase töölt vabastamise, tervislike ja ohutute töötingimuste ning töötajate informeerimise osas. Komitee kutsub üles tagama töötajate ja sotsiaalpartnerite täieliku kaasamise otsustusprotsessi ja ärakuulamisse küsimustes, mis käsitlevad tehisintellekti kasutamist töökohal ning selle arendamist, hankimist ja kasutuselevõttu.

    4.18.

    „Inimjärelevalve“ nõue on iseäranis oluline töösuhetes, kuna seda teostab töötaja või töötajate rühm. Komitee rõhutab, et neid töötajaid peaks selle ülesande täitmiseks koolitama. Kuna lisaks eeldatakse, et neil töötajatel on lubatud jätta kõrvale tehisintellektisüsteemi väljund või isegi otsustada seda mitte kasutada, tuleks ette näha meetmed negatiivsete tagajärgede (näiteks madalamale ametikohale viimise või vallandamise) kartuse vältimiseks, kui selline otsus vastu võetakse.

    4.19.

    Tehisintellektisüsteemide kasutamine seoses avalikele teenustele juurdepääsu ja nende kasutamisega on laiem kui tehisintellektisüsteemide kasutamine seoses juurdepääsuga olulistele eraõiguslikele teenustele ja nende kasutamisele, kus viimaste puhul peetakse suureks riskiks ainult krediidi(võimelisuse) hindamist tehisintellekti poolt. Komitee soovitab laiendada III lisa punkti 5 alapunkti b kohaldamisala tehisintellektisüsteemidele, mille eesmärk on hinnata oluliste eraõiguslike teenuste vastavust.

    4.20.

    Õiguskaitseasutustes ning rände-, varjupaiga- ja piirikontrollihalduses individuaalsete (kriminaal- või julgeolekualaste) riskihindamiste tegemiseks kasutatav tehisintellekt võib seada ohtu ELi põhiõiguste harta kohase süütuse presumptsiooni, kaitseõiguse ja varjupaigaõiguse. Tehisintellektisüsteemid otsivad lihtsalt seoseid, mis põhinevad teiste „juhtumite“ käigus leitud omadustel. Nendel juhtudel ei ole kuriteo või väärteo kahtluse aluseks konkreetse isiku tegelik kahtlustamine, vaid lihtsalt tunnused, mida see inimene juhtumisi süüdimõistetud kurjategijatega jagab (näiteks aadress, sissetulek, kodakondsus, võlad, töö, käitumine, sõprade ja pereliikmete käitumine jne).

    4.21.

    Tehisintellekti kasutamine õigusemõistmisel ja demokraatlikes protsessides on iseäranis tundlik ning seda tuleks käsitleda senisest nüansirohkemalt ja põhjalikumalt. Ainuüksi süsteemide kasutuselevõtt õigusasutuse abistamiseks faktide ja seaduse uurimisel ja tõlgendamisel ning seaduse kohaldamisel konkreetsete faktikogumite suhtes jätab tähelepanuta asjaolu, et kohtumõistmine on palju enamat kui ajaloolistest andmetest mustrite leidmine (mida praegused tehisintellektisüsteemid sisuliselt teevad). Samuti nähtub tekstist, et seda tüüpi tehisintellekt ainult aitab kohtusüsteemi, jättes täielikult automatiseeritud kohtuotsuste tegemise kohaldamisalast välja. Komiteel on ka kahju, et tehisintellektisüsteeme või nende kasutust ei mainita seoses demokraatlike protsesside, näiteks valimistega.

    4.22.

    Komitee soovitab lisada sätte, millega nähakse ette olukord, kus on ilmne või selgub eelneva vastavushindamise käigus, et kuus nõuet ei leevenda piisavalt tervist, ohutust ja inimõigusi kahjustavat riski (näiteks muutes tehisintellekti käsitleva õigusakti artikli 16 punkti g).

    Juhtimine ja jõustamine

    4.23.

    Komitee kiidab heaks tehisintellekti käsitlevas õigusaktis pakutud juhtimisstruktuuri. Komitee soovitab tehisintellekti nõukojal korraldada regulaarselt kohustuslikke arvamuste vahetusi laiema ühiskonnaga, sealhulgas sotsiaalpartnerite ja valitsusväliste organisatsioonidega.

    4.24.

    Komitee soovitab tungivalt laiendada tehisintellekti käsitleva õigusakti kohaldamisala nii, et see hõlmaks ka „varasemaid tehisintellektisüsteeme“, st süsteeme, mis on juba kasutusel või võetakse kasutusele enne tehisintellekti käsitleva õigusakti jõustumist, et vältida mis tahes keelatud suure ja keskmise riskiga tehisintellekti kiirmenetlemist kasutuselevõtjate poolt, et vältida vastavusnõuete täitmist. Lisaks soovitab komitee tungivalt mitte jätta tehisintellekti käsitleva õigusakti kohaldamisalast välja tehisintellekti, mis on IX lisa vabadusel, turvalisusel ja õigusel rajaneva ala suuremahuliste IT-süsteemide komponent.

    4.25.

    Nõuete ja aruandlustegevuse keerukus, millele lisandub veel enesehindamine, tekitavad ohu lihtsustada see protsess kontrollnimekirjaks, kus nõuete täitmiseks võib piisata lihtsalt „jah“ või „ei“ vastusest. Komitee soovitab muuta kolmandate isikute vastavushindamine kohustuslikuks kõigi suure riskiga tehisintellektide puhul.

    4.26.

    Komitee soovitab kehtestada mikro- ja väikestele organisatsioonidele, samuti kodanikuühiskonna organisatsioonidele asjakohased (rahalised) toetusmeetmed ning lihtsad ja kättesaadavad vahendid, et aidata neil mõista tehisintellekti käsitleva õigusakti eesmärki ja tähendust ning täita selle nõudeid. Need meetmed ei peaks piirduma digitaalsete innovatsioonikeskuste toetamisega, vaid seisnema juurdepääsu hõlbustamises kõrgetasemelistele eksperditeadmistele tehisintellekti käsitleva õigusakti, selle nõuete, kohustuste ning eelkõige põhjenduste kohta.

    4.27.

    Komitee soovitab lisada kaebuste ja kahju hüvitamise mehhanismi organisatsioonide ning kodanike jaoks, kes on saanud kahju tehisintellekti käsitleva õigusakti kohaldamisalasse kuuluva tehisintellektisüsteemi, selle tegevuse või kasutamise tõttu.

    Brüssel, 22. september 2021

    Euroopa Majandus- ja Sotsiaalkomitee president

    Christa SCHWENG


    Top