Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Mišljenje Europskog gospodarskog i socijalnog odbora o Prijedlogu uredbe Europskog parlamenta i Vijeća o utvrđivanju usklađenih pravila o umjetnoj inteligenciji (Akt o umjetnoj inteligenciji) i izmjeni određenih zakonodavnih akata Unije (COM(2021) 206 final – 2021/106 (COD))

    EESC 2021/02482

    SL C 517, 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    HR

    Službeni list Europske unije

    C 517/61


    Mišljenje Europskog gospodarskog i socijalnog odbora o Prijedlogu uredbe Europskog parlamenta i Vijeća o utvrđivanju usklađenih pravila o umjetnoj inteligenciji (Akt o umjetnoj inteligenciji) i izmjeni određenih zakonodavnih akata Unije

    (COM(2021) 206 final – 2021/106 (COD))

    (2021/C 517/09)

    Izvjestiteljica:

    Catelijne MULLER

    Zahtjev za savjetovanje:

    Europski parlament, 7.6.2021.

    Vijeće, 15.6.2021.

    Pravna osnova:

    članak 114. Ugovora o funkcioniranju Europske unije

    Nadležna stručna skupina:

    Stručna skupina za jedinstveno tržište, proizvodnju i potrošnju

    Datum usvajanja u Stručnoj skupini:

    2.9.2021.

    Datum usvajanja na plenarnom zasjedanju:

    22.9.2021.

    Plenarno zasjedanje br.:

    563

    Rezultat glasanja

    (za/protiv/suzdržani):

    225/03/06

    1.   Zaključci i preporuke

    1.1.

    Europski gospodarski i socijalni odbor (EGSO) pozdravlja činjenicu da se Komisijinim prijedlogom Akta o umjetnoj inteligenciji ne samo rješavaju rizici povezani s umjetnom inteligencijom (UI), nego se i znatno povećavaju kriteriji u pogledu kvalitete, sposobnosti i pouzdanosti umjetne inteligencije koju je EU voljan dozvoliti. EGSO je posebno zadovoljan time što su u Aktu o umjetnoj inteligenciji zdravlje, sigurnost i temeljna prava na prvome mjestu i što mu je područje primjene globalno.

    1.2.

    EGSO smatra da su poboljšanja moguća u sljedećim područjima: područje primjene, definicija i jasnoća zabranjenih praksi u području umjetne inteligencije, posljedice odabira kategorizacije u okviru „piramide rizika”, učinak smanjenja rizika koji imaju zahtjevi za visokorizičnu umjetnu inteligenciju, provedivost Akta o umjetnoj inteligenciji i veza s postojećim propisima i ostalim nedavnim regulatornim prijedlozima.

    1.3.

    EGSO ističe da umjetna inteligencija nikada nije funkcionirala u svijetu bez zakona. Zbog širokog područja primjene i prvenstva koje ima kao uredba EU-a, Akt o umjetnoj inteligenciji mogao bi stvoriti napetosti u odnosu na postojeće nacionalne zakone i akte EU-a te povezane regulatorne prijedloge. EGSO preporučuje izmjenu uvodne izjave 41. kako bi se razmotrili i pojasnili odnosi između Akta o umjetnoj inteligenciji i postojećeg i budućeg zakonodavstva.

    1.4.

    EGSO preporučuje da se razjasni definicija umjetne inteligencije uklanjanjem Priloga I. i neznatnom izmjenom članka 3. te da se prošire područja primjene Akta o umjetnoj inteligenciji kako bi se obuhvatili „naslijeđeni UI sustavi” i umjetna inteligencija koja je sastavni dio opsežnih informacijskih sustava u području slobode, sigurnosti i pravde iz Priloga IX.

    1.5.

    EGSO preporučuje da se razjasne zabrane povezane sa „subliminalnim tehnikama” i „iskorištavanjem slabosti” na način da odražavaju zabranu štetne manipulacije te da se kao uvjet za te zabrane doda „šteta za temeljna prava, demokraciju i vladavinu prava”.

    1.6.

    EGSO smatra da u EU-u nema mjesta za vrednovanje vjerodostojnosti građana EU-a na temelju njihovog društvenog ponašanja ili osobnih obilježja, bez obzira na to tko provodi vrednovanje. EGSO predlaže proširenje područja primjene te zabrane kako bi se obuhvatilo društveno vrednovanje koje bi provodile privatne organizacije i polujavna tijela.

    1.7.

    EGSO poziva na zabranu upotrebe umjetne inteligencije za automatizirano biometrijsko prepoznavanje u javno i privatno dostupnim prostorima, osim u svrhe autentifikacije u posebnim okolnostima, kao i za automatsko prepoznavanje signala ljudskog ponašanja u javno i privatno dostupnim prostorima, osim u vrlo konkretnim slučajevima, kao što su neke zdravstvene svrhe, u kojima prepoznavanje emocija pacijenata može biti korisno.

    1.8.

    Zbog pristupa visokorizičnoj umjetnoj inteligenciji koji se temelji na popisu postoji rizik od normalizacije i svakodnevne primjene niza UI sustava i uporaba koji su još uvijek predmet jake kritike. EGSO upozorava da ispunjavanje zahtjeva propisanih za srednjorizičnu i visokorizičnu umjetnu inteligenciju ne ublažava nužno rizike od štete za zdravlje, sigurnost i temeljna prava za sve visokorizične sustave umjetne inteligencije. EGSO predlaže da se u Aktu o umjetnoj inteligenciji predvide odredbe za tu situaciju. U svakom slučaju, trebalo bi barem dodati zahtjeve iz Etičkih smjernica za pouzdanu umjetnu inteligenciju u pogledu: i. ljudskog djelovanja, ii. privatnosti, iii. raznolikosti, nediskriminacije i pravednosti, iv. objašnjivosti i v. dobrobiti za društvo i okoliš.

    1.9.

    U skladu s načelom „čovjek upravlja”, koji EGSO već dugo zagovara, odlučno preporučuje da se u Aktu o umjetnoj inteligenciji predvidi da određene odluke ostanu u nadležnosti ljudi, posebno kada takve odluke imaju moralni aspekt i pravne posljedice ili društveni učinak, kao što su odluke u području pravosuđa, kaznenog progona, socijalnih usluga, zdravstvene zaštite, stanovanja, financijskih usluga, radnih odnosa i obrazovanja.

    1.10.

    EGSO preporučuje da ocjenjivanja sukladnosti koja provodi treća strana budu obavezna za svu visokorizičnu umjetnu inteligenciju.

    1.11.

    EGSO preporučuje da se u Akt uključi mehanizam ulaganja pritužbi i pružanja pravne zaštite za organizacije i građane koji su pretrpjeli štetu zbog bilo kojeg sustava, prakse ili uporabe umjetne inteligencije obuhvaćenih područjem primjene Akta o umjetnoj inteligenciji.

    2.   Regulatorni prijedlog o umjetnoj inteligenciji – Akt o umjetnoj inteligenciji

    2.1.

    EGSO pozdravlja činjenicu da se Komisijinim prijedlogom Akta o umjetnoj inteligenciji ne rješavaju samo rizici povezani s umjetnom inteligencijom, nego se i znatno povećavaju kriteriji u pogledu kvalitete, sposobnosti i pouzdanosti umjetne inteligencije koju je EU voljan dozvoliti.

    3.   Glavne napomene – Akt o umjetnoj inteligenciji

    Cilj i područje primjene

    3.1.

    EGSO pozdravlja i cilj i područje primjene Akta o umjetnoj inteligenciji. EGSO posebno pozdravlja činjenicu da Komisija stavlja zdravlje, sigurnost i temeljna prava u središte Akta o umjetnoj inteligenciji. EGSO pozdravlja i vanjski učinak Akta o umjetnoj inteligenciji, odnosno činjenicu da umjetna inteligencija razvijena izvan EU-a mora ispunjavati iste pravne standarde ako se upotrebljava ili ako ima učinak u EU-u.

    Definicija umjetne inteligencije

    3.2.

    Definicija umjetne inteligencije (članak 3. stavak 1. zajedno s Prilogom I. Aktu o umjetnoj inteligenciji) potakla je raspravu među znanstvenicima koji se bave umjetnom inteligencijom i koji smatraju da brojni primjeri navedeni u Prilogu I. nisu primjeri umjetne inteligencije te da nedostaje niz važnih UI tehnika. EGSO ne vidjeti dodanu vrijednost Priloga I. i preporučuje njegovo potpuno uklanjanje iz Akta o umjetnoj inteligenciji. EGSO predlaže i izmjenu definicije iz članka 3. stavka 1. kako slijedi:

    „„sustav umjetne inteligencije” ili „UI sustav” znači softver koji može, na automatizirani način, za zadani skup ciljeva koje odredi čovjek, generirati izlazne rezultate, kao što su sadržaj, predviđanja, preporuke ili odluke, koji utječu na okruženje s kojim je u interakciji.”

    Zdravlje, sigurnost i temeljna prava – piramida rizika

    3.3.

    Rastuća „piramida rizika” (od niskog/srednjeg, preko visokog do neprihvatljivog rizika) upotrijebljena za kategorizaciju niza općih praksi u području umjetne inteligencije i slučajeva uporabe umjetne inteligencije specifične za određeno područje pokazuje da ne predstavlja svaka umjetna inteligencija rizik te da svi rizici nisu jednaki ili da ne zahtijevaju iste mjere za smanjenje rizika.

    3.4.

    Odabrani pristup nameće dva važna pitanja. Prvo, jesu li mjere za smanjenje (za visokorizičnu i niskorizičnu/srednjorizičnu umjetnu inteligenciju) stvarno dostatne za smanjenje rizika od štete za zdravlje, sigurnost i temeljna prava? Drugo, jesmo li spremni dozvoliti umjetnoj inteligenciji da uvelike zamijeni ljudsko odlučivanje, čak i u ključnim postupcima kao što su postupci u području kaznenog progona i pravosuđa?

    3.5.

    Što se tiče prvog pitanja, EGSO upozorava da ispunjavanje zahtjeva za srednjorizičnu i visokorizičnu umjetnu inteligenciju ne smanjuje nužno rizike od štete za zdravlje, sigurnost i temeljna prava u svim slučajevima. O tome će se detaljnije raspravljati u odjeljku 4.

    3.6.

    Što se tiče drugog pitanja, u Aktu o umjetnoj inteligenciji ne spominje se da umjetna inteligencija ima potencijal da nadopuni ljudsko odlučivanje i ljudsku inteligenciju, a ne da ih zamijeni. Akt o umjetnoj inteligenciji polazi od pretpostavke da, nakon što su zahtjevi za srednjorizičnu i visokorizičnu umjetnu inteligenciju ispunjeni, umjetna inteligencija može uvelike zamijeniti ljudsko odlučivanje.

    3.7.

    EGSO odlučno preporučuje da se u Aktu o umjetnoj inteligenciji predvidi da određene odluke ostanu u nadležnosti ljudi, posebice kada takve odluke imaju moralni aspekt i pravne posljedice ili društveni učinak, kao što su odluke u području pravosuđa, kaznenog progona, socijalnih usluga, zdravstvene zaštite, stanovanja, financijskih usluga, radnih odnosa i obrazovanja.

    3.8.

    Sustavi umjetne inteligencije ne funkcioniraju u svijetu bez zakona. Niz pravno obvezujućih propisa na europskoj, nacionalnoj i međunarodnoj razini već se primjenjuje ili je relevantan za sustave umjetne inteligencije. Pravni izvori, među ostalim, uključuju primarno zakonodavstvo EU-a (Ugovori Europske unije i Povelja Europske unije o temeljnim pravima), sekundarno zakonodavstvo EU-a (kao što su Opća uredba o zaštiti podataka, Direktiva o odgovornosti za proizvode, Uredba o slobodnom protoku neosobnih podataka, direktive o suzbijanju diskriminacije, direktive o zaštiti potrošača i sigurnosti i zdravlju na radu), ugovore UN-a o ljudskim pravima i konvencije Vijeća Europe (kao što je Europska konvencija o ljudskim pravima) te brojne zakone država članica EU-a. Osim horizontalno primjenjivih propisa, postoje i različiti propisi specifični za pojedina područja koji su mjerodavni za određene primjene umjetne inteligencije (kao što je, primjerice, Uredba o medicinskim proizvodima u zdravstvenom sektoru). EGSO preporučuje izmjenu uvodne izjave 41. kako bi se to na odgovarajući način izrazilo.

    4.   Posebne napomene i preporuke – Akt o umjetnoj inteligenciji

    Zabranjene prakse u području umjetne inteligencije

    4.1.

    EGSO se slaže s time da prakse u području umjetne inteligencije navedene u članku 5. zaista nemaju društvenu korist i da bi trebale biti zabranjene. Međutim, smatra da su neke jezične formulacije nejasne zbog čega bi neke zabrane mogle biti teško razumljive i lako bi se mogle zaobići.

    4.2.

    Postoje dokazi da subliminalne tehnike mogu prouzročiti ne samo tjelesnu i psihološku štetu (to su trenutno uvjeti za uvođenje te konkretne zabrane), nego, ovisno o okruženju u kojem se primjenjuju, mogu imati i druge negativne učinke na pojedince, društvo i demokraciju, kao što je promjena ponašanja birača. Nadalje, umjetna inteligencija često ne upravlja samom subliminalnom tehnikom, već odlukom na koga će se subliminalne tehnike primijeniti.

    4.3.

    Kako bi se jasno izrazilo ono što se Aktom o umjetnoj inteligenciji u članku 5. stavku 1. točki (a) nastoji zabraniti – manipulacija ljudima kako bi ih se potaklo na štetno ponašanje – EGSO predlaže izmjenu točke kako slijedi: „[…] UI sustava koji je uveden, namijenjen ili se upotrebljava za bitno mijenjanje ponašanja osobe na način kojim se toj osobi, drugoj osobi ili skupini osoba narušavaju ili bi se mogla narušiti temeljna prava, uključujući njihovo tjelesno ili psihološko zdravlje i sigurnost, ili ugroziti demokracija i vladavina prava”.

    4.4.

    EGSO preporučuje da se na isti način izmijeni zabranjena praksa iskorištavanja slabosti iz članka 5. stavka 1. točke (b) kako bi obuhvatila štetu za temeljna prava, uključujući tjelesnu ili psihološku štetu.

    4.5.

    EGSO pozdravlja zabranu „društvenog rejtinga” iz članka 5. stavka 1. točke (c). EGSO preporučuje da se zabrana društvenog vrednovanja primjenjuje i na privatne organizacije i polujavna tijela, a ne samo na javna tijela. U EU-u nema mjesta za vrednovanje vjerodostojnosti građana EU-a na temelju njihovog društvenog ponašanja ili osobnih obilježja, bez obzira na to tko provodi vrednovanje. Kad bi to bilo moguće, EU bi otvorio mogućnost za društveno vrednovanje u brojnim područjima, primjerice na radnome mjestu. Trebalo bi pojasniti uvjete iz podtočaka i. i ii. kako bi se jasno razgraničilo što se smatra „društvenim rejtingom”, a što se može smatrati prihvatljivim oblikom vrednovanja u određene svrhe, tj. trenutak u kojem se informacije upotrijebljene za vrednovanje više ne bi trebale smatrati relevantnima ili u razumnoj mjeri povezanima sa svrhom vrednovanja.

    4.6.

    Aktom o umjetnoj inteligenciji želi se zabraniti daljinska biometrijska identifikacija u stvarnom vremenu (npr. pomoću prepoznavanja lica) u kaznenom progonu i kategorizirati je kao „visokorizičnu” kada se upotrebljava u druge svrhe. Time je dopušteno naknadno biometrijsko prepoznavanje ili s malim vremenskim odmakom. Osim toga, dopušteno je i biometrijsko prepoznavanje koje nije usmjereno na identifikaciju osobe, nego na ocjenjivanje ponašanja osobe na temelju njezinih biometrijskih obilježja (mikroizrazi, hod, temperatura, brzina otkucaja srca itd.). Ograničenje na „kazneni progon” dopušta biometrijsku identifikaciju, kao i sve druge oblike biometrijskog prepoznavanja čija svrha nije identifikacija pojedinca, uključujući sve navedene oblike „prepoznavanja emocija” u sve druge svrhe koje provode svi drugi subjekti, na svim javnim i privatnim mjestima, uključujući radno mjesto, trgovine, stadione, kazališta i sl. Time se širom otvaraju vrata svijetu u kojem se stalno „ocjenjuju emocije” u bilo koju svrhu koju subjekt koji nas ocjenjuje smatra nužnom.

    4.7.

    U Aktu o umjetnoj inteligenciji „prepoznavanje emocija” općenito je karakterizirano kao niskorizično, uz iznimku nekoliko korisničkih područja u kojima je karakterizirano kao visokorizično. Ta vrsta biometrijskog prepoznavanja naziva se i „prepoznavanje afekata”, a ponekad i „prepoznavanje ponašanja”. Sve te upotrebe umjetne inteligencije iznimno su invazivne, nedostaju im čvrsti znanstveni temelji i lako mogu ugroziti brojna temeljna prava iz Povelje EU-a, kao što su pravo na ljudsko dostojanstvo, pravo na integritet osobe (što obuhvaća i duhovni integritet) i pravo na privatni život.

    4.8.

    U skladu s pozivom Europskog nadzornika za zaštitu podataka i Europskog odbora za zaštitu podataka od 21. lipnja 2021. da se zabrani upotreba umjetne inteligencije za automatsko prepoznavanje ljudskih obilježja u javno dostupnim prostorima te neke druge upotrebe umjetne inteligencije koje mogu dovesti do neopravdane diskriminacije, EGSO poziva na:

    zabranu upotrebe umjetne inteligencije za automatizirano biometrijsko prepoznavanje u javno i privatno dostupnim prostorima (kao što su prepoznavanje lica, hoda, glasa i drugih biometrijskih obilježja), osim za potrebe autentifikacije u posebnim okolnostima (na primjer za osiguravanje pristupa sigurnosno osjetljivim prostorima),

    zabranu uporabe umjetne inteligencije za automatizirano prepoznavanje signala ljudskog ponašanja na javno i privatno dostupnim mjestima,

    zabranu UI sustava koji koriste biometrijske podatke za kategoriziranje pojedinaca u skupine na osnovi etničkog podrijetla, spola, političke ili spolne orijentacije ili na drugoj osnovi koja je navedena kao osnova za zabranu diskriminacije u članku 21. Povelje,

    zabranu uporabe umjetne inteligencije za izvođenje zaključaka o emocijama pojedinaca, njihovu ponašanju, namjeri ili obilježjima, osim u iznimnim slučajevima kao što su određene zdravstvene svrhe u kojima je važno prepoznavanje emocija pacijenata.

    Visokorizična umjetna inteligencija

    4.9.

    Pri donošenju odluke o tome treba li praksa ili uporaba u području umjetne inteligencije koja predstavlja rizik za zdravlje, sigurnost ili temeljna prava ipak biti dozvoljena pod strogim uvjetima, Komisija je imala u vidu dva elementa: i. može li praksa ili uporaba u području umjetne inteligencije imati društvenu korist i ii. može li se rizik od nanošenja štete za zdravlje, sigurnost i temeljna prava koji ta uporaba ipak sadrži smanjiti ispunjavanjem niza zahtjeva.

    4.10.

    EGSO pozdravlja usklađivanje tih zahtjeva s elementima Etičkih smjernica za pouzdanu umjetnu inteligenciju. Međutim, u zahtjevima za visokorizičnu umjetnu inteligenciju iz Akta o umjetnoj inteligenciji nije posebno uzeto u obzir pet važnih zahtjeva iz Etičkih smjernica za pouzdanu umjetnu inteligenciju, to jest: i. ljudsko djelovanje, ii. privatnost, iii. raznolikost, nediskriminacija i pravednost, iv. objašnjivost i v. dobrobit za društvo i okoliš. EGSO smatra da je to propuštena prilika jer se mnogi rizici koje donosi umjetna inteligencija zapravo odnose na privatnost, pristranost, isključivanje, neobjašnjivost odluka umjetne inteligencije, slabljenje ljudskog djelovanja i okoliša, a svi se odražavaju na naša temeljna prava.

    4.11.

    EGSO predlaže da se ti zahtjevi dodaju zahtjevima iz poglavlja 2. glave III. Akta o umjetnoj inteligenciji kako bi se poboljšala sposobnost Akta o umjetnoj inteligenciji da djelotvorno štiti zdravlje, sigurnost i temeljna prava ljudi od negativnih učinaka umjetne inteligencije koju koriste javna tijela i privatne organizacije.

    4.12.

    EGSO pozdravlja „isprepleteni sustav” Akta o umjetnoj inteligenciji i zakonodavstva Unije o usklađivanju i preporučuje da se područje primjene Akta o umjetnoj inteligenciji i zahtjevâ za visokorizičnu umjetnu inteligenciju proširi izvan „umjetne inteligencije koja je sigurnosni sastavni dio proizvoda” ili situacije kada je sam UI sustav proizvod koji je obuhvaćen zakonodavstvom Unije o usklađivanju popisanim u Prilogu II. Razlog je taj što umjetna inteligencija može predstavljati rizik ne samo kada se upotrebljava kao sigurnosni sastavni dio tih proizvoda i što UI sustav sam po sebi nije uvijek proizvod, primjerice, kada se upotrebljava kao dio dijagnostičkog ili prognostičkog instrumenta u području medicine ili u termostatu koji regulira bojler i koji pokreće umjetna inteligencija.

    4.13.

    Međutim, EGSO upozorava da odabrani pristup visokorizičnoj umjetnoj inteligenciji koji se temelji na popisu iz Priloga III. može dovesti do legitimnosti, normalizacije i svakodnevne primjene popriličnog broja praksi u području umjetne inteligencije koje su još uvijek predmet jake kritike i čije su društvene koristi upitne ili ih uopće nema.

    4.14.

    Nadalje, ispunjavanje pet zahtjeva za visokorizičnu umjetnu inteligenciju ne može uvijek smanjiti rizike od štete za zdravlje, sigurnost i temeljna prava, osobito kada se radi o rjeđe spominjanim temeljnim pravima na koje može utjecati umjetna inteligencija, kao što su pravo na ljudsko dostojanstvo, pretpostavka nedužnosti, pravo na poštene i pravične uvjete rada, sloboda udruživanja i okupljanja ili pravo na štrajk.

    4.15.

    EGSO odlučno preporučuje da se točki 2. Priloga III. doda upravljanje i rukovanje telekomunikacijskom i internetskom infrastrukturom. EGSO preporučuje i proširenje područja primjene te točke izvan umjetne inteligencije koja je sigurnosni sastavni dio.

    4.16.

    UI sustavi koji određuju pristup obrazovanju i ocjenjuju studente sadrže niz rizika od štete za zdravlje, sigurnost i temeljna prava studenata. Na primjer, internetski alati za nadzor koji pomoću raznoraznih biometrijskih podataka i praćenja ponašanja ukazuju na „sumnjivo ponašanje” i „znakove varanja” tijekom ispita na internetu uistinu su invazivni i ne temelje se na znanstvenim dokazima.

    4.17.

    Uporaba UI sustava za nadzor, praćenje i evaluaciju radnika izaziva ozbiljnu zabrinutost u pogledu temeljnih prava radnika na poštene i pravične uvjete rada, na informiranje i savjetovanje te na opravdani otkaz. Dodavanje tih UI sustava na popis visokorizične umjetne inteligencije vjerojatno će uzrokovati sukobe s nacionalnim radnim pravom i kolektivnim ugovorima o radu u vezi s pitanjima (ne)opravdanog otkaza, zdravih i sigurnih radnih uvjeta i informiranja radnika. EGSO poziva na jamčenje potpune uključenosti i informiranja radnika i socijalnih partnera u postupku donošenja odluka o upotrebi umjetne inteligencije na radnom mjestu te o njezinu razvoju, nabavi i uvođenju.

    4.18.

    Zahtjev u pogledu „ljudskog nadzora” posebno je važan u radnim odnosima jer će nadzor provoditi radnik ili skupina radnika. EGSO ističe da bi ti radnici trebali proći osposobljavanje o tome kako obavljati tu zadaću. Nadalje, budući da se očekuje da bi ti radnici smjeli zanemariti izlazni rezultat UI sustava ili čak odlučiti da ga neće upotrijebiti, trebale bi postojati mjere za izbjegavanje straha od negativnih posljedica (kao što su premještaj na niže radno mjesto ili otkaz) u slučaju donošenja takve odluke.

    4.19.

    Uporaba UI sustava za pristup i korištenje javnih usluga šira je od uporabe UI sustava za pristup i korištenje osnovnih privatnih usluga, u okviru koje se samo ocjenjivanje kreditne sposobnosti koje provodi umjetna inteligencija smatra visokorizičnim. EGSO preporučuje proširenje područja primjene točke 5. podtočke (b) Priloga III. na UI sustave za evaluaciju prihvatljivosti za osnovne privatne usluge.

    4.20.

    Umjetna inteligencija koju upotrebljavaju tijela kaznenog progona i koja se upotrebljava u upravljanju migracijama, azilom i granicama za pojedinačne (kaznene ili sigurnosne) procjene rizika predstavlja rizik kad je riječ o pretpostavci nedužnosti, pravu na obranu i pravu na azil iz Povelje EU-a. UI sustavi općenito samo traže korelacije koje se temelje na obilježjima iz drugih „predmeta”. U tim se slučajevima sumnja ne temelji na stvarnoj sumnji da je određena osoba počinila kazneno djelo ili prekršaj već na obilježjima koja ta osoba slučajno dijeli s osuđenim kriminalcima (kao što su adresa, dohodak, državljanstvo, dugovi, zaposlenje, ponašanje, ponašanje prijatelja i članova obitelji itd.).

    4.21.

    Uporaba umjetne inteligencije u pravosuđu i demokratskim procesima posebno je osjetljiva i zahtijeva razrađeniji i kontroliraniji pristup nego što je to sada slučaj. Jednostavnim stavljanjem sustava u uporabu kako bi pomogli pravosudnom tijelu u istraživanju i tumačenju činjenica i zakona te u primjeni zakona na konkretno činjenično stanje zanemaruje se činjenica da je donošenje presuda puno više od pronalaženja uzoraka u povijesnim podacima (što je u biti ono što postojeći UI sustavi rade). U tekstu se pretpostavlja i da će te vrste umjetne inteligencije samo pomagati pravosuđu, a potpuno automatizirano donošenje sudskih odluka izvan je područja primjene. EGSO žali i zbog toga što se ne spominju UI sustavi i uporabe u području demokratskih procesa, na primjer izbora.

    4.22.

    EGSO preporučuje dodavanje odredbe kojom se predviđa situacija u kojoj je očito ili u prethodnom ocjenjivanju sukladnosti postane jasno da šest zahtjeva neće u dovoljnoj mjeri smanjiti rizik od štete za zdravlje, sigurnost i ljudska prava (npr. izmjenom članka 16. točke (g) Akta o umjetnoj inteligenciji).

    Upravljanje i provedivost

    4.23.

    EGSO pozdravlja strukturu upravljanja uspostavljenu Aktom o umjetnoj inteligenciji i preporučuje Odboru za umjetnu inteligenciju da održava redovite obavezne razmjene stajališta s društvom u najširem smislu, među ostalim, sa socijalnim partnerima i nevladinim organizacijama.

    4.24.

    EGSO odlučno preporučuje proširenje područja primjene Akta o umjetnoj inteligenciji tako da se obuhvate „naslijeđeni UI sustavi”, to jest sustavi koji su već u uporabi ili se stavljaju u primjenu prije stupanja na snagu Akta o umjetnoj inteligenciji, kako bi se izbjeglo ubrzano uvođenje bilo kojeg oblika zabranjene, visokorizične i srednjorizične umjetne inteligencije radi izbjegavanja ispunjavanja zahtjeva u pogledu usklađenosti. Nadalje, EGSO odlučno preporučuje da se iz područja primjene Akta o umjetnoj inteligenciji ne isključi umjetna inteligencija koja je sastavni dio opsežnih informacijskih sustava u području slobode, sigurnosti i pravde navedenih u Prilogu IX. Akta o umjetnoj inteligenciji.

    4.25.

    Zbog kompleksnosti zahtjeva i odgovornosti te samoprocjene postoji rizik od pojednostavnjenja tog postupka i njegova pretvaranja u kontrolne popise u kojima bi jednostavno „da” ili „ne” moglo biti dovoljno za ispunjavanje zahtjeva. EGSO preporučuje da ocjenjivanja koja provodi treća strana budu obavezna za svu visokorizičnu umjetnu inteligenciju.

    4.26.

    EGSO preporučuje uvođenje odgovarajućih mjera (financijskih) potpore te jednostavnih i pristupačnih alata kako bi mikro i male organizacije te organizacije civilnog društva mogle shvatiti svrhu i značenje Akta o umjetnoj inteligenciji te ispuniti zahtjeve koji su u njemu navedeni. Te se mjere ne bi smjele svesti samo na potporu centrima za digitalne inovacije i trebale bi olakšavati pristup visokoj razini stručnosti u vezi s Aktom o umjetnoj inteligenciji, njegovim zahtjevima i obavezama, a posebno razlozima zbog koji su uvedeni ti zahtjevi i obaveze.

    4.27.

    EGSO preporučuje da se u Akt uključi mehanizam ulaganja pritužbi i pružanja pravne zaštite za organizacije i građane koji su pretrpjeli štetu zbog bilo kojeg sustava, prakse ili uporabe umjetne inteligencije obuhvaćenih područjem primjene Akta o umjetnoj inteligenciji.

    Bruxelles, 22. rujna 2021.

    Predsjednica Europskog gospodarskog i socijalnog odbora

    Christa SCHWENG


    Top