28.10.2020   

HR

Službeni list Europske unije

C 364/87


Mišljenje Europskog gospodarskog i socijalnog odbora o Bijeloj knjizi o umjetnoj inteligenciji – Europski pristup izvrsnosti i izgradnji povjerenja

(COM(2020) 65 final)

(2020/C 364/12)

Izvjestiteljica:

Catelijne MULLER

Zahtjev za savjetovanje:

Komisija, 9.3.2020.

Pravni temelj:

članak 304. Ugovora o funkcioniranju Europske unije

Nadležna stručna skupina:

Stručna skupina za jedinstveno tržište, proizvodnju i potrošnju

Datum usvajanja u Stručnoj skupini:

25.6.2020.

Datum usvajanja na plenarnom zasjedanju:

16.7.2020.

Plenarno zasjedanje br.:

553

Rezultat glasovanja

(za/protiv/suzdržani):

207/0/6

1.   Zaključci i preporuke

1.1.

EGSO čestita Komisiji na strategiji iznesenoj u Bijeloj knjizi o umjetnoj inteligenciji, u skladu s kojom treba poticati primjenu tehnologija umjetne inteligencije, a istovremeno osigurati njihovu usklađenost s europskim etičkim normama, zakonskim obvezama i društvenim vrijednostima.

1.2.

EGSO također pozdravlja cilj da se iskorištavaju europske prednosti na industrijskim i stručnim tržištima te naglašava važnost unapređenja ulaganja, infrastrukture, inovacija i vještina kako bi poduzeća, uključujući MSP-ove, i društvo u cjelini mogli iskoristiti prilike koje pruža umjetna inteligencija. Potrebno je poticati inovacije u području umjetne inteligencije kako bi se u najvećoj mogućoj mjeri iskoristile prednosti tih sustava, a istovremeno spriječili rizici koje oni sa sobom donose, odnosno kako bi se oni sveli na najmanju moguću mjeru.

1.3.

EGSO, međutim, smatra da je usredotočenost na umjetnu inteligenciju temeljenu samo na podacima preuska da bi EU postao istinski predvodnik u vrhunskoj, pouzdanoj i konkurentnoj umjetnoj inteligenciji. EGSO poziva Komisiju da promiče i novu generaciju sustava umjetne inteligencije koji se temelje na znanju i razmišljanju te kojima se poštuju ljudske vrijednosti i načela.

1.4.

EGSO poziva Komisiju da: (i) potiče multidisciplinarnost istraživanja uključivanjem drugih disciplina kao što su pravo, etika, filozofija, psihologija, znanosti o radu, humanističke znanosti, ekonomija itd.; (ii) uključi relevantne dionike (sindikate, strukovne organizacije, poslovne organizacije, organizacije potrošača, nevladine organizacije) u raspravu o umjetnoj inteligenciji i kao ravnopravne partnere u istraživačke i druge projekte koje financira EU, kao što su javno-privatno partnerstvo za umjetnu inteligenciju, sektorski dijalozi i program za prihvaćanje umjetne inteligencije (program „Adopt AI”) u javnom sektoru te ogledni centar; i (iii) nastavi obrazovati i informirati širu javnost o prilikama i izazovima povezanima s umjetnom inteligencijom.

1.5.

EGSO poziva Komisiju da podrobnije razmotri utjecaj umjetne inteligencije na ukupni spektar temeljnih prava i sloboda, uključujući, ali ne ograničavajući se na, pravo na pošteno suđenje, poštene i slobodne izbore te pravo na okupljanje i prosvjedovanje, kao i pravo na nediskriminaciju.

1.6.

EGSO se i dalje protivi uvođenju bilo kakvog oblika pravne osobnosti za umjetnu inteligenciju. Time bi se poništio preventivni korektivni učinak građanskopravne odgovornosti i to bi dovelo do ozbiljnog rizika od moralnog hazarda i u razvoju i u upotrebi umjetne inteligencije u slučajevima u kojima umjetna inteligencija stvara prilike za zlouporabu.

1.7.

EGSO umjesto jednokratnog (ili čak redovitog) prethodnog ocjenjivanja sukladnosti visokorizične umjetne inteligencije poziva na kontinuirani, sustavni društveno-tehnički pristup, u kojem tehnologiju treba promatrati iz svih perspektiva i kroz različite prizme.

1.8.

EGSO upozorava da bi sektorski kriteriji „visokorizičnosti” mogli – pored biometrijskog prepoznavanja i umjetne inteligencije koja se upotrebljava u postupku zapošljavanja – isključivati i mnoge druge primjene i uporabe umjetne inteligencije koje su suštinski visokorizične. EGSO Komisiji preporučuje da sastavi popis zajedničkih karakteristika raznih primjena ili uporaba umjetne inteligencije koje se smatraju suštinski visokorizičnima, bez obzira na sektor.

1.9.

EGSO izričito predlaže da se biometrijsko prepoznavanje dopusti samo: (i) ako postoji znanstveno dokazani učinak, (ii) u kontroliranim okruženjima i (iii) pod strogim uvjetima. Trebalo bi zabraniti široku uporabu biometrijskog prepoznavanja na temelju umjetne inteligencije za nadzor ili praćenje, odnosno za ocjenu ili kategorizaciju ljudi ili ljudskog ponašanja i emocija.

1.10.

EGSO se zalaže za rano i intenzivno uključivanje socijalnih partnera pri uvođenju umjetne inteligencije na radna mjesta, u skladu s mjerodavnim nacionalnim propisima i praksom, kako bi se osigurala upotrebljivost sustava i njihova sukladnost s pravima radnika i radnim uvjetima.

1.11.

EGSO se također zalaže za to da se oni radnici koji će raditi sa sustavima umjetne inteligencije te zaposlenici koji posjeduju stručna znanja u području prava, etike i humanističkih znanosti rano i intenzivno uključuju u uvođenje sustava umjetne inteligencije kako bi se osiguralo da su sustavi usklađeni s pravnim i etičkim zahtjevima, ali i s potrebama radnika, kako bi radnici zadržali autonomiju u pogledu svojega rada i kako bi sustavi umjetne inteligencije poboljšali vještine radnika i zadovoljstvo poslom.

1.12.

Tehnike i pristupi koji se zasnivaju na umjetnoj inteligenciji, a koji se upotrebljavaju u borbi protiv pandemije koronavirusa, moraju biti pouzdani, učinkoviti, transparentni i objašnjivi. Osim toga, moraju poštovati ljudska prava, etička načela i postojeće zakonodavstvo te biti pravedni, uključivi i dobrovoljni.

1.13.

EGSO poziva Komisiju da preuzme vodeću ulogu kako bi se u Europi ostvarila bolja koordinacija rješenja i pristupa zasnovanih na umjetnoj inteligenciji koji se koriste u borbi protiv pandemije koronavirusa.

2.   Bijela knjiga EU-a o umjetnoj inteligenciji

2.1.

EGSO sa zadovoljstvom primjećuje da je Europska komisija prihvatila mnoge preporuke iz prethodnih mišljenja EGSO-a i stručne skupine na visokoj razini za umjetnu inteligenciju, potičući uvođenje tehnologija umjetne inteligencije, osiguravajući pritom njihovu usklađenost s europskim etičkim normama, zakonskim obvezama i društvenim vrijednostima. Komisija se pritom zasniva na konceptu koji naziva „ekosustavom izvrsnosti i povjerenja”.

2.2.

EGSO pozdravlja prijedloge usmjerene na to da poduzeća, uključujući mala i srednja poduzeća, te društvo u cjelini iskoriste mogućnosti koje pruža razvoj i upotreba umjetne inteligencije. EGSO naglašava važnost unapređivanja ulaganja, infrastrukture, inovacija i vještina za poboljšanje uspjeha EU-a u području konkurentnosti na globalnoj razini.

Pristup u kojem čovjek ima glavnu ulogu

2.3.

Međutim, Bijela knjiga ima pomalo „fatalistički” ton, odnosno upućuje na to da nas umjetna inteligencija „nadilazi” i da nemamo drugog izbora nego regulirati njezinu uporabu. EGSO istinski vjeruje u predanost EU-a da u Europi osigura prihvaćanje isključivo pouzdane umjetne inteligencije i stoga smatra da bi se EU u vezi s tim trebao usuditi zauzeti odlučniji stav. EGSO stoga poziva Komisiju da uvijek zadrži mogućnost neprihvaćanja određenih zadanih tipova umjetne inteligencije (odnosno njihove upotrebe). To je ono što EGSO naziva pristupom umjetnoj inteligenciji u kojem „čovjek ima glavnu ulogu” i to je pristup koji moramo njegovati.

Iskorištavanje umjetne inteligencije u Europi – definicija usmjerena na budućnost

2.4.

Radna definicija umjetne inteligencije u Bijeloj knjizi jest „skup tehnologija koje kombiniraju podatke, algoritme i računalnu snagu”. Kasnije se u tekstu podaci i algoritmi definiraju kao glavne sastavnice umjetne inteligencije. Međutim, ta definicija ne obuhvaća samo umjetnu inteligenciju nego svaki dosad napisan računalni program. Još uvijek ne postoji univerzalno prihvaćena definicija umjetne inteligencije, što je generički pojam za niz računalnih primjena.

2.5.

Puka usredotočenost u Bijeloj knjizi na umjetnu inteligenciju temeljenu samo na podacima preuska je da bi EU postao istinski predvodnik u vrhunskoj, pouzdanoj i konkurentnoj umjetnoj inteligenciji. Bijela knjiga iz razmatranja isključuje brojne obećavajuće sustave umjetne inteligencije, a time i iz upravljanja i reguliranja. EGSO poziva Komisiju da promiče i novu generaciju sustava umjetne inteligencije koji pristupe temeljene na podacima integriraju s pristupima temeljenima na znanju i razmišljanju – takozvane hibridne sustave. U Bijeloj knjizi prepoznaje se potreba za hibridnim sustavima u svrhu objašnjavanja, ali prednosti hibridnih sustava idu dalje od toga: oni mogu ubrzati i/ili ograničiti učenje te potvrditi i provjeriti model strojnog učenja.

2.6.

Bijela knjiga usredotočena je samo na pristranost u pogledu podataka, ali nisu svi oblici pristranosti rezultat loše kvalitete ili ograničenih podataka. Oblikovanje svakog artefakta samo je po sebi akumulacija pristranih izbora, od razmatranih ulaznih vrijednosti do ciljeva optimizacije. Sve te odluke na ovaj su ili onaj način rezultat pristranosti svojstvene osobi ili osobama koje ih donose.

2.7.

Međutim, najvažnije je da sustavi umjetne inteligencije nisu samo zbroj softverskih komponenti. Sustavi umjetne inteligencije obuhvaćaju i društveno-tehnički sustav koji ih okružuje. Stoga bi pri razmatranju upravljanja umjetnom inteligencijom i njezine regulacije naglasak trebalo staviti i na društvene strukture koje je okružuju: organizacije i poduzeća, razne struke, osobe i institucije koje stvaraju, razvijaju, uvode, upotrebljavaju i nadziru umjetnu inteligenciju te osobe na koje ona utječe, kao što su građani u odnosu s vlastima, poduzeća, potrošači, radnici, pa čak i društvo u cjelini.

2.8.

Također treba napomenuti da se pravne definicije (za potrebe upravljanja i regulacije) razlikuju od znanstvenih definicija s obzirom na to da je potrebno ispuniti niz različitih uvjeta, kao što su uključivost, preciznost, trajnost, sveobuhvatnost i praktičnost. Neki od njih su pravno obvezujući, a neki se smatraju dobrom regulatornom praksom.

Okupljanje svih snaga

2.9.

EGSO pozdravlja napore uložene u rješavanje fragmentiranog okruženja umjetne inteligencije u Europi povezivanjem istraživača u području umjetne inteligencije, usmjerenošću na MSP-ove i partnerstvom s privatnim i javnim sektorom. Osim toga, EGSO preporučuje: (i) poticanje multidisciplinarnosti istraživanja uključivanjem drugih disciplina kao što su pravo, etika, filozofija, psihologija, znanosti o radu, humanističke znanosti, ekonomija itd.; (ii) uključivanje relevantnih dionika (sindikata, poslovnih organizacija, organizacija potrošača, nevladinih organizacija) u raspravu o umjetnoj inteligenciji, ali i kao ravnopravnih partnera u istraživačke i druge projekte koje financira EU, kao što su javno-privatno partnerstvo za umjetnu inteligenciju, sektorski dijalozi i program za prihvaćanje umjetne inteligencije (program „Adopt AI”) u javnom sektoru te ogledni centar; i (iii) nastavak obrazovanja i informiranja šire javnosti o prilikama i izazovima povezanima s umjetnom inteligencijom.

Umjetna inteligencija i zakon

2.10.

U Bijeloj knjizi uvažava se činjenica da umjetna inteligencija ne postoji u svijetu bez zakona. EGSO posebno pozdravlja naglasak na utjecaj koji umjetna inteligencija ima na temeljna prava i preporučuje Komisiji da podrobnije razmotri utjecaj umjetne inteligencije na širok raspon temeljnih prava i sloboda, kao što su sloboda govora i izražavanja te pravo na poštovanje privatnog života (koje znatno nadilazi puku zaštitu osobnih podataka), na pošteno suđenje, poštene i slobodne izbore, pravo na okupljanje i prosvjedovanje te pravo na nediskriminaciju.

2.11.

EGSO pozdravlja jasan stav iznesen u Bijeloj knjizi o mjerodavnosti postojećih sustava građanskopravne odgovornosti za umjetnu inteligenciju i napore da se ti sustavi nadograde u svrhu rješavanja novih rizika koje umjetna inteligencija može stvoriti, čime bi se riješio problem nedostataka u pogledu izvršivosti u slučajevima kada je teško utvrditi stvarno odgovornog gospodarskog subjekta, a sustavi prilagodili promjenjivoj funkcionalnosti sustava umjetne inteligencije.

2.12.

Komisija bi također trebala priznati da umjetna inteligencija ne poznaje granice i da se predmetni napori ne mogu i ne smiju ograničiti na Europu. Trebalo bi postići opći svjetski konsenzus na temelju rasprava i istraživanja pravnih stručnjaka kako bi se uspostavio zajednički međunarodni pravni okvir.

2.13.

U svakom slučaju, EGSO se i dalje odlučno protivi uvođenju bilo kakvog oblika pravne osobnosti za umjetnu inteligenciju. Time bi se poništio preventivni korektivni učinak građanskopravne odgovornosti i to bi dovelo do ozbiljnog rizika od moralnog hazarda i u razvoju i u upotrebi umjetne inteligencije u slučajevima u kojima ona stvara prilike za zlouporabu.

Reguliranje visokorizične umjetne inteligencije

2.14.

EGSO pozdravlja stajalište prema kojem se kontrola učinaka umjetne inteligencije temelji na riziku. Komisija najavljuje regulatorni okvir za „visokorizičnu umjetnu inteligenciju” koji bi trebao biti u skladu sa zahtjevima u pogledu stabilnosti, točnosti, obnovljivosti, transparentnosti, ljudskog nadzora i upravljanja podacima. Prema Bijeloj knjizi, dva kumulativna elementa čine umjetnu inteligenciju visokorizičnom: (i) visokorizični sektor i (ii) visokorizična upotreba aplikacije umjetne inteligencije. U Bijeloj knjizi dodana su dva primjera aplikacije ili upotrebe umjetne inteligencije koje bi se suštinski mogle smatrati visokorizičnima, neovisno o sektoru. Osim toga, biometrijsko prepoznavanje također se kvalificira kao suštinski visokorizična primjena. Iscrpan popis visokorizičnih sektora (koji se periodično preispituje) sada kao potencijalno visokorizične uključuje sljedeće sektore: zdravstvo, promet, energetika i dijelovi javnog sektora.

2.15.

Drugi kriterij, da se aplikacija umjetne inteligencije upotrebljava na rizičan način, slabiji je, što upućuje na to da bi se mogle uzeti u obzir različite razine rizika. EGSO predlaže da se ovdje kao područja utjecaja dodaju društvo i okoliš.

2.16.

U skladu s logikom Bijele knjige, visokorizična primjena umjetne inteligencije u niskorizičnom sektoru u načelu neće podlijegati regulatornom okviru. EGSO naglašava da bi neželjeni negativni učinci visokorizične umjetne inteligencije u niskorizičnom sektoru mogli iz propisa isključiti primjene ili uporabe umjetne inteligencije, čime bi se stvorila prilika za zaobilaženje pravila: kao primjer možemo navesti ciljano oglašavanje (niskorizični sektor), za koje se pokazalo da može imati učinke koji segregiraju, diskriminiraju i dijele, na primjer tijekom izbora ili personaliziranjem cijena (visokorizična uporaba ili učinak). EGSO preporučuje da se sastavi popis zajedničkih karakteristika primjena ili uporaba umjetne inteligencije koje se smatraju suštinski visokorizičnima, bez obzira na sektor u kojem se umjetna inteligencija koristi.

2.17.

Iako EGSO priznaje potrebu za ispitivanjem sukladnosti umjetne inteligencije, strahuje da jednokratna (ili čak redovita) prethodna ocjena sukladnosti neće biti dovoljna za jamčenje pouzdanog razvoja, uvođenja i upotrebe umjetne inteligencije, na održiv način, koja je usmjerena na čovjeka. Pouzdana umjetna inteligencija iziskuje kontinuiran i sustavan društveno-tehnički pristup, a tehnologiju treba promatrati iz svih perspektiva i kroz različite prizme. Što se tiče oblikovanja politika, to zahtijeva multidisciplinarni pristup u kojem oblikovatelji politika, pripadnici akademske zajednice iz različitih područja, socijalni partneri, strukovne organizacije, stručnjaci, poduzeća i nevladine organizacije stalno surađuju. Kad je riječ o uslugama od javnog interesa koje se odnose na zdravlje, sigurnost i dobrobit ljudi i koje se temelje na povjerenju, potrebno je posebno zajamčiti da su sustavi umjetne inteligencije prilagođeni praktičnim zahtjevima i da ne mogu imati prednost u odnosu na odgovornost čovjeka.

Biometrijsko prepoznavanje

2.18.

EGSO pozdravlja poziv Komisije da se pokrene javna rasprava o upotrebi biometrijskog prepoznavanja na temelju umjetne inteligencije. Biometrijsko prepoznavanje mikroizraza lica, hoda, (tona) glasa, srčanog ritma, temperature itd. već se koristi za procjenu ili čak predviđanje ponašanja, mentalnog stanja i emocija, između ostalog i u postupcima zapošljavanja. Treba jasno reći da ne postoje utemeljeni znanstveni dokazi koji bi upućivali na to da se unutarnje emocije ili mentalno stanje osobe mogu točno „iščitati” iz izražaja lica, hoda, srčanog ritma, tona glasa ili temperature, a kamoli da bi se tako moglo predvidjeti buduće ponašanje.

2.19.

Također treba napomenuti i da se Općom uredbom o zaštiti podataka obrada biometrijskih podataka ograničava samo u određenoj mjeri. U Općoj uredbi o zaštiti podataka biometrijski podaci definiraju se kao „osobni podaci dobiveni posebnom tehničkom obradom u vezi s fizičkim obilježjima, fiziološkim obilježjima ili obilježjima ponašanja pojedinca koja omogućuju ili potvrđuju jedinstvenu identifikaciju tog pojedinca”. Međutim, mnoge tehnologije za biometrijsko prepoznavanje nisu osmišljene isključivo za identifikaciju neke osobe, nego za procjenu njezinog ponašanja ili emocija. Te upotrebe možda nisu obuhvaćene definicijom (obrade) biometrijskih podataka iz Opće uredbe o zaštiti podataka.

2.20.

Biometrijsko prepoznavanje temeljeno na umjetnoj inteligenciji utječe i na naše šire pravo na poštovanje privatnog života, identiteta, autonomije i psihološkog integriteta stvaranjem situacije u kojoj nas (kontinuirano) promatraju, prate i identificiraju. To bi u psihološkom pogledu moglo imati „negativan učinak” u smislu da bi ljudi mogli osjećati potrebu da svoje ponašanje prilagode određenoj normi. To je povreda našeg temeljnog prava na privatnost (moralni i psihološki integritet). Osim toga, biometrijsko prepoznavanje temeljeno na umjetnoj inteligenciji moglo bi utjecati na druga temeljna prava i slobode, kao što su sloboda okupljanja i pravo na nediskriminaciju.

2.21.

EGSO preporučuje da se biometrijsko prepoznavanje dopusti samo ako postoji znanstveno dokazani učinak, u kontroliranim okruženjima i pod strogim uvjetima. Ne bi se smjela dozvoliti široka uporaba biometrijskog prepoznavanja na temelju umjetne inteligencije za provođenje nadzora, praćenje, odnosno za ocjenu ili kategorizaciju ljudi ili ljudskog ponašanja i emocija.

Utjecaj umjetne inteligencije na rad i vještine

2.22.

EGSO konstatira da u Bijeloj knjizi nedostaje strategija za rješavanje pitanja utjecaja umjetne inteligencije na rad, a to je izričito navedeno u europskoj strategiji o umjetnoj inteligenciji iz 2018. godine.

2.23.

EGSO se zalaže za rano i intenzivno uključivanje svih vrsta radnika i pružatelja usluga, uključujući slobodne djelatnike, samozaposlene i honorarne radnike – ne samo osoba koje osmišljavaju ili razvijaju umjetnu inteligenciju, već i onih koje te sustave kupuju i provode, s njima rade, ili na koje ti sustavi utječu. Socijalni dijalog mora se održati prije uvođenja tehnologija umjetne inteligencije na radnom mjestu, u skladu s mjerodavnim nacionalnim propisima i praksom. Na radnom bi se mjestu podacima o radnicima trebalo pristupati, i s njima postupati, u skladu s načelima i propisima koje su dogovorili socijalni partneri.

2.24.

EGSO želi skrenuti posebnu pozornost na umjetnu inteligenciju koja se koristi u postupcima zapošljavanja, otpuštanja, praćenja uspješnosti i ocjenjivanja radnika. U Bijeloj knjizi navodi se da je umjetna inteligencija koja se koristi u zapošljavanju primjer visokorizične primjene koja će podlijegati regulaciji neovisno o sektoru. EGSO preporučuje da se to područje primjene proširi na umjetnu inteligenciju koja se koristi u postupcima otpuštanja, praćenja uspješnosti i ocjenjivanja radnika, ali i da se istraže zajedničke karakteristike primjena umjetne inteligencije koje bi uključivale visokorizičnu uporabu na radnom mjestu, neovisno o sektoru. Primjene umjetne inteligencije koje nemaju znanstvenu osnovu, kao što je otkrivanje emocija biometrijskim prepoznavanjem, ne bi smjele biti dopuštene na radnom mjestu.

2.25.

Potrebno je održavati vještine u području umjetne inteligencije i stjecati nove kako bi se ljudi mogli prilagoditi brzom razvoju u području umjetne inteligencije. No politiku i financijska sredstva također je potrebno usmjeriti na obrazovanje i razvoj vještina u područjima koja neće biti ugrožena sustavima umjetne inteligencije (npr. zadatke za čije je obavljanje ponajprije bitna interakcija među ljudima, kao što su usluge od javnog interesa u području zdravlja, sigurnosti i dobrobiti ljudi, koje se temelje na povjerenju, pri čemu ljudi i strojevi surađuju, ili zadatke za koje želimo da ih ljudi i dalje obavljaju).

3.   Umjetna inteligencija i koronavirus

3.1.

Umjetna inteligencija može doprinijeti boljem razumijevanju koronavirusa i bolesti COVID-19 te zaštititi osobe od izloženosti, pomoći u pronalaženju cjepiva i istražiti mogućnosti liječenja. no i dalje je važno biti otvoren i jasan o tome što umjetna inteligencija može, a što ne.

3.2.

Stabilnost i djelotvornost: umjetna inteligencija temeljena na podacima koja predviđa širenje koronavirusa potencijalno je problematična jer ne raspolažemo s dovoljno podataka o koronavirusu da bi umjetna inteligencija mogla dati pouzdane rezultate. Osim toga, ono malo podataka koji su dostupni nepotpuni su i neobjektivni. Upotreba tih podataka za pristupe strojnom učenju mogla bi dovesti do mnogih lažnih negativnih i lažnih pozitivnih rezultata.

3.3.

Transparentnost podataka i korištenih modela, kao i objašnjivost ishoda, od ključne su važnosti. Svijet si, posebno u ovom trenutku, ne može priuštiti donošenje odluka na temelju „crnih kutija”.

3.4.

Pri upotrebi umjetne inteligencije u borbi protiv pandemije koronavirusa poštovanje ljudskih prava, etičkih načela i postojećeg zakonodavstva važnije je no ikad. Legitiman je interes za upotrebu alata koji se koriste umjetnom inteligencijom osobito kada se njima potencijalno krše ljudska prava, a ta upotreba mora biti nužna, proporcionalna i, prije svega, vremenski ograničena.

3.5.

Naposljetku, moramo se pobrinuti za pravednost i uključenost. Sustavi umjetne inteligencije koji se razvijaju za borbu protiv pandemije ne smiju biti pristrani i ne smiju diskriminirati. Nadalje, trebali bi biti dostupni svima i uzimati u obzir društvene i kulturne razlike različitih pogođenih zemalja.

Aplikacije za praćenje i sljedivost te za praćenje zdravstvenog stanja

3.6.

Po mišljenju virologa i epidemiologa, popuštanje ograničenja kretanja u društvima i gospodarstvima iziskuje djelotvorno praćenje, sljedivost, nadzor i zaštitu zdravlja ljudi. Trenutačno se razvijaju mnoge aplikacije za praćenje, sljedivost i provjeru zdravlja, a to je nešto što su dosad obično provodili stručnjaci. Mnoge su vlade diljem svijeta dale veliko povjerenje aplikacijama za praćenje i sljedivost kao sredstvu za ukidanje ograničenja kretanja i normalizaciju stanja.

3.7.

Uvođenje takve vrste aplikacija vrlo je radikalan korak. Stoga je prije donošenja odluke o njihovoj uporabi važno kritički ispitati korisnost, nužnost i učinkovitost tih aplikacija, kao i njihov društveni i pravni učinak. I dalje mora postojati mogućnost da se te aplikacije ne koriste, a prednost treba dati manje invazivnim rješenjima.

3.8.

Učinkovitost i pouzdanost aplikacija za praćenje i sljedivost iznimno su važne jer neučinkovitost i nepouzdanost mogu dovesti do mnogih lažnih pozitivnih i lažnih negativnih rezultata, lažnog osjećaja sigurnosti, a time i do većeg rizika od zaraze. Inicijalne znanstvene simulacije izazivaju ozbiljnu sumnju u ikakav pozitivan učinak aplikacija za praćenje na širenje virusa, čak i uz upotrebu koja doseže 80 % ili 90 %. Isto tako, aplikacija ne može zabilježiti posebne okolnosti, kao što su prisutnost pleksiglasa i prozora ili nošenje osobne zaštitne opreme.

3.9.

Osim toga, te aplikacije dovode do (djelomičnog) ukidanja raznih ljudskih prava i sloboda jer se njima narušava naša sloboda udruživanja te pravo na sigurnost, nediskriminaciju i privatnost.

3.10.

Iako su osobni podaci i anonimnost vrlo važni, privatnost je puno više od toga. Privatnost podrazumijeva i pravo da ne budemo podvrgnuti praćenju, sljedivosti i nadzoru. Znanstveno je dokazano da se ljudi koji znaju da ih slijede počinju ponašati drukčije. Prema Europskom sudu za ljudska prava taj „negativan učinak” predstavlja povredu privatnosti. Jednako širok koncept privatnosti trebalo bi uključiti u raspravu o umjetnoj inteligenciji.

3.11.

Postoji rizik da će se prikupljeni podaci (sada ili u budućnosti) upotrebljavati ne samo za borbu protiv trenutačne pandemije, nego i za profiliranje, kategorizaciju i ocjenjivanje ljudi u različite svrhe. U dalekoj je budućnosti čak moguće zamisliti da bi „preusmjeravanje upotrebe” moglo dovesti do neželjenih vrsta profiliranja u kontroli i nadzoru, pri sklapanju osiguranja ili dobivanju socijalnih naknada, zapošljavanju ili otpuštanju i sl. Podaci prikupljeni s pomoću takvih aplikacija stoga se ni u kojem slučaju ne smiju upotrebljavati za profiliranje, ocjenjivanje rizika, klasifikaciju ili predviđanje.

3.12.

Osim toga, svako rješenje na temelju umjetne inteligencije primijenjeno u ovim izvanrednim okolnostima, čak i s najboljim namjerama, bit će presedan, što god mi o tome mislili. Prethodne krize pokazale su da se, unatoč dobrim namjerama, takve mjere u praksi ne ukidaju.

3.13.

Upotrebu umjetne inteligencije u ovoj pandemiji stoga bi uvijek trebalo ocijeniti i odvagati u odnosu na druge kriterije, kao što su: (i) je li ona djelotvorna i pouzdana? (ii) postoje li manje invazivna rješenja? (iii) jesu li njezine koristi veće od razloga za zabrinutost u pogledu društvenih i etičkih pitanja i temeljnih prava?, (iv) može li se postići odgovoran kompromis između suprotstavljenih temeljnih prava i sloboda? Osim toga, pri uvođenju te vrste sustava ne smije postojati nikakav oblik obveze ili prisile.

3.14.

EGSO potiče oblikovatelje politika da previše ne podliježu brzim tehnološkim rješenjima. S obzirom na ozbiljnost situacije, preporučujemo da se aplikacije povezane s projektima za pomoć u kontroli pandemije temelje na pouzdanim istraživanjima u području epidemiologije, sociologije, psihologije, prava, etike i sistemskih znanosti. Prije donošenja odluke o uporabi tih sustava potrebno je provesti analizu i simulacije učinkovitosti, nužnosti i osjetljivosti.

Bruxelles, 16. srpnja 2020.

Predsjednik Europskog gospodarskog i socijalnog odbora

Luca JAHIER