Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Mnenje Evropskega ekonomsko-socialnega odbora – Bela knjiga o umetni inteligenci — evropski pristop k odličnosti in zaupanju (COM(2020) 65 final)

    EESC 2020/01110

    UL C 364, 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    SL

    Uradni list Evropske unije

    C 364/87


    Mnenje Evropskega ekonomsko-socialnega odbora – Bela knjiga o umetni inteligenci — evropski pristop k odličnosti in zaupanju

    (COM(2020) 65 final)

    (2020/C 364/12)

    Poročevalka:

    Catelijne MULLER

    Zaprosilo

    Komisija, 9. 3. 2020

    Pravna podlaga

    člen 304 Pogodbe o delovanju Evropske unije

    Pristojnost

    strokovna skupina za enotni trg, proizvodnjo in potrošnjo

    Datum sprejetja mnenja strokovne skupine

    25. 6. 2020

    Datum sprejetja mnenja na plenarnem zasedanju

    16. 7. 2020

    Plenarno zasedanje št.

    553

    Rezultat glasovanja

    (za/proti/vzdržani)

    207/0/6

    1.   Sklepi in priporočila

    1.1

    EESO čestita Komisiji za njeno strategijo, začrtano v beli knjigi o umetni inteligenci, ki spodbuja uporabo tehnologij umetne inteligence ob zagotavljanju njihove skladnosti z evropskimi etičnimi normami, pravnimi zahtevami in družbenimi vrednotami.

    1.2

    Poleg tega pozdravlja cilj, da se izkoristijo prednosti Evrope na industrijskih in specializiranih trgih, ter poudarja, da je pomembno okrepiti naložbe, infrastrukturo, inovacije in kompetence, da bodo lahko podjetja, vključno z MSP, in družba kot celota izkoristili priložnosti, ki jih ponuja umetna inteligenca. Spodbujati bi bilo treba inovacije na področju umetne inteligence, da bi od sistemov umetne inteligence imeli kar največje koristi, obenem pa preprečili in kar najbolj zmanjšali tveganja.

    1.3

    Vseeno meni, da osredotočenost samo na umetno inteligenco, ki temelji na podatkih, ne zadostuje, da bi EU postala vodilna na področju vrhunske, zaupanja vredne in konkurenčne umetne inteligence. Komisijo poziva, naj spodbuja tudi novo generacijo sistemov umetne inteligence, ki temeljijo na znanju in logičnem sklepanju ter podpirajo človeške vrednote in načela.

    1.4

    EESO poziva Komisijo, naj: (i) spodbuja multidisciplinarne raziskave z vključevanjem drugih ved, kot so pravo, etika, filozofija, psihologija, delovne vede, humanistične vede, ekonomija itd.; (ii) vključi ustrezne deležnike (sindikate, poklicna in podjetniška združenja, potrošniške organizacije, nevladne organizacije) v razpravo o umetni inteligenci in kot enakovredne partnerje v raziskovalnih in drugih projektih, ki jih financira EU, kot so javno-zasebno partnerstvo za umetno inteligenco, sektorski dialogi, program za sprejemanje umetne inteligence v javnem sektorju in vodilni center; ter (iii) še naprej izobražuje in obvešča širšo javnost o priložnostih in izzivih umetne inteligence.

    1.5

    EESO poziva, naj Komisija bolj poglobljeno preuči vpliv umetne inteligence na celoten spekter temeljnih pravic in svoboščin, med drugim na pravico do poštenega sojenja, do poštenih in odprtih volitev, do zbiranja in demonstracij, pa tudi na prepoved diskriminacije.

    1.6

    EESO še naprej nasprotuje uvedbi kakršne koli oblike pravne osebnosti za umetno inteligenco. To bi izničilo preventivni popravljalni učinek prava o odgovornosti in pomenilo resno nevarnost moralnega tveganja tako pri razvoju kot uporabi umetne inteligence, pri kateri lahko pride do zlorab.

    1.7

    EESO poziva k uporabi stalnega, sistematičnega socio-tehničnega pristopa, pri katerem se tehnologija obravnava z vseh vidikov in iz različnih zornih kotov, namesto enkratnega (ali celo redno ponovljenega) predhodnega ocenjevanja skladnosti umetne inteligence z visokim tveganjem.

    1.8

    Opozarja, da bi poleg biometričnega prepoznavanja in umetne inteligence, ki se uporablja pri zaposlovanju, z zahtevo glede opredelitve sektorja z visokim tveganjem lahko izključili številne aplikacije in načine uporabe umetne inteligence, ki so sami po sebi zelo tvegani. EESO priporoča, naj Komisija pripravi seznam skupnih značilnosti aplikacij ali načinov uporabe umetne inteligence, ki se ne glede na sektor sami po sebi štejejo za visoko tvegane.

    1.9

    Močno priporoča, naj se uporaba biometričnega prepoznavanja dovoli samo: (i) če je njen učinek znanstveno dokazan, (ii) v nadzorovanih okoljih in (iii) pod strogimi pogoji. Široka uporaba biometričnega prepoznavanja na podlagi umetne inteligence za nadzor, sledenje, ocenjevanje ali kategorizacijo ljudi ali človeškega vedenja ali čustev bi morala biti prepovedana.

    1.10

    EESO se pri uvajanju sistemov umetne inteligence na delovnem mestu zavzema za zgodnje in tesno vključevanje socialnih partnerjev, ki je v skladu z veljavnimi nacionalnimi pravili in praksami, da bi zagotovili, da so sistemi uporabni ter skladni s pravicami delavcev in delovnimi pogoji.

    1.11

    EESO se zavzema tudi za zgodnje in tesno vključevanje tistih zaposlenih, ki bodo nazadnje delali s sistemom umetne inteligence, ter zaposlenih s strokovnim znanjem s področja prava, etike in humanistike pri uvajanju sistemov umetne inteligence, s čimer bi zagotovili, da so skladni s pravnimi in etičnimi zahtevami ter potrebami delavcev, tako da ti ohranijo avtonomijo pri svojem delu ter da sistemi umetne inteligence izboljšujejo njihovo usposobljenost in zadovoljstvo pri delu.

    1.12

    Tehnike in pristopi na področju umetne inteligence, ki se uporabljajo v boju proti pandemiji koronavirusne bolezni, morajo biti robustni, učinkoviti, pregledni in razložljivi. Spoštovati bi morali tudi človekove pravice, etična načela in veljavno zakonodajo ter biti pošteni, vključujoči in prostovoljni.

    1.13

    EESO poziva Komisijo, naj prevzame vodilno vlogo, da se v Evropi zagotovi boljše usklajevanje rešitev in pristopov uporabne umetne inteligence, ki se uporabljajo v boju proti pandemiji koronavirusne bolezni.

    2.   Bela knjiga EU o umetni inteligenci

    2.1

    EESO z zadovoljstvom ugotavlja, da Evropska komisija upošteva številna priporočila iz prejšnjih mnenj EESO in strokovne skupine na visoki ravni o umetni inteligenci, tako da spodbuja uporabo tehnologij umetne inteligence in hkrati zagotavlja njihovo skladnost z evropskimi etičnimi normami, pravnimi zahtevami in socialnimi vrednotami na podlagi „ekosistema odličnosti in zaupanja“.

    2.2

    EESO pozdravlja predloge, katerih namen je podjetjem, vključno z MSP, in družbi kot celoti omogočiti, da izkoristijo priložnosti, ki izhajajo iz razvoja in uporabe umetne inteligence. Poudarja, da je treba podpreti naložbe, infrastrukturo, inovacije ter kompetence, da bi izboljšali konkurenčnost EU na svetovni ravni.

    Pristop k umetni inteligenci, pri katerem je nadzor v rokah človeka

    2.3

    Toda bela knjiga je tudi nekoliko „fatalistična“, saj je v njej navedeno, da nas lahko umetna inteligenca „nadvlada“, zaradi česar je regulacija njene uporabe naša edina možnost. EESO trdno verjame v zavezo EU, da bo storila vse, da bo Evropa sprejela samo zaupanja vredno umetno inteligenco, zato meni, da bi morala o tem zavzeti veliko odločnejše stališče. Zato Komisijo poziva, naj vedno ohrani možnost, da določene vrste (uporabe) umetne inteligence sploh ne sprejme. EESO ponovno poziva k pristopu, pri katerem je nadzor v rokah človeka.

    Izkoriščanje umetne inteligence v Evropi – opredelitev, usmerjena v prihodnost

    2.4

    Delovna opredelitev umetne inteligence v beli knjigi je „zbirka tehnologij, ki združuje podatke, algoritme in računalniške zmogljivosti.“ V beli knjigi so nato podatki in algoritmi opredeljeni kot glavni elementi umetne inteligence. Vendar bi ta opredelitev zajela vso programsko opremo, ki je bila kdaj napisana, ne le umetne inteligence. Še vedno nimamo splošno sprejete opredelitve pojma umetne inteligence, ki se kot splošen izraz uporablja za različne vrste uporabe v računalništvu.

    2.5

    Osredotočenost bele knjige samo na umetno inteligenco, ki temelji na podatkih, je preozka, da bi EU lahko postala vodilna na področju vrhunske, zaupanja vredne in konkurenčne umetne inteligence. V beli knjigi so prezrti številni obetavni sistemi umetne inteligence, ki torej tudi niso niti nadzorovani niti regulirani. EESO poziva Komisijo, naj spodbuja tudi novo generacijo sistemov umetne inteligence, ki povezujejo pristope, ki temeljijo na podatkih, s pristopi, ki temeljijo na znanju in logičnem sklepanju, t. i. hibridne sisteme. Bela knjiga dejansko priznava potrebo po hibridnih sistemih z namenom razložljivosti, vendar prednosti hibridnih sistemov presegajo razložljivost: pospešijo in/ali omejijo lahko učenje ter potrdijo in preverijo model strojnega učenja.

    2.6

    Bela knjiga se osredotoča le na pristranskost v zvezi s podatki, vendar pristranskost ni vedno posledica slabe kakovosti ali majhne količine podatkov. Zasnova katerega koli produkta sama po sebi pomeni kopičenje pristranskih odločitev, ki segajo od vhodnih podatkov do zastavljenih ciljev za optimizacijo. Vse te odločitve na nek način izhajajo iz lastne pristranskosti oseb, ki odločitve sprejemajo.

    2.7

    Še pomembneje pa je, da so sistemi umetne inteligence več kot le vsota komponent programske opreme. Sistemi umetne inteligence vključujejo tudi socio-tehnični sistem, ki jih obkroža. Pri obravnavanju upravljanja in regulacije umetne inteligence bi se morali osredotočiti tudi na družbene strukture, ki jo obkrožajo: organizacije in podjetja, različni poklici, ljudi in institucije, ki ustvarjajo, razvijajo, uvajajo, uporabljajo in nadzorujejo umetno inteligenco, ter ljudi, na katere ta vpliva, na primer državljane v odnosih z vladami, podjetja, potrošnike, delavce in tudi družbo kot celoto.

    2.8

    Upoštevati je treba tudi, da se pravne opredelitve (za namene upravljanja in regulacije) razlikujejo od povsem znanstvenih opredelitev, saj mora biti izpolnjenih več različnih zahtev, kot so inkluzivnost, natančnost, stalnost, celovitost in izvedljivost. Nekatere od teh zahtev so pravno zavezujoče, nekatere pa veljajo za dobro regulativno prakso.

    Združitev vseh sil

    2.9

    EESO pozdravlja prizadevanja za reševanje razdrobljenosti umetne inteligence v Evropi z združevanjem raziskovalcev na področju umetne inteligence, ki se osredotočajo na MSP in partnerstva z zasebnim in javnim sektorjem. Poleg tega EESO priporoča, naj se: (i) spodbujajo multidisciplinarne raziskave z vključevanjem drugih ved, kot so pravo, etika, filozofija, psihologija, delovne vede, humanistične vede, ekonomija itd.; (ii) vključijo ustrezni deležniki (sindikati, podjetniška združenja, potrošniške organizacije, nevladne organizacije) v razpravo o umetni inteligenci in kot enakovredni partnerji v raziskovalnih in drugih projektih, ki jih financira EU, kot so javno-zasebno partnerstvo za umetno inteligenco, sektorski dialogi, program za sprejemanje umetne inteligence v javnem sektorju in vodilni center; ter (iii) širša javnost še naprej izobražuje in obvešča o priložnostih in izzivih umetne inteligence.

    Umetna inteligenca in pravo

    2.10

    V beli knjigi se priznava dejstvo, da se umetna inteligenca ne uporablja v svetu brez zakonov. EESO zlasti pozdravlja poudarek na posledicah umetne inteligence za temeljne pravice in priporoča Komisiji, naj bolj poglobljeno preuči učinke umetne inteligence na širok nabor temeljnih pravic in svoboščin, kot so svoboda govora in izražanja ter pravica do spoštovanja zasebnega življenja (ki presega varstvo podatkov ljudi), poštenega sojenja, poštenih in odprtih volitev, zbiranja in demonstracij ter prepoved diskriminacije.

    2.11

    EESO pozdravlja jasno stališče, izraženo v beli knjigi, o možnostih uporabe obstoječih ureditev odgovornosti za umetno inteligenco in prizadevanju za nadgradnjo teh ureditev, da bi odpravili nova tveganja, ki jih lahko ustvari umetna inteligenca, pri odpravljanju vrzeli v izvrševanju, kadar je težko določiti gospodarski subjekt, ki je dejansko odgovoren, in prilagodili ureditev spreminjajoči se funkcionalnosti sistemov umetne inteligence.

    2.12

    Komisija bi morala tudi priznati, da umetna inteligenca ne pozna meja in da s tem povezana prizadevanja ne morejo in ne smejo biti omejena na Evropo. Za vzpostavitev skupnega mednarodnega pravnega okvira bi bilo treba na podlagi razprav in raziskav pravnih strokovnjakov doseči splošno soglasje na svetovni ravni.

    2.13

    V vsakem primeru EESO še naprej nasprotuje uvedbi kakršne koli oblike pravne osebnosti za umetno inteligenco. To bi izničilo preventivni popravljalni učinek prava o odgovornosti in pomenilo resno nevarnost moralnega tveganja tako pri razvoju kot uporabi umetne inteligence, pri kateri lahko pride do zlorab.

    Regulacija umetne inteligence z visokim tveganjem

    2.14

    Pri nadzoru učinkov umetne inteligence EESO pozdravlja pristop, ki temelji na oceni tveganja. Komisija napoveduje regulativni okvir za umetno inteligenco z visokim tveganjem, ki bi moral biti v skladu z zahtevami glede robustnosti, natančnosti, ponovljivosti, preglednosti, človeškega nadzora in upravljanja podatkov. V skladu z belo knjigo dva kumulativna elementa predstavljata umetno inteligenco z visokim tveganjem: (i) sektor z visokim tveganjem in (ii) uporaba aplikacije umetne inteligence z visokim tveganjem. V beli knjigi sta dodana dva primera aplikacij ali načinov uporabe umetne inteligence, ki bi se lahko ne glede na sektor sama po sebi štela za visoko tvegana. Poleg tega je v njej biometrično prepoznavanje opredeljeno kot aplikacija, ki je sama po sebi visoko tvegana. Izčrpen seznam sektorjev z visokim tveganjem (ki se sicer občasno pregleduje) zdaj vključuje naslednje sektorje kot potencialno visoko tvegane: zdravstveno varstvo, promet, energetiko in dele javnega sektorja.

    2.15

    Drugo merilo, da je aplikacija umetne inteligence visoko tvegana, je ohlapnejše, saj je v skladu z njim mogoče upoštevati različne ravni tveganja. EESO predlaga, naj se med področja vpliva dodata družba in okolje.

    2.16

    V skladu z logiko bele knjige aplikacije umetne inteligence z visokim tveganjem, ki se uporabljajo v sektorju z nizkim tveganjem, načeloma ne bodo predmet regulativnega okvira. EESO poudarja, da bi bili lahko zaradi neželenih škodljivih učinkov umetne inteligence z visokim tveganjem v sektorju z nizkim tveganjem aplikacije ali načini uporabe umetne inteligence izključeni iz predpisov, s čimer bi bilo mogoče izogibanje pravilom: tak primer je ciljno oglaševanje (sektor z nizkim tveganjem), za katerega se je pokazalo, da ima lahko učinek ločevanja, diskriminacije in delitve, na primer v času volitev, ali posamezniku prirejeno določanje cen (uporaba ali učinek z visokim tveganjem). EESO priporoča, naj se pripravi seznam skupnih značilnosti aplikacij ali načinov uporabe umetne inteligence, ki se sami po sebi štejejo za visoko tvegane, ne glede na sektor, v katerem se uporabljajo.

    2.17

    Čeprav EESO priznava potrebo po preizkušanju skladnosti umetne inteligence, se boji, da enkratna (ali celo redno ponovljena) predhodna ocena skladnosti ne bo zadostovala za zagotovitev zanesljivega in humanocentričnega razvoja, uvajanja in uporabe umetne inteligence na trajnosten način. Zaupanja vredna umetna inteligenca potrebuje stalen, sistematičen socio-tehnični pristop, pri katerem se tehnologija obravnava z vseh vidikov in iz različnih zornih kotov. Kar zadeva oblikovanje politike, je potreben multidisciplinarni pristop, pri katerem oblikovalci politike, znanstveniki z različnih področij, socialni partnerji, poklicna združenja, strokovnjaki, podjetja in nevladne organizacije med seboj stalno sodelujejo. Zlasti ko gre za storitve javnega interesa, ki so povezane z zdravjem, varnostjo in blaginjo ljudi ter temeljijo na zaupanju, je treba zagotoviti, da so sistemi umetne inteligence prilagojeni praktičnim zahtevam in ne morejo prevladati nad odgovornostjo ljudi.

    Biometrično prepoznavanje

    2.18

    EESO pozdravlja predlog Komisije, da se začne javna razprava o uporabi biometričnega prepoznavanja, ki temelji na umetni inteligenci. Za oceno ali celo napovedovanje našega vedenja, duševnega stanja in čustev, na primer pri postopkih zaposlovanja, se že uporablja biometrično prepoznavanje mikroizrazov, hoje, (tona) glasu, srčnega utripa, temperature itd. Jasno je treba povedati, da ni nobenega trdnega znanstvenega dokaza, da je človekova čustva ali duševno stanje mogoče natančno „prebrati“ z njegovega izraza obraza, iz načina hoje, srčnega utripa, tona glasu ali temperature ali celo, da bi bilo mogoče na podlagi tega napovedati prihodnje vedenje.

    2.19

    Prav tako je treba opozoriti, da je v skladu s splošno uredbo o varstvu podatkov obdelava biometričnih podatkov omejena le delno. V skladu s splošno uredbo o varstvu podatkov „biometrični podatki“ pomenijo osebne podatke, ki so rezultat posebne tehnične obdelave v zvezi s fizičnimi, fiziološkimi ali vedenjskimi značilnostmi posameznika, ki omogočajo ali potrjujejo edinstveno identifikacijo tega posameznika. Mnoge tehnologije biometričnega prepoznavanja pa niso zasnovane za namene edinstvene identifikacije fizične oseb, temveč le za oceno človekovega vedenja ali čustev. Ti načini uporabe niso nujno zajeti v opredelitev (obdelave) biometričnih podatkov v skladu s splošno uredbo o varstvu podatkov.

    2.20

    Biometrično prepoznavanje, ki temelji na umetni inteligenci, vpliva tudi na našo širšo pravico do spoštovanja zasebnega življenja, identitete, samostojnosti in psihološke celovitosti, saj se tako ustvarjajo okoliščine, v katerih nas (nenehno) opazujejo, spremljajo, in identificirajo. To bi lahko imelo psihološki zastraševalni učinek, saj bi se lahko ljudje počutili prisiljeni, da svoje vedenje prilagodijo določeni normi. To pomeni vdor v našo temeljno pravico do zasebnosti (moralna in psihološka integriteta). Poleg tega bi biometrično prepoznavanje, ki temelji na umetni inteligenci, lahko vplivalo na druge temeljne pravice in svoboščine, kot sta svoboda zbiranja in prepoved diskriminacije.

    2.21

    EESO priporoča, da se uporaba biometričnega prepoznavanja dovoli le, če ima to znanstveno dokazan učinek, v nadzorovanih okoljih in pod strogimi pogoji. Široka uporaba biometričnega prepoznavanja na podlagi umetne inteligence ne sme biti dovoljena za nadzor, sledenje, ocenjevanje ali kategoriziranje ljudi ali človeškega vedenja ali čustev.

    Vpliv umetne inteligence na delo ter znanja in spretnosti

    2.22

    EESO ugotavlja, da v beli knjigi ni strategije, kako obravnavati vpliv umetne inteligence na delo, medtem ko je tej temi namenjena izrecna pozornost v evropski strategiji za umetno inteligenco iz leta 2018.

    2.23

    EESO se zavzema za zgodnje in tesno vključevanje delavcev in ponudnikov storitev vseh vrst, vključno s tistimi v svobodnih poklicih, samozaposlenimi in priložnostnimi delavci – ne samo ljudi, ki oblikujejo ali razvijajo umetno inteligenco, ampak tudi tistih, ki kupujejo ali uporabljajo sisteme umetne inteligence, delajo z njimi ali na katere ti sistemi vplivajo. Socialni dialog se mora v skladu z veljavnimi nacionalnimi pravili in praksami odviti pred uvedbo tehnologij umetne inteligence na delovnem mestu. Na delovnem mestu bi bilo treba pri dostopu do podatkov o delavcih in upravljanju teh podatkov upoštevati načela in predpise, ki so jih s pogajanji dosegli socialni partnerji.

    2.24

    EESO želi posebej opozoriti na umetno inteligenco, ki se uporablja pri postopkih zaposlovanja, odpuščanja, ocenjevanja ter vrednotenja delavcev. V beli knjigi je umetna inteligenca, ki se uporablja pri zaposlovanju, omenjena kot primer uporabe z visokim tveganjem, ki bi jo bilo treba pravno urediti ne glede na sektor. EESO priporoča, naj se to področje uporabe razširi tudi na umetno inteligenco, ki se uporablja pri postopkih odpuščanja, ocenjevanja in vrednotenja delavcev, ter preučijo skupne značilnosti tistih vrst uporabe umetne inteligence, ki bi ne glede na sektor pomenile zelo visoko tveganje na delovnem mestu. Uporaba umetne inteligence, ki nima znanstvene podlage, kot je zaznavanje čustev z biometričnim prepoznavanjem, v delovnem okolju ne bi smela biti dovoljena.

    2.25

    Če želimo ljudem omogočiti, da se prilagodijo hitremu razvoju umetne inteligence, morajo vzdrževati svoje digitalne kompetence ali pridobivati nove. Vseeno morajo biti politike in finančna sredstva osredotočeni tudi na izobraževanje in razvoj kompetenc na področjih, ki jih sistemi umetne inteligence ne bodo ogrozili (na primer naloge, pri katerih je človeška interakcija na prvem mestu, kot so storitve v javnem interesu, ki so povezane z zdravjem, varnostjo in blaginjo ljudi ter temeljijo na zaupanju, naloge, pri katerih gre za sodelovanje človeka in stroja, ali naloge, ki jih ne želimo zaupati stroju).

    3.   Umetna inteligenca in koronavirus

    3.1

    Umetna inteligenca lahko pripomore k boljšemu razumevanju koronavirusa in koronavirusne bolezni, k zaščiti ljudi pred izpostavljenostjo, k odkritju cepiva in raziskovanju možnosti zdravljenja. Še vedno pa je treba odkrito in jasno povedati, česa je umetna inteligenca zmožna in česa ni.

    3.2

    Robustnost in učinkovitost: umetna inteligenca, ki temelji na podatkih, bi bila lahko za napovedovanje širjenja koronavirusa problematična, ker je podatkov o koronavirusu premalo, da bi se lahko z umetno inteligenco zagotovili zanesljivi rezultati. Poleg tega je teh nekaj podatkov, ki so na voljo, nepopolnih in izkrivljenih. Uporaba teh podatkov za strojno učenje lahko privede do številnih lažnih negativnih in lažnih pozitivnih rezultatov.

    3.3

    Preglednost podatkov in uporabljenih modelov ter razložljivost rezultatov sta najpomembnejši. Svet si zlasti zdaj ne more privoščiti, da bi sprejemal odločitve na podlagi algoritmov.

    3.4

    Pri uporabi umetne inteligence za boj proti tej pandemiji so spoštovanje človekovih pravic, etična načela in obstoječa zakonodaja pomembni bolj kot kdaj koli prej. Zlasti kadar orodja umetne inteligence potencialno kršijo človekove pravice, mora obstajati upravičen interes za njihovo uporabo, ki mora biti nujno potrebna, sorazmerna in predvsem časovno omejena.

    3.5

    Zagotoviti moramo tudi poštenost in vključenost. Sistemi umetne inteligence, ki se razvijajo za boj proti pandemiji, ne bi smeli biti pristranski in ne bi smeli nikogar zapostavljati. Poleg tega bi morali biti na voljo vsem ter upoštevati družbene in kulturne razlike v različnih prizadetih državah.

    Aplikacije za spremljanje in sledenje ter preverjanje zdravstvenega stanja

    3.6

    Po mnenju virologov in epidemiologov je za ponoven zagon družbenega življenja in gospodarstva treba učinkovito slediti, spremljati in varovati zdravje ljudi. Trenutno se razvijajo številne aplikacije za sledenje in izvajanje zdravstvenih meritev, ki so jih doslej običajno izvajali strokovnjaki. Mnoge vlade po vsem svetu veliko pričakujejo od aplikacij za spremljanje in sledenje, da se omogoči ponovni zagon javnega življenja.

    3.7

    Uvedba tovrstnih aplikacij je zelo drastičen ukrep, zato je treba pred sprejetjem odločitve o njihovi uporabi nujno preučiti njihovo uporabnost, nujnost in učinkovitost ter njihov družbeni in pravni učinek. Uporaba aplikacij mora ostati prostovoljna, poleg tega pa je treba dati prednost manj invazivnim rešitvam.

    3.8

    Učinkovitost in zanesljivost aplikacij za spremljanje in sledenje sta izredno pomembni, saj lahko neučinkovitost in nezanesljivost privedeta do številnih napačnih lažno pozitivnih ali lažno negativnih rezultatov, lažnega občutka varnosti in s tem do večje nevarnosti okužbe. Prve znanstvene simulacije vzbujajo resne dvome o tem, ali bi aplikacija za sledenje sploh pozitivno vplivala na omejitev širjenja virusa, tudi ob 80- ali 90-odstotni uporabi. Aplikacija tudi ne more zaznati posebnih okoliščin, na primer prisotnosti pleksi stekla in oken ali nošenja osebne zaščitne opreme.

    3.9

    Poleg tega te aplikacije vodijo k (delnemu) nespoštovanju različnih človekovih pravic in svoboščin, saj zadevajo našo svobodo združevanja ter pravico do varnosti, do nediskriminacije in do zasebnosti.

    3.10

    Zasebnost je zelo pomembna ter zajema veliko več kot zgolj naše osebne podatke in anonimnost. Vključuje tudi pravico, da se posameznika ne zasleduje, spremlja ali nadzira. Znanstveno je dokazano, da se ljudje začnejo vesti drugače, če vedo, da jim nekdo sledi. Po mnenju Evropskega sodišča za človekove pravice ta zastraševalni učinek pomeni vdor v našo zasebnost. V razpravo o umetni inteligenci bi bilo treba vključiti enako širok koncept zasebnosti.

    3.11

    Obstaja tveganje, da se zbrani podatki (zdaj ali v prihodnosti) ne bodo uporabili le za boj proti sedanji pandemiji, ampak tudi za profiliranje, kategorizacijo in ocenjevanje ljudi za različne namene. V bolj oddaljeni prihodnosti si je mogoče celo zamisliti, da bi lahko sprememba namembnosti privedla do neželenih oblik profiliranja pri nadzoru in spremljanju, odobritvi zavarovanja ali socialnih prejemkov, zaposlitvi ali odpuščanju itd. Podatkov, zbranih z uporabo teh aplikacij, se torej v nobenih okoliščinah ne sme uporabljati za profiliranje, ocenjevanje tveganja, razvrščanje ali napovedovanje.

    3.12

    Poleg tega bo vsaka rešitev na področju umetne inteligence, uporabljena v teh izrednih okoliščinah, čeprav z najboljšimi nameni, pomenila precedens, ne glede na to, ali nam je to všeč ali ne. Prejšnje krize so pokazale, da takšni ukrepi kljub dobrim namenom v praksi nikoli ne bodo povsem odpravljeni.

    3.13

    Uporabo umetne inteligence med to pandemijo je treba torej vedno meriti in pretehtati z več vidikov. Vprašati se je treba na primer: (i) ali je učinkovita in zanesljiva, (ii) ali obstajajo manj invazivne rešitve, (iii) ali koristi prevladajo nad družbenimi, etičnimi in temeljnimi pravicami ter (iv) ali je mogoče doseči odgovoren kompromis med nasprotujočimi si temeljnimi pravicami in svoboščinami. Poleg tega se takšnih sistemov nikakor ne sme uporabljati v obliki obveznosti ali pod prisilo.

    3.14

    EESO poziva oblikovalce politik, naj se ne zatekajo prehitro k tehnologiji kot rešitvi za vse. Glede na resnost razmer priporočamo, naj se aplikacije v zvezi s projekti, zasnovanimi za pomoč pri zajezitvi pandemije, opirajo na zanesljive raziskave v epidemiologiji, sociologiji, psihologiji, pravu, etiki in sistemskih znanostih. Pred sprejetjem odločitve za uporabo teh sistemov je treba opraviti analizo učinkovitosti, nujnosti in občutljivosti ter simulacije.

    V Bruslju, 16. julija 2020

    Predsednik Evropskega ekonomsko-socialnega odbora

    Luca JAHIER


    Top