Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52016IE5369

    Mnenje Evropskega ekonomsko-socialnega odbora – Umetna inteligenca – Posledice za enotni (digitalni) trg, proizvodnjo, potrošnjo, zaposlovanje in družbo (mnenje na lastno pobudo)

    UL C 288, 31.8.2017, p. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    31.8.2017   

    SL

    Uradni list Evropske unije

    C 288/1


    Mnenje Evropskega ekonomsko-socialnega odbora – Umetna inteligenca – Posledice za enotni (digitalni) trg, proizvodnjo, potrošnjo, zaposlovanje in družbo

    (mnenje na lastno pobudo)

    (2017/C 288/01)

    Poročevalec:

    Catelijne MULLER

    Sklep plenarne skupščine

    22. 9. 2016

    Pravna podlaga

    člen 29(2) poslovnika

     

    mnenje na lastno pobudo

     

     

    Pristojnost

    strokovna skupina za enotni trg, proizvodnjo in potrošnjo

    Datum sprejetja mnenja strokovne skupine

    4. 5. 2017

    Datum sprejetja mnenja na plenarnem zasedanju

    31. 5. 2017

    Plenarno zasedanje št.

    526

    Rezultat glasovanja

    (za/proti/vzdržani)

    159/3/14

    1.   Sklepi in priporočila

    1.1

    Na področju umetne inteligence je v zadnjem času prišlo do več pomembnih premikov, njena uporaba pa se v družbi vztrajno širi. Trg umetne inteligence je vreden približno 664 milijonov ameriških dolarjev (USD) in naj bi do leta 2025 po ocenah dosegel 38,8 milijarde USD. Umetna inteligenca lahko na družbo vpliva tako pozitivno kot negativno, zato je EESO sklenil, da bo pozorno spremljal dogajanje na tem področju, vendar ne le po tehnični, ampak tudi po etični, družbeni in varnostni plati.

    1.2

    EESO bo kot predstavnik evropske civilne družbe v prihodnje odpiral, povezoval in spodbujal družbeno razpravo o umetni inteligenci ter vanjo vključil vse zainteresirane deležnike: politične odločevalce, industrijo, socialne partnerje, potrošnike, nevladne organizacije, vzgojno-varstvene ustanove, pa tudi strokovnjake in predstavnike univerz z različnih področij, kot so umetna inteligenca, varnost, etika, ekonomija, znanost o delu, pravo, znanost o vedenju, psihologija in filozofija.

    1.3

    Pogovori o superinteligenci, ki je sicer pomembna tema, trenutno prevladujejo v razpravi o posledicah aktualne uporabe umetne inteligence in jo celo zastirajo. Zato bosta namen in cilj zgornjega procesa zlasti izboljšanje in razširitev poznavanja umetne inteligence, kar bo prispevalo k poučeni in uravnoteženi razpravi, ki se bo izogibala pastem katastrofičnih scenarijev ali relativizaciji čez vsako mero. EESO si bo poleg tega prizadeval za razvoj umetne inteligence v korist človeštva. Vendar bosta pomembna naloga in cilj tega procesa tudi beleženje, prepoznavanje in spremljanje prelomnih dogajanj pri razvoju umetne inteligence in na sorodnih področjih, da jih bo mogoče ustrezno in pravočasno obravnavati. S tem se bodo okrepili vključenost družbe ter njeno zaupanje in podpora pri prizadevanjih za trajnostni razvoj in uporabo umetne inteligence.

    1.4

    Vplivi umetne inteligence presegajo nacionalne meje, zato bo treba ravno tako sprejeti nadnacionalne strateške okvire. EESO priporoča, da ima EU na svetovni ravni vodilno vlogo pri sprejemanju jasnih in splošno veljavnih strateških okvirov na področju umetne inteligence, ki bodo odražali evropske vrednote in temeljne pravice. Odbor k temu more in želi prispevati.

    1.5

    EESO trenutno vidi 11 področij, na katerih umetna inteligenca pomeni izziv za družbo: etika, varnost, spoštovanje zasebnosti, preglednost in pojasnljivost dejanj, delo, izobraževanje in kompetence, (ne)enakost in vključevanje, zakonodaja in pravno urejanje, upravljanje in demokracija, vojskovanje ter superinteligenca. V nadaljevanju zato podaja nekaj priporočil.

    1.6

    EESO se zavzema za takšen pristop k umetni inteligenci, pri katerem je nadzor v rokah uporabnika (angl. human-in-command), kar vključuje pogoj, da je razvoj umetne inteligence odgovoren, varen in koristen, pri čemer stroji ostajajo stroji, ki so pod stalnim nadzorom ljudi.

    1.7

    EESO priporoča pripravo etičnega kodeksa za razvoj, uvedbo in uporabo umetne inteligence, da bodo sistemi umetne inteligence ves čas uporabe skladni z načeli človekovega dostojanstva, integritete, svobode, zasebnosti, kulturne raznolikosti in enakosti spolov ter s temeljnimi pravicami.

    1.8

    EESO se zavzema za vzpostavitev sistema standardizacije, ki bi se uporabljal za preverjanje, potrjevanje in nadzor sistemov umetne inteligence ter bi temeljil na širokem naboru standardov s področja varnosti, preglednosti, razumljivosti, pojasnljivosti dejanj in etičnih vrednot.

    1.9

    EESO se zavzema za evropsko infrastrukturo za umetno inteligenco, sestavljeno iz prosto dostopnih (angl. open source) učnih okolij, ki zagotavljajo zasebnost, iz okolij za preizkušanje v dejanskih razmerah (angl. real life) ter kakovostnega nabora podatkov za razvoj in učenje sistemov umetne inteligence. Opozarja na (konkurenčno) prednost, ki bi jo lahko EU na svetovnem trgu pridobila z razvojem in spodbujanjem sistemov umetne inteligence, uradno potrjenih na evropski ravni, pri čemer bi ti imeli evropski certifikat in oznako.

    1.10

    EU, nacionalni organi in socialni partnerji bi morali skupaj ugotoviti, na katere segmente trga dela bo vplivala umetna inteligenca ter v kakšnem obsegu in kdaj bo do tega prišlo, in poiskati rešitve, da se bo mogoče soočiti s posledicami, ki jih bo to imelo na zaposlovanje, naravo dela, socialne sisteme in (ne)enakost. Vlagati je treba tudi v tiste segmente trga dela, na katere bo imela umetna inteligenca malo ali nič vpliva.

    1.11

    EESO priporoča, naj si deležniki skupaj prizadevajo za komplementarne sisteme umetne inteligence in za njihovo skupno vzpostavljanje na delovnem mestu. Primer tega so ekipe ljudi in strojev, v katerih bi umetna inteligenca dopolnjevala in izboljševala delo ljudi. Deležniki bi morali vlagati tudi v formalno in neformalno učenje, izobraževanje in usposabljanje za vse, da bi znali ravnati z umetno inteligenco in razvili kompetence, ki jih umetna inteligenca ne bo oziroma ne more zagotavljati.

    1.12

    Že zdaj je treba opraviti temeljito oceno evropske zakonodaje in predpisov na šestih področjih, ki jih je opredelila Enota za presojo znanstvenih in tehnoloških možnosti (angl. Scientific Foresight Unit ali STOA) in ki jih bo morda treba spremeniti ali prilagoditi. EESO more in želi biti udeležen pri tem ocenjevanju. Odbor nasprotuje temu, da bi bila za robote ali umetno inteligenco uvedena kakršna koli pravna osebnost. Popravljalni in preprečevalni učinki odškodninskega prava bi s tem pravzaprav izgubili svoj smisel, pojavile pa bi se lahko možnosti za zlorabo kakor tudi moralno tveganje pri razvoju in uporabi umetne inteligence.

    1.13

    Razvoj vrst uporabe umetne inteligence, ki koristijo družbi, spodbujajo vključevanje in izboljšujejo življenje ljudi, je treba dejavno spodbujati in promovirati tako na javni kot zasebni ravni. Evropska komisija bi morala prek svojih programov financirati raziskave o družbenih posledicah umetne inteligence in inovacij na področju umetne inteligence, ki jih financira EU.

    1.14

    EESO podpira poziv organizacije Human Rights Watch in drugih organizacij, da je treba prepovedati avtonomne oborožitvene sisteme. Pozdravlja posvetovanje, ki je bilo na to temo napovedano v Združenih narodih, vendar meni, da bi moralo vključevati tudi uporabo umetne inteligence za kibernetsko vojskovanje.

    2.   Umetna inteligenca

    2.1

    Za umetno inteligenco ni enotne natančne opredelitve. Gre za koncept, ki zajema veliko število (pod)področij, kot so kognitivno računalništvo (angl. cognitive computing oziroma algoritmi, ki sklepajo in se učijo na višji ravni, tj. bolj podobno ljudem), strojno učenje (angl. machine learning oziroma algoritmi, ki se avtonomno učijo izvajanja nalog), obogatena inteligenca (angl. augmented intelligence oziroma sodelovanje med človekom in strojem) in inteligentna robotika (umetna inteligenca, vgrajena v robote). Vendarle so raziskave in razvoj na področju umetne inteligence v glavnem namenjeni avtomatiziranju inteligentnega obnašanja, vključno z zmožnostjo logičnega sklepanja, zbiranja informacij, načrtovanja, učenja, komuniciranja, manipuliranja, signaliziranja in celo ustvarjanja, sanjanja in zaznavanja.

    2.2

    Na splošno ločimo dva tipa umetne inteligence: umetno inteligenco v ožjem pomenu (angl. narrow artificial intelligence) in umetno inteligenco v splošnem pomenu (angl. general artificial intelligence). V prvem primeru gre za zmožnost izvajanja točno določenih nalog, v drugem pa za zmožnost izvajanja vseh intelektualnih nalog, ki jih je sposoben opraviti človek.

    2.3

    V zadnjem času je bil pri umetni inteligenci v ožjem pomenu dosežen velik napredek, predvsem zaradi povečanja računalniške moči (angl. computer processing power), razpoložljivosti velikih količin podatkov in razvoja strojnega učenja. Pri strojnem učenju se lahko algoritmi naučijo samostojnega izvajanja točno določenih nalog, ne da bi bili zanje programirani. Ta postopek temelji na obdelavi učnih podatkov, s pomočjo katerih se algoritem nauči prepoznavati vzorce in določati pravila. Pri globokem učenju (angl. deep learning) kot vrsti strojnega učenja se uporabljajo strukture (nevronske mreže), ki se zgledujejo po nekaterih funkcijah človeških možganov, v katerih učenje poteka na podlagi izkušenj in povratnih informacij. To sistemom umetne inteligence omogoča, da so (s pomočjo algoritmov) zdaj lahko samostojni, prilagodljivi in sposobni samodejnega učenja.

    2.4

    Raziskave in razvoj na področju umetne inteligence so že nekaj časa osredotočeni na logično sklepanje, pridobivanje znanja, načrtovanje, komuniciranje in zaznavanje (vidno, slušno in čutno). Zato je bilo mogoče razviti številne načine uporabe na osnovi umetne inteligence: virtualne pomočnike, samovozeče avtomobile, samodejno združevanje informacij, prepoznavanje glasu, programsko opremo za prevajanje, programsko opremo za pretvorbo besedila v govor, avtomatizirane finančne transakcije, e-odkrivanje (angl. e-discovery) v sodstvu itd.

    2.5

    EESO ugotavlja, da sta se raznovrstnost uporabe in obseg vlaganj v umetno inteligenco v zadnjem času skokovito povečala. Trg umetne inteligence je trenutno vreden približno 664 milijonov USD in naj bi do leta 2025 po ocenah dosegel 38,8 milijarde USD.

    3.   Pozitivni vidiki umetne inteligence in tveganja

    3.1

    Praktično nihče ne dvomi, da lahko ima umetna inteligenca za družbo številne prednosti. Pomislimo samo na vrste uporabe, ki bi omogočile bolj trajnostno kmetijstvo, večjo varnost na cesti, trdnejši finančni sistem, okolju prijaznejše proizvodne procese, napredek v medicini, večjo varnost na delovnem mestu, bolj posamezniku prilagojeno izobraževanje, boljše sodstvo in varnejšo družbo. Umetna inteligenca bi lahko celo pripomogla k izkoreninjenju bolezni in revščine, lahko pa tudi pomembno prispeva k rasti industrije in večji konkurenčnosti EU.

    3.2

    Tako kot vse prelomne tehnologije tudi umetna inteligenca prinaša nekatera tveganja in kompleksne strateške izzive na področju varnosti in možnosti nadzora, socialno-ekonomskih vidikov, etike, zasebnosti, zanesljivosti itd.

    3.3

    Smo v odločilni fazi določanja (okvirnih) pogojev tako za sedanji kot za prihodnji razvoj in uporabo umetne inteligence. Prednosti umetne inteligence bo mogoče dolgoročno uresničiti le, če bomo ustrezno rešili tudi izzive, ki so z njo povezani. Zato je treba izbrati ustrezne politike.

    (a)

    Etika

    3.4

    Z razvojem umetne inteligence se pojavljajo številna etična vprašanja. Kako avtonomna umetna inteligenca vpliva na našo osebno integriteto, našo avtonomijo, naše dostojanstvo, našo neodvisnost, našo enakost, našo varnost in našo svobodo pri odločanju? Kako naj poskrbimo, da bodo naši osnovni standardi, naše vrednote in človekove pravice vedno spoštovani in zagotovljeni?

    3.5

    Pri tem je velja omeniti, da se umetna inteligenca trenutno razvija v homogenem okolju, ki ga povečini sestavljajo mladi belci, zaradi česar se (hote ali nehote) razlike med kulturami in spoloma vnašajo v umetno inteligenco, zlasti ker se sistemi umetne inteligence učijo s pomočjo učnih podatkov. Zato je pomembno, da so ti podatki natančni, pa tudi kakovostni, raznoliki, dovolj poglobljeni in objektivni. Na splošno velja, da so podatki že sami po sebi objektivni, vendar to ne drži. Podatke je preprosto prikrojiti, prav tako so lahko tendenciozni, odražati utegnejo kulturne, spolne ali druge preference ali predsodke, lahko pa so celo napačni.

    3.6

    Sistemi umetne inteligence, ki so trenutno v razvoju, sami po sebi ne vsebujejo etičnih vrednot. Ljudje so tisti, ki jih morajo vgraditi vanje in v okolje, v katerem se uporabljajo. Razvoj, uvedba in uporaba sistemov umetne inteligence (tako javnih kot komercialnih) morajo biti zamejeni z našimi standardi, vrednotami, temeljnimi svoboščinami in človekovimi pravicami. EESO zato poziva k pripravi in vpeljavi enotnega etičnega kodeksa, ki bi se po vsem svetu uporabljal za razvoj, uvedbo in uporabo umetne inteligence.

    (b)

    Varnost

    3.7

    Uporaba umetne inteligence v resničnem življenju je nedvomno povezana z varnostnimi vprašanji. Razlikujemo lahko med notranjo in zunanjo varnostjo.

    Notranja varnost: ali je sistem umetne inteligence dovolj robusten, da bo (še naprej) ustrezno deloval? Ali je algoritem ustrezno programiran? Ali obstaja tveganje, da preneha delovati ali pride do hekerskega vdora? Ali je učinkovit? Ali je zanesljiv?

    Zunanja varnost: ali je uporaba sistema umetne inteligence v družbi popolnoma varna? Ali deluje popolnoma varno ne le v običajnih razmerah, temveč tudi v razmerah, ki so nepoznane, kritične ali celo nepredvidljive? Kako samoučljivost sistema vpliva na varnost, tudi v primeru, da se sistem uči še po začetku uporabe?

    3.8

    EESO meni, da se lahko sistemi umetne inteligence uporabljajo le, če ustrezajo posebnim zahtevam notranje in zunanje varnosti. Te zahteve bi morali skupaj opredeliti politični odločevalci, strokovnjaki za umetno inteligenco in varnost, podjetja in organizacije civilne družbe.

    (c)

    Preglednost, razumljivost, nadzorljivost in pojasnljivost dejanj

    3.9

    Pogoj za sprejemanje, pa tudi za trajnostni razvoj in uporabo umetne inteligence je, da je mogoče delovanje, dejanja in odločitve sistemov umetne inteligence razumeti, jih nadzirati in jih pojasniti, zlasti tudi za nazaj.

    3.10

    Dejanja in odločitve teh sistemov (na podlagi pametnih algoritmov) vse bolj vplivajo na vsakdanjik ljudi. Primer tega je uporaba umetne inteligence pri policijskem delu na podlagi informacij, pri ocenjevanju vlog za hipotekarne kredite ali v postopkih za prevzem tveganja v zavarovalništvu. Pri tem so razumljivost in nadzorljivost odločanja sistema umetne inteligence kakor tudi pojasnljivost njegovih dejanj bistvenega pomena.

    3.11

    Že zdaj so številni sistemi umetne inteligence za uporabnike zelo težko razumljivi, vse bolj pa to velja tudi za snovalce teh sistemov. Nerazumljive so postale zlasti nevronske mreže, ki so pogosto črne škatle (angl. black boxes), v katerih se odvijajo procesi (odločanja), zanje pa priročniki s pojasnili ne obstajajo.

    3.12

    EESO se zavzema za takšne sisteme umetne inteligence, ki bi bili pregledni, razumljivi in nadzorljivi, njihovo delovanje pa bi bilo mogoče pojasniti tudi za nazaj. Zato je treba določiti, katere odločevalske procese je mogoče zaupati sistemom umetne inteligence in za katere to ni mogoče, pa tudi v katerih primerih bi bilo treba dati prednost človeškemu posredovanju ali ga celo zahtevati.

    (d)

    Spoštovanje zasebnosti

    3.13

    Spoštovanje zasebnosti v sistemih umetne inteligence je vprašanje, ki vzbuja zaskrbljenost. V številne (potrošniške) izdelke je že vgrajen eden od sistemov umetne inteligence, na primer v gospodinjske aparate, igrače, avtomobile, pametne ure in zapestnice pa tudi pametne telefone. Vsi ti izdelki posredujejo podatke (pogosto osebne) oblačnim platformam proizvajalcev. Zaskrbljenost glede vprašanja ustrezne zaščite zasebnosti je toliko večja, ker je trgovanje s podatki, tj. prodaja podatkov, ki jih zbere proizvajalec, tretjim osebam, v polnem razmahu.

    3.14

    Z analiziranjem ogromnih količin (pogosto) osebnih podatkov, ki ga omogoča umetna inteligenca, je na številnih področjih (od poslovnih odločitev do volitev in referendumov) možno vplivati tudi na odločitve posameznika. Otroci so pri tem še posebej izpostavljeni. EESO izraža zaskrbljenost nad takšno uporabo umetne inteligence, katere izrecni namen je vplivati na vedenje in želje otrok.

    3.15

    Izogniti se je treba temu, da bi uporaba umetne inteligence v povezavi z osebnimi podatki omejevala dejansko ali občuteno svobodo posameznikov. V splošni uredbi EU o varstvu podatkov je določena okrepljena zaščita zasebnosti pri digitalno prenesenih osebnih podatkih. Zaradi razvoja na področju umetne inteligence je treba pozorno spremljati, ali je pri prenosu podatkov v praksi zadostno spoštovana ne le pravica posameznika do privolitve na podlagi seznanitve in do svobodne odločitve, ampak tudi pravica dostopati do prenesenih podatkov, jih spreminjati in preverjati.

    (e)

    Standardi in infrastruktura

    3.16

    Razviti je treba nove postopke standardiziranja, temelječe na širokem naboru standardov, s katerimi bi preverjali in potrjevali sisteme umetne inteligence. S tem bi lahko ocenjevali in nadzirali varnost, preglednost, razumljivost, pojasnljivost dejanj in etično odgovornost v sistemih umetne inteligence.

    3.17

    EESO priporoča, da EU razvije svojo infrastrukturo za umetno inteligenco, sestavljeno iz prosto dostopnih učnih okolij, ki zagotavljajo zasebnost, ter iz kakovostnega nabora podatkov za razvoj in učenje sistemov umetne inteligence. S spodbujanjem sistemov umetne inteligence, uradno potrjenih na evropski ravni, bi EU med drugim lahko pridobila (konkurenčno) prednost na svetovnem trgu. EESO priporoča, da se v zvezi s tem proučijo možnosti za evropsko certificiranje in označevanje sistemov umetne inteligence.

    (f)

    Vpliv na delo, zaposlovanje, delovne razmere in socialne sisteme

    3.18

    Ni enotnih stališč, kako hitro in v kakšnem obsegu bo prišlo do tega vpliva, vendar je jasno, da bo umetna inteligenca vplivala tako na obseg zaposlovanja kakor tudi na naravo in vrsto številnih delovnih mest, s tem pa tudi na socialne sisteme.

    3.19

    Brynjolfsson in McAfee (MIT) menita, da sedanji tehnološki napredek (vključno z umetno inteligenco) pomeni drugo dobo strojev. Vendar obstajata dve veliki razliki: (i) „stari“ stroji so predvsem nadomeščali fizično silo, medtem ko so današnji novi stroji nadomestek za intelektualne storitve in miselne sposobnosti, kar bodo občutili ne le nižje kvalificirani delavci, ampak tudi na višje izobraženi, in (ii) umetna inteligenca je tehnologija splošne rabe (angl. general purpose technology), ki sočasno vpliva na praktično vse sektorje.

    3.20

    Umetna inteligenca ima lahko velike prednosti pri opravljanju nevarnih, težavnih, izčrpavajočih, umazanih, neprijetnih, ponavljajočih ali nezanimivih dejavnosti. Vendar velja omeniti tudi to, da lahko naloge, ki jih lahko opravljamo rutinsko, kakor tudi obdelavo in analizo podatkov ter naloge, ki obsegajo predvsem načrtovanje in napovedovanje in jih pogosto opravljajo visoko kvalificirane osebe, vse bolj izvajajo sistemi umetne inteligence.

    3.21

    Vendar večina delovnih mest obsega več različnih dejavnosti. Zato se zdi malo verjetno, da bi umetna inteligenca ali roboti prevzeli vse poklicne zadolžitve nekega posameznika. Kljub temu se bo praktično ves svet soočil z avtomatizacijo dela teh zadolžitev. Čas, ki se bo s tem sprostil, bo mogoče nameniti drugim nalogam, če si bodo le javni organi in socialni partnerji za to ustrezno prizadevali. Pri tem je treba imeti v mislih, kako bi takšen razvoj utegnil vplivati na delavce in vodstveni kader, in spodbujati njihovo vključenost v ta proces, da ga bodo lahko še naprej obvladovali, ne pa postali njegove žrtve.

    3.22

    Nastala bodo tudi nova delovna mesta, vendar še ni mogoče napovedati, kakšna bodo, koliko jih bo in kako hitro bodo ustvarjena. Podjetja, kot sta Google in Facebook, uspejo z razmeroma majhnim številom zaposlenih ustvariti precejšnjo vrednost. Vendar pa nova delovna mesta niso vedno kakovostna. Zaskrbljeno se lahko vprašamo, ali z nadaljnjim razvojem umetne inteligence ne bodo kmalu ostala le še slabo plačana mala dela, ki jih bo opravljalo vse večje število fleksibilnih delavcev.

    3.23

    Umetna inteligenca bo vplivala ne le na obseg, ampak tudi na vrsto opravljenega dela. S sistemi umetne inteligence je mogoče na vse več načinov spremljati in nadzorovati delavce, kar utegne poseči v avtonomijo in spoštovanje zasebnosti. Že danes se delo pogosto določa in razdeljuje z algoritmi in brez človeškega posredovanja. To vpliva na vrsto dela in delovne razmere. Uporaba sistemov umetne inteligence lahko pomeni tudi tveganje, da bo prišlo do osiromašenja dejavnosti in izgube pomembnih kompetenc.

    3.24

    Še vedno drži, da nismo podrejeni tehnologiji. Javni organi in socialni partnerji imajo možnost določiti, kako se bo umetna inteligenca razvijala in uporabljala v poklicnih dejavnostih, in to možnost morajo v čim večji meri izkoristiti. Zato se ne smemo osredotočati le na to, kaj lahko dosežemo z umetno inteligenco, temveč se moramo ravno tako vprašati, kaj je človek sposoben narediti (ustvarjalnost, empatija, sodelovanje) in katere naloge želimo še naprej sami opravljati, iskati pa moramo tudi rešitve za boljše sodelovanje med človekom in strojem (komplementarnost).

    3.25

    Obogatena inteligenca (komplementarnost), pri kateri človek in stroj sodelujeta ter se medsebojno podpirata, je najbolj zanimiva vrsta uporabe umetne inteligence, saj govorimo o človeku skupaj s strojem namesto o človeku namesto stroja. Vendarle je soustvarjanje izjemnega pomena: delavci morajo biti vključeni v razvoj teh komplementarnih sistemov umetne inteligence, s čimer bi poskrbeli za njihovo učinkovitost ter ohranitev dovolj velike avtonomije in nadzora, ki je v rokah uporabnika (angl. human-in-command), zadovoljstva in veselja na delovnem mestu.

    (g)

    Izobraževanje in kompetence

    3.26

    Če želimo vsakomur omogočiti, da se prilagodi hitremu razvoju umetne inteligence, je treba nujno negovati digitalne kompetence ali omogočiti pridobitev novih. Evropska komisija s svojo koalicijo za digitalno pismenost in delovna mesta (angl. Digital Skills and Jobs Coalition) močno spodbuja razvoj digitalnih kompetenc. Vendar pisanje kode ali programiranje ne zanima vsakogar niti ni vsakdo zmožen opravljati ta poklic. Zato morajo biti politike in finančna sredstva osredotočeni tudi na izobraževanje in razvoj kompetenc na področjih, ki jih sistemi umetne inteligence ne bodo ogrozili (kot so naloge, kjer je posredovanje človeka na prvem mestu, kjer človek in stroj usklajeno delujeta ali ki jih ne želimo zaupati stroju).

    3.27

    Pri udejanjanju komplementarnosti človeka in umetne inteligence (obogatena inteligenca) je nujno za vse in od zgodnjega otroštva predvideti izobraževanje, ki bi omogočilo razumevanje odnosa do umetne inteligence in njene uporabe, s čimer bi lahko ohranili avtonomijo in nadzor v rokah uporabnika. Pri tem je treba učiti tudi etiko in spoštovanje zasebnosti, saj ima umetna inteligenca velik vpliv na teh področjih.

    (h)

    Dostopnost, socialna (ne)enakost, vključenost in razširjanje

    3.28

    Razvoj umetne inteligence in vseh elementov, ki so s tem povezani (razvojne platforme, podatki, poznavanje in strokovno znanje) je v glavnem v rokah petih velikih tehnoloških podjetij (Amazon, Google, Apple, Facebook in Microsoft). Ta podjetja so sicer naklonjena odprtemu razvoju umetne inteligence, nekatera med njimi tudi omogočajo dostop do svojih razvojnih platform umetne inteligence v odprtokodni obliki, vendar to ne bo dovolj, da bi zagotovili popoln dostop do sistemov umetne inteligence. Evropska unija, mednarodni odločevalci in civilnodružbene organizacije imajo pri tem odločilno vlogo, saj morajo poskrbeti, da bodo ti sistemi dostopni vsem, pa tudi da bo njihov razvoj potekal v odprtem okolju.

    3.29

    S tehnološkim razvojem, ki ga financira kapital, pri čemer inovacije koristijo predvsem njihovim lastnikom, se poslabšuje položaj dela v odnosu do kapitala. Tehnološki razvoj lahko povzroči tudi neenakost (dohodka) med posamezniki (na lokalni, regionalni in svetovni ravni). Umetna inteligenca utegne to usmeritev še utrditi.

    3.30

    Te usmeritve je treba pozorno spremljati in se nanje ustrezno odzvati. Nekateri se že zavzemajo za obdavčitev umetne inteligence, dividendo umetne inteligence ali za delitev lastništva sistemov umetne inteligence med delavce in naročnike. Vse večkrat se tudi omenja potreba po brezpogojnem temeljnem dohodku.

    3.31

    EESO je v enem od prejšnjih mnenj (1) omenil možnost digitalne dividende in njene pravične razdelitve, kar naj bi pozitivno vplivalo na rast. Za EESO je proučevanje teh rešitev zelo pomembno, pri čemer pa je treba poiskati pravično ravnotežje med razvojem umetne inteligence v korist človeka in morebitnimi negativnimi učinki teh rešitev. Prav tako se je treba izogniti moralnemu tveganju, da se odgovornost za sisteme umetne inteligence prenese na subjekt, ki nato ne bi mogel nositi te odgovornosti.

    (i)

    Zakonodaja in pravno urejanje

    3.32

    Umetna inteligenca ima velike posledice za sedaj veljavne zakonodajne določbe in predpise. Enota za presojo znanstvenih in tehnoloških možnosti (STOA) v Evropskem parlamentu je junija 2016 objavila pregled evropskih zakonodajnih aktov in predpisov, na katere bo vplival razvoj na področju robotike, kibernetsko-fizičnih sistemov in umetne inteligence. STOA je določila šest področij (promet, sistemi z dvojno rabo, civilne svoboščine, varnost, zdravje in energetika), na katerih bo EU morda morala spremeniti ali prilagoditi kar 39 uredb, direktiv, izjav in sporočil, pa tudi Listino EU o temeljnih pravicah. To oceno bi bilo treba opraviti hitro in odločno, EESO pa pri tem more in želi biti udeležen.

    3.33

    Vprašanje, komu bo naložena odgovornost za škodo, ki bi jo povzročili sistemi umetne inteligence, je tema številnih razprav, sploh kadar bi šlo za avtonomen sistem, ki se uči tudi po začetku uporabe. Evropski parlament je pripravil priporočila za civilnopravna pravila o robotiki, vključno s predlogom, naj se prouči možnost, da bi roboti dobili elektronsko osebnost (angl. e-personality), kar bi pomenilo, da bi lahko bili odškodninsko odgovorni za škodo, ki bi jo povzročili. EESO nasprotuje temu, da bi roboti ali umetna inteligenca in sistemi umetne inteligence dobili kakršno koli pravno osebnost, saj je s tem povezano nesprejemljivo moralno tveganje. Če bi bil omenjeni predlog uresničen, bi se popravljalni in preprečevalni učinki odškodninskega prava izgubili, kakor hitro proizvajalec ne bi več nosil tveganja odgovornosti, ker bi to prešlo na robota (ali sistem umetne inteligence). Poleg tega obstaja tveganje neprimerne rabe ali zlorabe takšne pravne oblike. Primerjava z omejeno odgovornostjo podjetij ni na mestu, saj je v primeru podjetij na koncu še vedno odgovorna fizična oseba. Pri tem je treba proučiti, v kolikšni meri sedanja zakonodaja, predpisi in sodna praksa na nacionalni in evropski ravni, ki urejajo odgovornost (za izdelke in tveganja) in lastno krivdo, ustrezno rešujejo to vprašanje in katere pravne rešitve bi bile mogoče, če temu ni tako.

    3.34

    Za opredelitev ustreznega zakonodajnega in regulativnega okvira na področju umetne inteligence je prav tako izjemno pomembno jasno določiti, česa je umetna inteligenca zmožna in česa ne, pa tudi, česa bi lahko bila zmožna na kratki, srednji in dolgi rok.

    3.35

    Umetna inteligenca se ne ozira na meje. Urejanje na regionalni ravni ne bo zadostovalo oziroma utegne celo imeti nezaželene učinke, zato je treba proučiti potrebo po svetovni ureditvi. EESO priporoča EU, naj ima zaradi svojega preizkušenega sistema standardov na področju izdelkov in varnosti, protekcionističnih teženj, ki se kažejo na drugih celinah, visoke ravni znanja v Evropi, sistema temeljnih pravic in družbenih vrednost, ki veljajo v Evropi, in tudi socialnega dialoga vodilno vlogo pri oblikovanju jasnih in splošno veljavnih strateških okvirov na področju umetne inteligence ter naj ta proces spodbuja na svetovni ravni.

    (j)

    Upravljanje in demokracija

    3.36

    Državljani bi lahko bili s pomočjo umetne inteligence bolj vključeni v javno upravljanje, prispevala pa bi lahko tudi k večji preglednosti pri političnem odločanju. EESO poziva EU in organe držav članic, naj umetno inteligenco za to tudi uporabljajo.

    3.37

    EESO izraža skrb zaradi ciljno naravnane uporabe sistemov umetne inteligence (v obliki pametnih algoritmov) za združevanje informacij, na primer v socialnih medijih, za katere se zdi, da so povzročili omejevanje informacij in povečali razkol v družbi (pomislimo na filtrne mehurčke (angl. filter bubbles) in lažne novice na Twitterju in Facebooku med ameriškimi volitvami).

    3.38

    Skrbijo ga tudi navedbe, da naj bi se sistemi umetne inteligence uporabljali za vplivanje na (volilno) vedenje državljanov. Pametni algoritmi naj bi omogočali predvidevanje izbire in vedenja ljudi ter njihovo usmerjanje. To ogroža odprto in pravično demokracijo. V sedanjih razmerah polarizacije in razgradnje mednarodnih institucij lahko tovrstna propagandna tehnologija, ki je natančna in zmogljiva, hitro še bolj razburka našo družbo. Tudi zato je treba razviti standarde za preglednost in nadzorljivost (pametnih) algoritmov.

    (k)

    Vojne razmere

    3.39

    Konvencija ZN o nekaterih vrstah klasičnega orožja je sklenila, da leta 2017 organizira razprave strokovnjakov na temo posledic avtonomnega orožja. EESO pozdravlja to odločitev in podpira poziv organizacije Human Rights Watch in drugih organizacij, da je treba prepovedati avtonomne oborožitvene sisteme. Odbor meni, da je treba to prepoved resno proučiti in vzeti v ozir. Vendar zgolj ustrezen odziv na možne vrste uporabe umetne inteligence v vojnih razmerah in spopadih ni dovolj. V navedeno posvetovanje v Združenih narodih je treba vključiti tudi uporabo umetne inteligence v kibernetskem vojskovanju.

    3.40

    Poleg tega se je treba izogniti temu, da bi se umetne inteligence polastile osebe ali režimi, ki bi jo lahko uporabili v teroristične namene.

    (l)

    Superinteligenca

    3.41

    Na koncu se postavlja vprašanje o možnostih in tveganjih, povezanih z razvojem superinteligence. Po besedah Stephena Hawkinga bo izpopolnitev umetne inteligence v njenem splošnem pomenu že pomenila konec človeštva. Po njegovem mnenju se bo takrat njen razvoj nadaljeval s hitrostjo, ki ji človek ne bo mogel slediti. Nekateri strokovnjaki zato priporočajo odklopno stikalo ali gumb za ponastavitev, ki bi omogočala odklop oziroma ponastavitev superinteligentne umetne inteligence ali umetne inteligence, ki bi ušla izpod nadzora.

    3.42

    EESO se zavzema za pristop, pri katerem je nadzor v rokah uporabnika, kar vključuje pogoj, da sta razvoj in uporaba umetne inteligence odgovorna in varna, pri čemer stroji ostajajo stroji, ki so pod stalnim nadzorom ljudi. Razprave o superinteligenci so torej pomembne, vendar trenutno zastirajo razpravo o posledicah aktualne uporabe umetne inteligence.

    4.   Umetna inteligenca v službi človeštva

    4.1

    Veliki komercialni akterji (kot je OpenAI) so že podali različne pobude za odprt, varen in družbeno odgovoren razvoj umetne inteligence. Vendar politični odločevalci te vloge ne morejo prepustiti podjetjem, ampak morajo prevzeti svoj del odgovornosti. Razmisliti je treba o ciljnih ukrepih in podpori, s čimer bi spodbudili raziskave o družbenih izzivih, povezanih z umetno inteligenco, ter o razvoju varnih in robustnih sistemov umetne inteligence.

    4.2

    Vsi programi EU, kot je Obzorje 2020, so primerni za reševanje tega izziva. EESO je ugotovil, da financiranje, zlasti iz stebra „družbeni izzivi“ programa Obzorje 2020, zaostaja za financiranjem iz drugih dveh stebrov, tj. „odlična znanost“ in „vodilni položaj v industriji“, in da je prišlo tudi do zmanjšanja teh sredstev. EESO poudarja, da je treba v sklopu stebra „družbeni izzivi“ veliko pozornosti nameniti raziskavam o velikih družbenih izzivih, pa tudi o uporabi umetne inteligence v družbene namene.

    4.3

    Ravno tako je treba obravnavati morebitne horizontalne učinke umetne inteligence. Poleg razvoja prelomnih inovacij na področju umetne inteligence je treba financirati raziskave o vplivu teh inovacij na družbo in načine, kako jih obravnavati.

    4.4

    Za raziskave in razvoj na področju umetne inteligence v službi človeštva so potrebni tudi pester nabor posebnih učnih in preizkusnih podatkov, ki bi bili javno dostopni, in okolja za preizkušanje v dejanskih razmerah. Infrastruktura za umetno inteligenco in veliko število posebnih podatkov sta zaenkrat na voljo le pri oziroma za peščico zasebnih akterjev, ovire pa preprečujejo preizkušanje umetne inteligence v javni sferi. To zavira uporabo umetne inteligence na drugih področjih. Priprava posebnih podatkov, ki bi bili splošno dostopni, in evropska infrastruktura za umetno inteligenco sta torej odločilni za varno, robustno in uporabno umetno inteligenco.

    5.   Nadziranje in ukrepanje

    5.1

    Obsežnega vpliva umetne inteligence na družbo še ni mogoče v celoti ovrednotiti, vendar je nesporno, da bo precejšen. Danes se umetna inteligence hitro razvija, zato je potreben kritičen in vseobsegajoč nadzor, da se bo mogoče ustrezno in pravočasno zavedeti odločilnih in prelomnih dogodkov, bodisi tehničnih bodisi družbenih, ki bi utegnili premešati karte pri razvoju umetne inteligence ali v zvezi z njim.

    5.2

    Na te odločilne tehnične spremembe je mogoče gledati kot na pomemben oziroma znaten napredek pri razvoju zmožnosti umetne inteligence, ki bi lahko bil predhodnica umetne inteligence v njenem splošnem pomenu. Odločilne spremembe na socialnem področju je mogoče povezovati z množično izgubo delovnih mest brez možnosti nadomestnih delovnih mest, prekarnimi razmerami, nedelovanjem sistema, nepredvidenim dogajanjem na mednarodnem prizorišču itd.

    5.3

    Politični odločevalci, industrija, socialni partnerji, potrošniki, nevladne organizacije, vzgojno-varstvene ustanove, pa tudi predstavniki univerz in strokovnjaki z različnih področij (kot so aplikativna ali neaplikativna umetna inteligenca, etika, varnost, ekonomija, znanost o delu, pravo, znanost o vedenju, psihologija in filozofija) morajo skupaj pozorno spremljati dogajanje na področju umetne inteligence in redno beležiti elemente, ki bi utegnili premešati karte na tem področju. Tako bi lahko pravočasno sprejeli ustrezne ukrepe v obliki politik, zakonodaje in predpisov, samoregulacije in socialnega dialoga.

    5.4

    EESO bo kot predstavnik evropske civilne družbe v prihodnje začel, povezoval in spodbujal razpravo o umetni inteligenci med različnimi deležniki.

    V Bruslju, 31. maja 2017.

    Predsednik Evropskega ekonomsko-socialnega odbora

    Georges DASSIS


    (1)  UL C 13, 15.1.2016, str. 161.


    Top