6.12.2018 |
SL |
Uradni list Evropske unije |
C 440/1 |
Mnenje Evropskega ekonomsko-socialnega odbora – Predvidevanje vpliva umetne inteligence na delo za pravičen prehod
(mnenje na lastno pobudo)
(2018/C 440/01)
Poročevalka: |
Franca SALIS-MADINIER |
Sklep plenarne skupščine |
15. 2. 2018 |
Pravna podlaga |
člen 29(2) poslovnika |
Pristojna strokovna skupina |
strokovna skupina za enotni trg, proizvodnjo in potrošnjo |
Datum sprejetja mnenja strokovne skupine |
4. 9. 2018 |
Datum sprejetja mnenja na plenarnem zasedanju |
19. 9. 2018 |
Plenarno zasedanje št. |
537 |
Rezultat glasovanja (za/proti/vzdržani) |
183/1/2 |
1. Sklepi in priporočila
1.1 |
Z umetno inteligenco in robotiko se bodo razširili in povečali učinki digitalizacije gospodarstva na trgih dela (1). Tehnični napredek že od nekdaj vpliva na delo in zaposlovanje, zato so potrebne nove oblike socialnega in družbenega upravljanja. EESO je prepričan, da lahko tehnološki razvoj prispeva h gospodarskemu in družbenemu napredku, vendar meni, da ne smemo spregledati njegovih globalnih učinkov na družbo. Na področju dela se bo z umetno inteligenco razširil in povečal obseg avtomatizacije delovnih mest (2). Zato želi EESO sodelovati pri pripravi na družbeno preobrazbo, ki bo spremljala razvoj umetne inteligence in robotike, s krepitvijo in prenovo evropskega socialnega modela. |
1.2 |
EESO želi poudariti potencial umetne inteligence in njenih načinov uporabe, zlasti na področjih zdravstvenega varstva, varnosti v prometu in oskrbi z energijo, boja proti podnebnim spremembam in predvidevanju groženj za kibernetsko varnost. Evropska unija, vlade in organizacije civilne družbe imajo pomembno vlogo pri zagotavljanju, da se prednosti umetne inteligence v celoti izkoristijo, zlasti ko gre za invalide, osebe z omejeno mobilnostjo, starejše ljudi in kronične bolnike. |
1.3 |
Vendar pa EU primanjkuje podatkov o digitalnem gospodarstvu in družbenih spremembah, ki jo ta povzroča. EESO priporoča izboljšanje statističnih orodij in raziskav, zlasti na področju umetne inteligence, uporabe industrijskih in storitvenih robotov, interneta stvari in novih poslovnih modelov (gospodarstvo platform, nove oblike zaposlovanja in dela). |
1.4 |
EESO poziva Evropsko komisijo, naj spodbuja in podpre študije, ki jih izvajajo evropski odbori za sektorski socialni dialog o učinkih umetne inteligence in robotike ter nasploh digitalizacije gospodarstva na posamezne sektorje. |
1.5 |
Splošno znano je, da se bodo z umetno inteligenco in robotiko delovna mesta spremenila in preoblikovala, pri čemer bodo nekatera od njih ukinjena, hkrati pa bodo nastajala nova. V vsakem primeru mora EU zagotoviti, da imajo vsi delavci, tako zaposleni kot samozaposleni ali navidezno samozaposleni, dostop do socialne zaščite v skladu z evropskim stebrom socialnih pravic. |
1.6 |
Komisija je predlagala okrepitev Evropskega sklada za prilagoditev globalizaciji, zlasti v korist zaposlenim, ki izgubljajo službe, ter samostojnim podjetnikom, ki zaradi digitalizacije gospodarstva (3) ukinjajo svojo dejavnost. EESO v tem vidi korak k vzpostavitvi pravega evropskega sklada za prehod, ki bi prispeval k družbeno odgovornemu upravljanju digitalne preobrazbe. |
1.7 |
EESO priporoča izvajanje in okrepitev načel, zavez in obveznosti iz obstoječih besedil, ki so jih sprejele evropske institucije in socialni partnerji o obveščanju delavcev in posvetovanju z njimi, zlasti pri uvajanju novih tehnologij, kot sta umetna inteligenca in robotika (4). EESO poziva k vzpostavitvi vključujočega evropskega programa za umetno inteligenco, ki bi temeljil na teh besedilih in na evropskem stebru socialnih pravic ter vključeval vse zainteresirane strani. |
1.8 |
EESO priporoča, naj etične smernice na področju umetne inteligence, ki jih bo pripravila Komisija, zarišejo jasno mejo interakcije med delavci in pametnimi stroji, da človek nikoli ne bo postal podrejen stroju. Takšne smernice morajo v duhu vključujoče umetne inteligence določati načela sodelovanja, odgovornosti, polaščanja proizvodnih procesov, da bi, kot je poudarjeno v ustanovni listini MOD, delo delavcem prinašalo zadovoljstvo, da lahko pokažejo vse svoje spretnosti in znanja ter prispevajo k splošnemu dobremu počutju. |
1.9 |
EESO priporoča tudi, naj te smernice vključujejo načela preglednosti pri uporabi sistemov umetne inteligence za zaposlovanje, ocenjevanje in vodstveni nadzor delavcev, kakor tudi načela zdravja in varnosti ter izboljšanja delovnih pogojev. Poleg tega morajo zagotavljati zaščito pravic in svoboščin pri obdelavi podatkov o zaposlenih, ob spoštovanju načel nediskriminacije. |
1.10 |
Izvajanje etičnih smernic na področju umetne inteligence je treba spremljati. Vlogo spremljanja ali nadzora, tudi v podjetjih, bi lahko prevzel evropski observatorij za etiko v sistemih umetne inteligence. |
1.11 |
EESO priporoča, da se inženirje ter načrtovalce pametnih strojev seznani z etičnimi načeli, da bi preprečili uvajanje novih oblik „digitalnega taylorizma“, v katerem bi ljudje samo sledili navodilom strojev. Spodbujati je treba širjenje dobrih praks in izmenjavo izkušenj na tem področju. |
1.12 |
EESO poziva k pojasnitvi načela pravne odgovornosti. Nastajajoča zdravstvena in varnostna tveganja v razmerju med človekom in strojem je treba obravnavati bolj ambiciozno v okviru direktive o odgovornosti za proizvode (5). |
1.13 |
Zaradi nevarnosti družbene polarizacije ob digitalni preobrazbi EESO poziva institucije EU, naj začnejo razpravo o vprašanju financiranja javnih proračunov in sistemov socialne zaščite v gospodarstvu, v katerem se povečuje število robotov (6), saj je davek na delo še vedno glavni vir davčnih prihodkov v Evropi. Da bi se upoštevalo načelo pravičnosti, bi bilo treba v okviru te razprave obravnavati vprašanje prerazporeditve koristi digitalizacije. |
2. Uvod
2.1 |
Razvoj umetne inteligence je bil od nastanka tega koncepta leta 1956 in v vsej drugi polovici dvajsetega stoletja neenakomeren. Izmenjevala so se obdobja velikih upov in razočaranj. Toda zadnjih nekaj let umetna inteligenca doživlja nov velik vzpon, ki je mogoč zaradi zbiranja, organizacije in shranjevanja doslej največje količine podatkov (velepodatkov) v zgodovini človeštva in eksponentnega povečanja zmogljivosti računalnikov in algoritmov. |
2.2 |
EESO je leta 2017 pripravil mnenje o umetni inteligenci (7), v katerem je obravnaval več izzivov in poudaril, da ni natančne opredelitve umetne inteligence. V okviru tega mnenja štejemo umetno inteligence za disciplino, katere cilj je uporaba digitalnih tehnologij za ustvarjanje sistemov, ki bodo sposobni samostojno reproducirati človeške kognitivne funkcije, vključno s pridobivanjem podatkov, za obliko razumevanja in prilagajanja (reševanje problemov, avtomatsko sklepanje in učenje). |
2.3 |
Sistemi umetne inteligence so danes sposobni reševati kompleksne probleme, ki včasih celo presegajo sposobnosti človeške inteligence. Umetno inteligenco je očitno mogoče uporabljati na nešteto načinov, in sicer v sektorju bančništva, zavarovalništva, prometa, zdravstva, izobraževanja, energetike, trženja in obrambe, pa tudi v industrijskih sektorjih, gradbeništvu, kmetijstvu, obrtništvu itd. (8). Z umetno inteligenco naj bi se izboljšala učinkovitost postopkov proizvodnje blaga in storitev, povečala donosnost podjetij in spodbujala gospodarska rast. |
2.4 |
Ta nov vzpon umetne inteligence ponovno sproža tudi veliko vprašanj o njeni potencialni vlogi v družbi, stopnji avtonomije in interakciji s človekom. Kot je EESO poudaril v svojem mnenju o umetni inteligenci iz leta 2017 (9), se ta vprašanja nanašajo zlasti na etiko, varnost, preglednost, spoštovanje zasebnosti, delovne standarde, izobraževanje, dostopnost, zakonodajo in pravno urejanje, upravljanje in demokracijo. |
2.5 |
V razpravi o umetni inteligenci je treba uporabiti različne pristope, da se presežejo zgolj gospodarski vidiki, na katere je včasih ta razprava omejena. Tak večdisciplinarni okvir bi bil koristen pri analizi učinkov umetne inteligence na svet dela, saj je to eno od glavnih področij interakcije med človekom in strojem. Tehnika je od nekdaj vplivala na delo. Učinkom umetne inteligence na delovna mesta in delo je zato treba nameniti posebno pozornost na politični ravni, saj morajo institucije zagotoviti, da bo proces ekonomskih sprememb socialno vzdržen (10). |
2.6 |
Namen tega mnenja na lastno pobudo je predstaviti, kakšen učinek bo imela umetna inteligenca na delo, med drugim na naravo dela, delovne pogoje in organizacijo dela. Kot je EESO že poudaril (11), so potrebni boljši statistični podatki in raziskave za izdelavo podrobnih poročil o napovedih glede razvoja trgov dela in jasni kazalniki o nekaterih trendih, zlasti v zvezi s kakovostjo dela, polarizacijo dela in dohodkov ter delovnimi razmerami v okviru digitalne preobrazbe. EU nima dovolj podatkov o tako imenovanem sodelovalnem gospodarstvu, platformah za delo na zahtevo, novih modelih oddaje naročil podizvajalcem prek spleta, pa tudi o uporabi industrijskih in storitvenih robotov, internetu stvari ter uporabi in razširjanju sistemov umetne inteligence. |
3. Umetna inteligenca in spremembe števila delovnih mest
3.1 |
Vprašanje vpliva uvedbe umetne inteligence in robotike v različnih proizvodnih postopkih na število delovnih mest je zelo kontroverzno. To vprašanje je bilo obravnavano v več študijah, vendar znanstveno soglasje ni bilo doseženo. Razlike v rezultatih (od 9 % do 54 % ogroženih zaposlitev (12)) odražajo kompleksnost metodoloških odločitev in njihov odločilen vpliv na rezultate raziskav. |
3.2 |
Napovedovanje prihodnosti je negotovo, saj na razvoj poleg tehničnih možnosti za avtomatizacijo vplivajo tudi drugi dejavniki: politične, regulativne, ekonomske in demografske spremembe, pa tudi družbena sprejemljivost. Zgolj razpoložljivost tehnologije še ne pomeni, da se bo tehnologija tudi uporabljala in razširila. |
3.3 |
Še vedno je nemogoče napovedati končno število delovnih mest, ki jih je mogoče avtomatizirati v vsakem od sektorjev, ne da bi pri tem upoštevali preoblikovanje delovnih mest in hitrost ustvarjanja novih delovnih mest. Razvoj sistemov umetne inteligence bo dejansko zahteval nova delovna mesta v inženirstvu, informatiki in telekomunikacijah (inženirji, tehniki in operaterji) ter na področju velepodatkov: pooblaščene osebe za varstvo podatkov, podatkovni analitiki, iskalci podatkov itd. |
3.4 |
Vloga javnih organov bo zagotoviti socialno vzdržnost te digitalne preobrazbe, ki bo lahko vplivala tako na število kot na kakovost delovnih mest (13). Eno od tveganj, ki so jih izpostavili strokovnjaki, je polarizacija delovnih mest, pri čemer bi bili na eni strani nekateri zelo uspešni, ker bi imeli kvalifikacije, potrebne v digitalnem gospodarstvu, na drugi strani pa bi bili nekateri v slabšem položaju, saj bodo njihove kvalifikacije, izkušnje in znanje zaradi te preobrazbe zastareli. Evropska komisija v svojem nedavnem sporočilu (14) predlaga odziv na ta izziv, ki se osredotoča na izobraževanje, usposabljanje ter izboljšanje osnovnih veščin pisanja, branja in računanja ter digitalnih spretnosti. Ta odziv morajo podpreti vsi ekonomski in socialni akterji, predvsem v okviru socialnega dialoga na nacionalni, evropski, medpanožni in sektorski ravni (15). |
3.5 |
Vendar EESO meni, da takšna prizadevanja ne bodo dovolj za odziv na vse izzive, zlasti na negotovost pri razvoju delovnih mest. Proučiti je treba tri dodatne možnosti: možnost vključujoče umetne inteligence, možnost predvidevanja sprememb in možnost družbeno odgovornega in nadzorovanega prestrukturiranja, kadar so socialni načrti nujni. |
4. Vključujoča in pametna umetna inteligenca in robotika
4.1 |
EESO podpira načelo programa vključujoče umetne inteligence in robotike. To pomeni, da bi bilo ob vsaki uvedbi novih postopkov z uporabo novih tehnologij v podjetjih koristno delavce uvesti v načine njihovega delovanja. Kot navaja WRR (16), vključujoče in pametno uvajanje novih tehnologij, kjer delavci ostanejo v središču procesov in jih pomagajo izboljšati, lahko pripomore k izboljševanju proizvodnih procesov (17). |
4.2 |
Glede na vlogo algoritmov pri pogojih zaposlovanja, dela in poklicnega ocenjevanja EESO podpira načelo algoritemske preglednosti, pri kateri ne gre za razkrivanje kod, temveč za razumljivost parametrov in meril pri sprejemanju odločitev. Vedno mora obstajati možnost, da človek poseže vmes. |
4.3 |
Umetna inteligenca, ki se osredotoča na delavca, upošteva mnenja ljudi, ki se bodo srečevali z novimi tehnološkimi procesi, jasno opredeljuje naloge in odgovornosti, ki bodo še vedno dodeljene delavcem, ter ohranja nekatere oblike odgovornosti delavcev za delo, da ti ne bi postali zgolj izvajalci del. |
4.4 |
Pojasniti je treba načelo pravne odgovornosti. Industrijski ali storitveni roboti vse pogosteje sodelujejo s človekom. Umetna inteligenca robotom omogoča, da „stopijo iz svojih kletk“, kar lahko privede do nesreč (18). Zato je treba jasno določiti odgovornost avtonomnih sistemov v primeru nesreče in zagotoviti, da so krita tveganja za zdravje in varnost delavcev. Evropska komisija začenja razmislek o nastajajočih tveganjih v okviru direktive o odgovornosti za proizvode (19). Ta pristop bi moral biti še bolj ambiciozen, ko gre za varnost pri delu. |
4.5 |
Načelo pravičnosti, ki se uporablja za svet dela, pomeni, da se delavca ne odtuji od dela. Nekateri strokovnjaki poudarjajo, da umetna inteligenca prispeva k neke vrste izgubi kvalifikacij delavcev. Zato je treba skrbeti, da, kakor je zapisano v ustanovni listini MOD, delo delavcem prinaša zadovoljstvo, da lahko pokažejo vse svoje spretnosti in znanja ter prispevajo k splošnemu dobremu počutju. Z vidika vodstva je to tudi način, da delavci ostanejo motivirani. |
5. Predvidevanje sprememb
5.1 |
V zadnjih letih je bila v številnih študijah ugotovljena slabitev evropskega – in celo nacionalnega – socialnega dialoga, čeprav si Komisija in Evropski svet prizadevata za njegovo oživitev. Vseeno je ta socialni dialog eno izmed najučinkovitejših orodij za soočanje s socialnimi izzivi digitalizacije. Zato EESO odločno poziva, naj bo v podjetjih in na vseh ustreznih ravneh ta dialog stalna praksa, da bi se lahko pripravili na spremembe na družbeno sprejemljiv način. EESO poudarja, da je socialni dialog eno od najboljših zagotovil za socialni mir in zmanjšanje neenakosti. Poleg političnih zavez o oživitvi socialnega dialoga imajo institucije EU jasno nalogo, da ta dialog spodbujajo in gojijo. |
5.2 |
Zlasti pri uvajanju teh tehnologij mora ta dialog omogočiti, da se ugotovi, kako se bodo spremenili proizvodni procesi v podjetjih in sektorjih, ter oceni, katere nove spretnosti in usposabljanje bodo potrebni. To bi morala biti tudi priložnost, da zgodaj preučimo, kako je mogoče umetno inteligenco uporabiti za izboljšanje organizacijskih in proizvodnih procesov ter povečati usposobljenost delavcev in kako se lahko sredstva, pridobljena z umetno inteligenco, optimizirajo, da se omogoči razvoj novih izdelkov in storitev ali izboljša kakovost storitve za stranke. |
5.3 |
Družbeno odgovorno prestrukturiranje |
5.4 |
Kadar se presodi, da so socialni načrti nujni, je izziv upravljati socialni vpliv prestrukturiranja podjetij. Kot so poudarili evropski socialni partnerji v svojih smernicah za obvladovanje sprememb in njihovih družbenih posledic (20), so številne študije primerov pokazale, da je treba poiskati vse možne alternative odpuščanju delavcev, kot so usposabljanje, preusposabljanje in podpora za ustanavljanje podjetij. |
5.5 |
V primeru prestrukturiranj morata obveščanje delavcev in posvetovanje z njimi v skladu z evropskimi direktivami, ki se na to nanašajo (21), omogočati boljše predvidevanje tveganj, lažji dostop delavcev do usposabljanja v podjetju, prožnejšo organizacijo dela, obenem pa ohranjanje varnosti ter spodbujanje vključevanja delavcev v delovanje in prihodnost podjetja. |
5.6 |
Kot pravilno ugotavlja Evropska komisija, mora EU v vsakem primeru zagotoviti, da imajo v skladu z evropskim stebrom socialnih pravic vsi delavci, tako zaposleni kot samozaposleni ali navidezno samozaposleni, dostop do socialne zaščite„ne glede na vrsto ali trajanje zaposlitvenega razmerja“ (22). |
6. Umetna inteligenca in spremembe delovnih razmer
6.1 |
Evropska komisija je 25. aprila 2018 predlagala evropski pristop k spodbujanju naložbenih politik pri razvoju umetne inteligence in oblikovanju etičnih smernic. Poudarja, da bi lahko tehnologije umetne inteligence korenito spremenile našo družbo, zlasti v sektorjih prometa, zdravstvenega varstva in proizvodnje. |
6.2 |
Ta preobrazbeni potencial vpliva na proizvodne procese in naloge, povezane z delom. Učinek je lahko pozitiven, zlasti kar zadeva način, kako se lahko z umetno inteligenco izboljšajo ti procesi in kakovost dela. Enak pozitiven učinek se lahko odraža tudi v „prilagodljivi“ organizaciji dela, pri čemer je najpomembnejše skupno odločanje, neodvisno organiziranih skupinah, delavcih, ki opravljajo različne naloge, horizontalni strukturi upravljanja ter inovativnih in participativnih praksah (23). |
6.3 |
Kot poudarjata EESO (24) in Komisija, lahko umetna inteligenca pomaga delavcem pri opravljanju ponavljajočih se, napornih ali celo nevarnih nalog, nekateri načini uporabe umetne inteligence pa lahko izboljšajo dobro počutje zaposlenih in olajšajo njihovo življenje. |
6.4 |
Vendar ta pristop sproža nova vprašanja, zlasti kar zadeva interakcijo med umetno inteligenco in delavci ter razvoj nalog, povezanih z delom. Do katere mere bodo pametni stroji v tovarnah, podjetjih in pisarnah avtonomni in kako bodo dopolnjevali delo, ki ga opravljajo ljudje? EESO je poudaril, da je bistveno opredeliti odnos med človekom in strojem v novem svetu dela. Pristop, da ima človek nadzor nad strojem, je temeljnega pomena (25). |
6.5 |
Načeloma ni etično sprejemljivo, da bi človeka nadzirala umetna inteligenca ali da bi stroj človeku odrejal, kaj mora narediti ter kako in kdaj je treba izvesti določene naloge, vendar se včasih zdi, da smo že prestopili to etično mejo (26). Zato je to mejo treba jasno določiti v etičnih smernicah na področju umetne inteligence. |
6.6 |
Izogibanje novim oblikam „digitalnega taylorizma“, ki jih uvajajo razvijalci pametnih strojev, mora biti prednostna naloga EU. Kot je nedavno potrdil EESO, morajo evropski raziskovalci, inženirji in podjetniki, ki sodelujejo pri razvoju in trženju sistemov umetne inteligence, upoštevati merila etične in družbene odgovornosti. K izpolnitvi te zahteve bi lahko prispevali z vključitvijo etike in humanistike v učni načrt za usposabljanje inženirjev (27). |
6.7 |
Drugo vprašanje se nanaša na nadzor in spremljanje, ki ju izvaja vodstvo. Vsi se strinjajo, da je potreben razumen nadzor nad proizvodnimi procesi in s tem tudi nad opravljenim delom. Trenutno bi lahko nova tehnološka orodja omogočila uvedbo pametnih sistemov za celovito spremljanje delavcev v realnem času, pri čemer pa bi lahko ta nadzor in spremljanje postala nesorazmerna. |
6.8 |
Zato je treba vprašanje razumnosti in sorazmernosti spremljanja opravljenega dela in kazalnikov uspešnosti ter vzajemnega zaupanja med vodstvenimi delavci in podrejenimi vključiti tudi na dnevni red socialnega dialoga na nacionalni, evropski, medpanožni in sektorski ravni. |
6.9 |
Še vedno je veliko polemik povezanih z vprašanjem pristranskosti algoritmov in podatkov za učenje morebitnih škodljivih učinkov diskriminacije. Nekateri menijo, da bi lahko algoritmi in druga napovedna kadrovska programska oprema zmanjšali diskriminacijo, povezano z zaposlovanjem, in spodbudili „pametnejše“ zaposlovanje, drugi pa menijo, da bi kadrovska programska oprema vedno lahko odražala, čeprav nenamerno, pristranskost ljudi, ki so programirali te zaposlovalne robote. Po mnenju nekaterih strokovnjakov bodo algoritmični modeli vedno zgolj mnenja, izražena s pomočjo matematike (28). Zato je nujno zagotoviti možnosti vplivanja človeka (v zvezi s prej omenjenim načelom preglednosti: človek mora imeti pravico, da določi merila, na podlagi katerih se sprejemajo odločitve) ter zbiranja in obdelave podatkov v skladu z načeloma sorazmernosti in namena. Podatki se v nobenem primeru ne smejo uporabljati za noben drug namen kot za namen, za katerega se zbirajo (29). |
6.10 |
Možnost, ki jo imajo države članice na voljo v skladu s splošno uredbo o varstvu osebnih podatkov, da lahko v zakonu ali kolektivnih pogodbah določijo podrobnejša pravila za zagotovitev varstva pravic in svoboščin v zvezi z obdelavo osebnih podatkov zaposlenih v okviru zaposlitve, je resničen vzvod, ki ga morajo države in socialni partnerji uporabiti (30). |
6.11 |
Poudariti je treba, da tem nevarnostim niso izpostavljeni samo zaposleni. Razvoj oddaje naročil podizvajalcem prek spleta, platformnega dela in različnih oblik delegiranja dela internetni množici je povezan z novimi avtomatiziranimi sistemi za upravljanje uspešnosti in prisotnosti, ki včasih očitno prestopijo etično mejo (na primer aktiviranje spletne kamere delavca, ki dela prek platforme, in zajemanje posnetkov zaslona na daljavo itd.). |
6.12 |
Algoritmi, ki jih uporabljajo te platforme in ki med drugim določajo plačilo samozaposlenih delavcev, njihov spletni ugled in možnosti dostopa do dela, so pogosto nejasni. Delavci ne vedo, kako delujejo algoritmi, in niso seznanjeni z merili, ki določajo delovanje teh algoritmov. |
7. Postavitev temeljev za pravičen prehod
7.1 |
Srednjeročno je zaradi nevarnosti socialne polarizacije, na katero so opozorili številni strokovnjaki, potreben temeljit razmislek o prihodnosti naših socialnih modelov, vključno z njihovim financiranjem. Zato EESO poziva Komisijo, naj začne razpravo o vprašanju obdavčitve in financiranja javnih proračunov in kolektivnih sistemov socialne zaščite v gospodarstvu, v katerem se povečuje število robotov (31), čeprav je davek na delo še vedno glavni vir davčnih prihodkov v Evropi. V okviru te razprave bi bilo treba obravnavati tudi vprašanje prerazporeditve koristi digitalizacije. |
7.2 |
Komisija je predlagala okrepitev Evropskega sklada za prilagoditev globalizaciji, da bi, med drugim koristil zaposlenim, ki bodo izgubili službe, ter samostojnim podjetnikom, ki ukinjajo svojo dejavnost zaradi digitalizacije gospodarstva (32) (digitalizacija, avtomatizacija). EESO v tem vidi korak k vzpostavitvi pravega evropskega sklada za prehod, ki lahko prispeva k predvidevanju in družbeno odgovornemu upravljanju digitalne preobrazbe ter prestrukturiranj, ki jih bo ta prinesla. |
7.3 |
Nacionalne razprave se vedno bolj osredotočajo na socialne in širše družbene vidike umetne inteligence. V nedavnih razpravah v britanskem parlamentu (33) in francoskem senatu se je pokazalo, da je treba spodbujati etični pristop k umetni inteligenci, ki temelji na nekaterih načelih, kot so lojalnost, preglednost in jasna razlaga algoritemskih sistemov, etika in odgovornost pri uporabi umetne inteligence ter povečanje ozaveščenosti raziskovalcev in strokovnjakov glede možnosti zlorabe njihovih raziskovalnih ugotovitev. V Franciji je Cédric Villani objavil poročilo o tem, da je treba dati smisel umetni inteligenci (34). Več strokovnjakov z univerz Yale, Stanford, Cambridge in Oxford opozarja, da številne ranljivosti umetne inteligence še niso odpravljene, in opozarja, da jih je nujno treba predvideti, preprečiti in ublažiti (35). Podobno tudi raziskovalni sklad Quebeca (FRQ) že nekaj mesecev sodeluje z Univerzo v Montrealu pri projektu vzpostavitve observatorija na svetovni ravni o družbenem vplivu umetne inteligence in digitalizacije (36). |
7.4 |
Vse te pobude kažejo, da razprava o umetni inteligenci ne sme zajemati zgolj gospodarskih in tehničnih vidikov ter da je treba javno razpravo razširiti na vlogo, ki naj bi jo po mnenju družbe imela umetna inteligenca, tudi v svetu dela. Ta razprava bo omogočila, da se bomo izognili pastem „lažne dihotomije“ med popolnoma naivnim in optimističnim pogledom na umetno inteligenco in njenimi posledicami ter katastrofičnimi napovedmi (37). Začetek razprave na nacionalni ravni je koristen prvi korak, pri čemer ima tudi EU svojo vlogo, zlasti pri določanju etičnih smernic, ki jih je že začela pripravljati Komisija. |
7.5 |
Za izvajanje teh smernic bo moral biti odgovoren observatorij za etiko sistemov umetne inteligence. Zagotoviti moramo, da bodo umetna inteligenca in njeni načini uporabe spodbujali dobro počutje in krepitev vloge ljudi in delavcev ob ustreznem spoštovanju temeljnih pravic ter da ne bodo posredno ali neposredno prispevali k izgubi lastništva, znanja, kvalifikacij ali avtonomije. Načelo „človek za volanom“ povsod je treba uporabiti v praksi, tudi pri delu. |
7.6 |
To načelo se mora uporabljati tudi v drugih sektorjih, kot so zdravstvene storitve, ki so tesno povezane z življenjem, zdravjem, varnostjo in kakovostjo življenja ljudi. Samo s strogimi etičnimi pravili bo mogoče zagotoviti, da bodo delavci ter potrošniki, bolniki, stranke in drugi ponudniki storitev lahko kar najbolje izkoristili nove načine uporabe umetne inteligence. |
V Bruslju, 19. septembra 2018
Predsednik Evropskega ekonomsko-socialnega odbora
Luca JAHIER
(1) Acemoglu, D., Restrepo, P. (2018), Artificial Intelligence, Automation and Work (Umetna inteligenca, avtomatizacija in delo), delovni dokument NBER št. 24196, januar 2018. Glej tudi: Svet za zaposlovanje (2017), Automatisation, numérisation et emploi (Avtomatizacija, digitalizacija in zaposlovanje). (1. zvezek) (www.coe.gouv.fr).
(2) Acemoglu, D., op. cit.; Svet za zaposlovanje (2017), op. cit.
(3) COM(2018) 380 final.
(4) Direktiva 2002/14/ES; skupna izjava o nameri med UNICE, ETUC in CEEP o socialnem dialogu in novih tehnologijah, 1985; skupno mnenje socialnih partnerjev o novih tehnologijah, organizaciji dela in prilagodljivosti trga dela, 1991; referenčne smernice za obvladovanje sprememb in njihovih socialnih posledic, 2003.
(5) COM(2018) 246 final.
(6) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.
(7) UL C 288, 31.8.2017, str. 1.
(8) Glej zlasti: https://www.techemergence.com.
(9) UL C 288, 31.8.2017, str. 1.
(10) Eurofound (2018), Automation, digitalisation and platforms: Implications for work and employment (Avtomatizacija, digitalizacija in platforme: posledice za delo in zaposlovanje), Urad za publikacije Evropske unije, Luxembourg.
(11) UL C 13, 15.1.2016, str. 161.
(12) Frey in Osborne, 2013; Bowles, 2014; Arntz, Gregory in Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OCDE, 2017; glej tudi raziskovalno mnenje CCMI/136 (UL C 13, 15.1.2016, str. 161).
(13) http://www.oecd.org/fr/emploi/avenir-du-travail/.
(14) COM(2018) 237 final.
(15) UL C 367, 10.10.2018, str. 15.
(16) Nizozemski znanstveni svet za vladno politiko.
(17) https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda.
(18) Glej delo Evropske agencije za varnost in zdravje pri delu na področju „nastajajočih tveganj“ (https://osha.europa.eu/fr/emerging-risks). Po mnenju te agencije bi bilo treba ob upoštevanju teh sprememb ponovno pregledati sedanje pristope in tehnične standarde, katerih cilj je ščititi delavce pred nevarnostmi pri delu s sodelujočimi roboti.
(19) COM(2018) 246 final.
(20) Skupno besedilo UNICE, CEEP, UEAPME in CES, 16. oktober 2003.
(21) Direktiva 2002/14/ES o določitvi splošnega okvira za obveščanje in posvetovanje z delavci v EU.
(22) UL C 303, 19.8.2016, str. 54; UL C 173, 31.5.2017, str. 15; UL C 129, 11.4.2018, str. 7; UL C 434, 15.12.2017, str. 30.
(23) UL C 434, 15.12.2017, str. 30.
(24) UL C 367, 10.10.2018, str. 15.
(25) UL C 288, 31.8.2017, str. 1; UL C 367, 10.10.2018, str. 15.
(26) Več evropskih medijev je poročalo o delovnih razmerah v nekaterih logističnih centrih, kjer delavce v celoti nadzorujejo algoritmi, ki jim odrejajo, katere naloge morajo izvesti v določenih časovnih okvirih, in kjer se njihova uspešnost ocenjuje v realnem času.
(27) UL C 367, 10.10.2018, str. 15.
(28) Cathy O’Neil, doktorica znanosti na Harvardu in podatkovna znanstvenica: „modeli so mnenja, izražena s pomočjo matematike“ (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).
(29) Glej zlasti delo CNIL (državne komisije za informatiko in svoboščine) v Franciji (Kako človeku omogočiti nadzor? Etični izzivi algoritmov in umetne inteligence)
https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).
(30) Uredba (EU) 2016/679, člen 88.
(31) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.
(32) COM(2018) 380 final.
(33) https://www.parliament.uk/ai-committee.
(34) http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html.
(35) https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf.
(36) http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/.
(37) Acemoglu, D., op. cit. Glej tudi Eurofound 2018, Automation, digitalisation and platforms: Implications for work and employment, Urad za publikacije Evropske unije, Luxembourg, str. 23: „Tveganja zajemajo neupravičen optimizem, neupravičen pesimizem in zgrešena spoznanja“.