Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52018IE1473

    Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Mākslīgais intelekts: prognozēt tā ietekmi uz nodarbinātību, lai nodrošinātu taisnīgu pāreju” (pašiniciatīvas atzinums)

    EESC 2018/01473

    OV C 440, 6.12.2018, p. 1–7 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    6.12.2018   

    LV

    Eiropas Savienības Oficiālais Vēstnesis

    C 440/1


    Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Mākslīgais intelekts: prognozēt tā ietekmi uz nodarbinātību, lai nodrošinātu taisnīgu pāreju”

    (pašiniciatīvas atzinums)

    (2018/C 440/01)

    Ziņotāja:

    Franca SALIS-MADINIER

    Pilnsapulces lēmums

    15.2.2018.

    Juridiskais pamats

    Reglamenta 29. panta 2. punkts

    Atbildīgā specializētā nodaļa

    Vienotā tirgus, ražošanas un patēriņa specializētā nodaļa

    Pieņemts specializētās nodaļas sanāksmē

    4.9.2018.

    Pieņemts plenārsesijā

    19.9.2018.

    Plenārsesija Nr.

    537

    Balsojuma rezultāts

    (par/pret/atturas)

    183/1/2

    1.   Secinājumi un ieteikumi

    1.1.

    Mākslīgais intelekts un robotika paplašinās un pastiprinās ekonomikas digitalizācijas ietekmi uz darba tirgiem (1). Tehnikas progress vienmēr ir ietekmējis darbu un nodarbinātību, un tādēļ ir vajadzīgs jauna veida sociālais un sabiedriskais satvars. EESK ir pārliecināta, ka tehnoloģiju attīstība var veicināt ekonomikas un sociālo progresu. Tomēr Komiteja uzskata, ka būtu kļūdaini neņemt vērā vispārējo ietekmi uz sabiedrību. Darba vidē mākslīgais intelekts paplašinās un pastiprinās darbvietu automatizācijas ietekmi (2). Tāpēc EESK vēlas palīdzēt sagatavoties sociālajām pārmaiņām, ko radīs mākslīgā intelekta un robotikas izplatība, nostiprinot un atjaunojot Eiropas sociālo modeli.

    1.2.

    EESK vēlas uzsvērt mākslīgā intelekta un tā lietojumu radītās iespējas, jo īpaši tādās jomās kā veselības aprūpe, drošība transporta un enerģētikas nozarē, klimata pārmaiņu apkarošana un apdraudējuma prognozēšana kiberdrošības jomā. Eiropas Savienībai, valdībām un pilsoniskās sabiedrības organizācijām ir jāuzņemas svarīga loma, lai pilnībā izmantotu ieguvumus, ko mākslīgais intelekts var radīt personām ar invaliditāti, personām ar ierobežotām pārvietošanās spējām, kā arī gados veciem cilvēkiem un personām, kuras slimo ar hroniskām slimībām.

    1.3.

    Tomēr Eiropas Savienībā nav datu par digitālo ekonomiku un tās radītajām sociālajām pārmaiņām. EESK iesaka uzlabot statistikas rīkus un pētniecību, tostarp saistībā ar mākslīgo intelektu, rūpniecisko robotu un pakalpojumu izmantošanu, lietu internetu, kā arī jaunajiem ekonomikas modeļiem (platformu ekonomiku, jauniem nodarbinātības un darba veidiem).

    1.4.

    EESK aicina Eiropas Komisiju veicināt un atbalstīt pētījumus Eiropas nozaru sociālā dialoga komiteju līmenī par mākslīgā intelekta un robotikas un, plašākā nozīmē, ekonomikas digitalizācijas ietekmi uz nozarēm.

    1.5.

    Ir atzīts, ka mākslīgā intelekta un robotikas ietekmē tiks pārceltas un pārveidotas darbvietas, daļa darbvietu tiks likvidētas un radītas jaunas darbvietas. Jebkurā gadījumā Eiropas Savienībai ir jāgarantē visu darba ņēmēju – algoto darbinieku, pašnodarbināto un fiktīvi pašnodarbināto – piekļuve sociālajai aizsardzībai saskaņā ar Eiropas sociālo tiesību pīlāru.

    1.6.

    Komisija ierosinājusi nostiprināt Eiropas Globalizācijas pielāgošanās fondu, lai to varētu izmantot darba ņēmēji, kuri ekonomikas digitalizācijas dēļ zaudējuši darbu, un pašnodarbinātas personas, kuras šā paša iemesla dēļ ir pārtraukušas darbību (3). EESK skatījumā tas ir solis uz priekšu, lai izveidotu reālu Eiropas pārejas fondu, kas veicinātu sociāli atbildīgu digitālās pārveides pārvaldību.

    1.7.

    EESK iesaka piemērot un nostiprināt principus, saistības un pienākumus, kas noteikti pašreizējos ES iestāžu un sociālo partneru pieņemtajos dokumentos par darba ņēmēju informēšanu un konsultēšanu (4), jo īpaši jaunu tehnoloģiju, tostarp mākslīgā intelekta un robotikas, ieviešanas laikā. EESK vēlas, lai tiktu izstrādāta iekļaujoša Eiropas programma mākslīgā intelekta jomā, pamatojoties uz šiem dokumentiem un Eiropas sociālo tiesību pīlāru un iesaistot visas ieinteresētās personas.

    1.8.

    Gaidāmajās Komisijas izstrādātajās pamatnostādnēs par ētiku mākslīgā intelekta jomā EESK iesaka noteikt skaidru robežu darba ņēmēju un viedo mašīnu mijiedarbībā, lai cilvēks nekad nekļūtu par mašīnas kalpu. Saskaņā ar iekļaujoša mākslīgā intelekta ideju šajās pamatnostādnēs jānosaka principi, kas saistīti ar iesaistīšanos, atbildību, dalību ražošanas procesā, lai darbs strādājošajam radītu gandarījumu, ka viņš tajā var pilnībā izmantot savas prasmes un zināšanas un maksimāli veicināt kopējo labklājību, kā uzsvērts SDO konstitūcijā.

    1.9.

    EESK arī iesaka pamatnostādnēs iekļaut pārredzamības principus mākslīgā intelekta sistēmu izmantošanā darba ņēmēju nodarbināšanas, novērtēšanas un vadības veiktās kontroles nolūkā, kā arī veselības un drošības principus un darba apstākļu uzlabošanas principus. Turklāt jānodrošina, ka ar šīm pamatnostādnēm tiek aizsargātas tiesības un brīvības, kas saistītas ar darba ņēmēju datu apstrādi, ievērojot nediskriminēšanas principus.

    1.10.

    Ētikas pamatnostādņu īstenošanai mākslīgā intelekta jomā ir vajadzīga uzraudzība. Šādu funkciju, kas paredz ētikas jautājumu novērošanu vai uzraudzību mākslīgā intelekta sistēmās, tostarp uzņēmumā, varētu veikt Eiropas līmeņa novērošanas centrs.

    1.11.

    EESK iesaka apmācīt viedo mašīnu inženierus un projektētājus ētikas jautājumos, lai nepieļautu jaunus “digitālā teilorisma” veidus, kur cilvēks tikai izpilda mašīnu dotos norādījumus. Šajā jomā ir jāveicina labas prakses izplatīšana un pieredzes apmaiņa.

    1.12.

    EESK lūdz sīkāk skaidrot juridiskās atbildības principu. Cilvēka un mašīnas attiecībās ir vajadzīga tālejošāka pieeja jauniem riskiem veselības un drošības jomā saskaņā ar direktīvu par produktatbildību (5).

    1.13.

    Ņemot vērā sociālās polarizācijas risku digitālās pārveides jomā, EESK aicina ES iestādes sākt debates par valsts budžeta un sociālās aizsardzības sistēmu finansēšanu tādā ekonomikā, kur arvien plašāk izmanto robotiku (6), lai gan darbaspēka nodokļi joprojām ir galvenais nodokļu ieņēmumu avots Eiropā. Lai piemērotu taisnīguma principu, šādām debatēm būtu arī jāietver jautājums par digitalizācijas ieguvumu pārdalīšanu.

    2.   Ievads

    2.1.

    Kopš šā jēdziena rašanās 1956. gadā mākslīgais intelekts 20. gs. otrajā pusē ir attīstījies nevienmērīgi. Tas ir raisījis gan lielas cerības, gan sagādājis lielu vilšanos. Taču pēdējo gadu laikā tas atkal strauji attīstās, pateicoties tam, ka pirmo reizi cilvēces vēsturē ir savākts, organizēts un glabāts tik liels datu apjoms (big data) un ka strauji ir pieaugusi datoru skaitļošanas jauda un algoritmu spējas.

    2.2.

    EESK 2017. gadā sagatavoja atzinumu par mākslīgo intelektu (7), kurā skatīti vairāki problēmjautājumi. Minētajā atzinumā uzsvērts, ka nav precīzas mākslīgā intelekta definīcijas. Šajā atzinumā mākslīgais intelekts ir aplūkots kā nozare, kuras mērķis ir izmantot digitālās tehnoloģijas tādu sistēmu radīšanai, kas spēj autonomi reproducēt cilvēka kognitīvās funkcijas, tostarp datu uztveri, sava veida sapratni un pielāgošanos (problēmu atrisināšana, automātiska argumentācija un mašīnmācīšanās).

    2.3.

    Mākslīgā intelekta sistēmas mūsdienās spēj atrisināt sarežģītas problēmas, kas reizēm pārsniedz cilvēka intelekta spējas. Mākslīgajam intelektam, šķiet, ir potenciāli neskaitāmi pielietojuma veidi gan banku, apdrošināšanas, transporta, veselības aprūpes, izglītības, enerģētikas, mārketinga un aizsardzības nozarēs, gan arī rūpniecībā, būvniecībā, lauksaimniecībā, amatniecībā u. c. (8). No mākslīgā intelekta tiek gaidīta preču un pakalpojumu ražošanas procesa efektivitātes uzlabošana, uzņēmumu rentabilitātes stimulēšana un ekonomikas izaugsmes veicināšana.

    2.4.

    Šis jaunais mākslīgā intelekta progress rada arī vairākus jautājumus saistībā ar tā iespējamo lomu sabiedrībā, autonomijas pakāpi un mijiedarbību ar cilvēku. Kā uzsvērts 2017. gadā pieņemtajā EESK atzinumā par mākslīgo intelektu (9), šādi jautājumi konkrēti skar ētiku, drošību, pārredzamību, privātumu, darba standartus, izglītību, pieejamību, likumdošanu un regulējumu, pārvaldību un demokrātiju.

    2.5.

    Diskusijā par mākslīgo intelektu ir jāaplūko dažādas pieejas, lai debates neaprobežotos tikai ar ekonomikas nozari, kā tas reizēm mēdz notikt. Šāds daudzdisciplinārs satvars būtu lietderīgs, lai analizētu mākslīgā intelekta ietekmi uz darba vidi, jo cilvēka un mašīnas mijiedarbība galvenokārt notiek darbā. Tehnika vienmēr ir ietekmējusi darbu. Tādēļ mākslīgā intelekta ietekmei uz nodarbinātību un darbu ir jāpievērš īpaša uzmanība politiskā līmenī, jo iestāžu uzdevums ir panākt, lai darīt ekonomikas pārveides procesi būtu sociāli atbalstāmi (10).

    2.6.

    Šā pašiniciatīvas atzinuma mērķis ir noskaidrot, kāda būs mākslīgā intelekta ietekme uz darbu un tā raksturu, darba apstākļiem un darba organizāciju. EESK jau ir uzsvērusi (11), ka ir jāuzlabo statistika un pētniecība, lai varētu sagatavot precīzas prognozes par darba tirgu attīstību, kā arī skaidrus rādītājus par atsevišķām tendencēm, kas saistītas, piemēram, ar darba kvalitāti, darbvietu un ienākumu polarizāciju un darba apstākļiem digitālās pārveides periodā. Eiropas Savienībā nav datu par t. s. sadarbīgo ekonomiku, platformām darbam pēc pieprasījuma, jauniem modeļiem apakšuzņēmuma līguma slēgšanai tiešsaistē, ne arī par rūpniecisko robotu un personalizētu pakalpojumu izmantošanu, lietu internetu, mākslīgā intelekta sistēmu lietošanu un izplatīšanu.

    3.   Mākslīgais intelekts un nodarbinātības līmeņa attīstība

    3.1.

    Jautājums par to, kā mākslīgā intelekta un robotikas ieviešana ražošanas procesos ietekmēs nodarbinātības līmeni, ir pretrunīgs. Vairākos pētījumos mēģināts rast atbildi uz šo jautājumu, taču zinātniska vienprātība nav panākta. Pētījumu rezultātu daudzveidība (no 9 % līdz 54 % apdraudēto darbvietu (12)) atspoguļo sarežģīto metodoloģisko izvēli un tās noteicošo ietekmi uz pētījumu rezultātiem.

    3.2.

    Prognozes ir nenoteiktas, jo papildus automatizācijas tehniskajam potenciālam iedarbojas arī citi faktori: politiskās, regulatīvās, ekonomiskās un demogrāfiskās pārmaiņas, kā arī sociālā pieņemamība. Tas, ka tehnoloģija ir progresīva, vēl negarantē tās lietošanu un izplatīšanu.

    3.3.

    Visbeidzot, nav iespējams prognozēt automatizējamo darbvietu neto bilanci katrā nozarē, neņemot vērā profesiju pārveidošanos un jaunu darbvietu radīšanas tempu. Lai attīstītu mākslīgā intelekta sistēmas, būs nepieciešamas jaunas darbvietas inženierijas, informātikas un telekomunikāciju jomā (inženieri, tehniskie darbinieki un operatori), kā arī lielo datu (big data) jomā: datu speciālisti, datu analītiķi, datu pētnieki u. c.

    3.4.

    Publiskās pārvaldes iestāžu uzdevums būs nodrošināt, lai digitalizācija neradītu negatīvas sociālās sekas, kas var ietekmēt darbvietu skaitu un kvalitāti (13). Eksperti uzsvēruši, ka viens no riskiem ir darbvietu polarizācija starp “superzvaigznēm”, kam ir digitālajā ekonomikā noderīgas prasmes, un “zaudētājiem”, kuru prasmes, pieredze un zinātība digitalizācijas apstākļos pakāpeniski kļūs nevajadzīgas. Nesenajā paziņojumā (14) Eiropas Komisija ierosina uz šo problēmu reaģēt galvenokārt ar centieniem izglītības, apmācības, rakstīšanas, lasīšanas un rēķināšanas pamatprasmju, kā arī digitālo prasmju uzlabošanas jomā. Šiem centieniem ir vajadzīgs atbalsts no ekonomikas un sociālās jomas dalībniekiem valsts, Eiropas, starpnozaru un nozaru sociālā dialoga ietvaros (15).

    3.5.

    Tomēr EESK uzskata, ka šādi centieni nebūs pietiekami, lai reaģētu uz visām problēmām, īpaši nenoteiktību darbvietu attīstībā. Vajadzētu apsvērt trīs papildu risinājumus: “iekļaujošu” mākslīgo intelektu, pārmaiņu prognozēšanu un sociāli atbildīgu un definētu pārstrukturēšanu, ja sociālie plāni kļūst nenovēršami.

    4.   Iekļaujošs un vieds mākslīgais intelekts un robotizācija

    4.1.

    EESK atbalsta iekļaujoša mākslīgā intelekta un robotizācijas programmas principu. Tas nozīmē, ka ieviešot uzņēmumos jaunus procesus, kuros izmantotas jaunās tehnoloģijas, būtu lietderīgi iesaistīt darba ņēmējus šo procesu darbības noteikumos. Kā norāda WRR (16), iekļaujoša un vieda jauno tehnoloģiju ieviešana, kurā darba ņēmēji paliek procesu centrā un piedalās to uzlabošanā, var palīdzēt veicināt ražošanas procesu uzlabošanu (17).

    4.2.

    Tā kā algoritmi ietekmē darbā pieņemšanas, darba un profesionālā novērtējuma nosacījumus, EESK atbalsta algoritmu pārredzamības principu, kas nenozīmē neizpaust kodus, bet gan to, lai pieņemto lēmumu parametri un kritēriji būtu saprotami. Vienmēr jābūt iespējai izmantot cilvēku.

    4.3.

    Mākslīgais intelekts, kurā cilvēkam ir centrālā vieta, ņem vērā to personu viedokļus, kuriem būs jāstrādā jaunu tehnoloģisku procesu ietvaros, skaidri nosaka darba ņēmēju uzdevumus un pienākumus, saglabā darba ņēmēju līdzdalības veidus darbā, lai viņi nekļūtu tikai par izpildītājiem.

    4.4.

    Ir jāprecizē juridiskās atbildības princips. Rūpnieciskie vai pakalpojumu roboti arvien vairāk sadarbojas ar cilvēku. Mākslīgais intelekts ļauj robotiem “izkļūt no būra”, un var notikt negadījumi (18). Tāpēc ir skaidri jānosaka autonomo sistēmu atbildība negadījumā un jānodrošina, ka tiek segti riski, ar kuriem darba ņēmēji saskaras veselības un drošības jomā. Saistībā ar direktīvu par produktatbildību Eiropas Komisija ir uzsākusi pārdomu procesu par šiem jaunajiem riskiem (19). Darba drošības jomā šai pieejai jābūt tālejošākai.

    4.5.

    Taisnīguma princips darba vidē nozīmē neatņemt darba ņēmējam darbu. Daži eksperti norāda uz risku, ka mākslīgais intelekts zināmā mēra veicina darba ņēmēju kvalifikācijas zaudēšanu. Tādēļ ir jāpanāk, lai darbs strādājošajam radītu gandarījumu, ka viņš tajā var pilnībā izmantot savas prasmes un zināšanas un maksimāli veicināt kopējo labklājību, kā noteikts SDO konstitūcijā. Pārvaldības aspektā tas ir arī veids, kā saglabāt motivāciju strādāt.

    5.   Pārmaiņu prognozēšana

    5.1.

    Vairākos pētījumos norādīts, ka pēdējo gadu laikā Eiropas (un reizēm valstu) sociālais dialogs ir pavājinājies, neraugoties uz Komisijas un Eiropadomes pausto gribu “atsākt” dialogu. Faktiski sociālais dialogs ir viens no piemērotākajiem līdzekļiem, lai risinātu digitalizācijas radītās problēmas sociālajā jomā. Tāpēc EESK stingri atbalsta to, ka uzņēmumos un visos attiecīgajos līmeņos šādam dialogam ir jākļūst par ierastu praksi, lai sagatavotos pārmaiņām sociāli pieņemamā veidā. EESK atgādina, ka sociālais dialogs ir viena no labākajām garantijām sociālajam mieram un nevienlīdzības mazināšanai. Papildus politiskām deklarācijām par ekonomikas atveseļošanu ES iestāžu pienākums ir veicināt un papildināt šo sociālo dialogu.

    5.2.

    Ja paredzēts ieviest šādas tehnoloģijas, sociālā dialoga ceļā ir jānoskaidro, kādas būs ražošanas procesu pārveides perspektīvas uzņēmumu un nozaru līmenī un kādas jaunas prasmes un apmācības būs vajadzīgas, kā arī iepriekš jāpārdomā, kā mākslīgo intelektu izmantot, lai uzlabotu organizatoriskos un ražošanas procesus, palielinātu darba ņēmēju kvalifikāciju un optimāli izmantotu mākslīgā intelekta atbrīvotos resursus jaunu preču un pakalpojumu attīstīšanai vai klientu apkalpošanas kvalitātes uzlabošanai.

    5.3.

    Sociāli atbildīga pārstrukturēšana

    5.4.

    Ja sociālie plāni tiek atzīti par nenovēršamiem, izaicinājumi ir saistīti ar šādas pārstrukturēšanas sociālo pārvaldību. Kā uzsvēruši Eiropas sociālie partneri orientējošajos norādījumos pārmaiņu un to sociālo seku pārvaldībai (20), daudzos konkrētu gadījumu pētījumos norādīts, ka ir svarīgi meklēt visas iespējamās alternatīvas atlaišanai, piemēram, apmācība, pārkvalificēšanās un atbalsts uzņēmumu veidošanai.

    5.5.

    Jāpanāk, ka pārstrukturēšanas gadījumā darba ņēmēju informēšana un uzklausīšana saskaņā ar attiecīgajām ES direktīvām (21) uzlabo risku paredzēšanu, veicina darbinieku piekļuvi apmācībai uzņēmumā, palielina darba organizācijas elastīgumu, vienlaikus saglabājot drošību, veicina darbinieku iesaisti uzņēmuma darbībā un nākotnē.

    5.6.

    Visbeidzot, kā to ļoti pamatoti uzsver Komisija, Eiropas Savienībai ir jāgarantē visu iedzīvotāju, to skaitā algoto darbinieku, pašnodarbināto vai fiktīvi pašnodarbināto, piekļuve sociālajai aizsardzībai“neatkarīgi no viņu darba attiecību veida un ilguma” saskaņā ar Eiropas sociālo tiesību pīlāru (22).

    6.   Mākslīgais intelekts un pārmaiņas darba apstākļos

    6.1.

    Eiropas Komisija 2018. gada 25. aprīlī ierosināja ES pieeju, lai veicinātu politikas ieguldījumiem mākslīgā intelekta attīstībā un ieviestu pamatnostādnes ētikas jomā. Komisija uzsver mākslīgā intelekta tehnoloģiju potenciālu mūsu sabiedrība pārveidošanā, jo īpaši transporta, veselības aprūpes un apstrādes rūpniecības nozarēs.

    6.2.

    Šis pārveides potenciāls izpaužas ražošanas procesos un ietekmē arī darba saturu. Šāda ietekme var būt pozitīva, jo īpaši veidā, kā mākslīgais intelekts var uzlabot šos procesus un darba kvalitāti. Tāda pati pozitīva ietekme var būt arī uz “elastīgu” darba organizāciju, kurā vairāk tiek dalītas lēmumu pieņemšanas pilnvaras, kā arī uz grupu autonomiju, daudzfunkcionalitāti, horizontālu organizāciju, inovatīvu un līdzdalības praksi (23).

    6.3.

    EESK (24), tāpat kā Komisija, uzsver, ka mākslīgais intelekts var palīdzēt darba ņēmējiem rutīnas, smagos vai bīstamos uzdevumos un daži mākslīgā intelekta lietojumi var uzlabot algoto darbinieku labjutību un atvieglot viņu ikdienas dzīvi.

    6.4.

    Taču šādu redzējumu papildina jauni jautājumi, piemēram, attiecībā uz mākslīgā intelekta un darba ņēmēja mijiedarbību un izmaiņām darba saturā. Cik lielā mērā rūpnīcās, uzņēmumos un birojos viedās mašīnas būs autonomas un kā tās papildinās cilvēka darbu? EESK uzsver, ka jaunajā darba vidē ir prioritāri jādefinē cilvēka un mašīnas attiecības. Ļoti svarīgi ir piemērot pieeju, kas vērsta uz cilvēka kontroli pār mašīnu (25).

    6.5.

    Principā nav ētiski pieņemams, ka mākslīgais intelekts ierobežo cilvēku vai ka cilvēks tiek uzskatīts par izpildītāju mašīnas dotajiem norādījumiem par to, kādi uzdevumi, kādā veidā un kādos termiņos viņam jāveic. Taču šī ētikas robeža reizēm, šķiet, ir pārkāpta (26). Tādēļ ētikas pamatnostādnēs saistībā ar mākslīgo intelektu ir skaidri jāformulē šī ētikas robeža.

    6.6.

    Nepieļaut jauna veida “digitālo teilorismu” viedo iekārtu izstrādātāju vadībā ir mērķis, kas jāizvirza par vienu no ES prioritātēm. Tādēļ, kā to nesen apliecināja EESK, Eiropas pētniekiem, inženieriem, projektētājiem un uzņēmējiem, kuri sekmē mākslīgā intelekta sistēmu attīstīšanu un laišanu tirgū, jārīkojas saskaņā ar ētiskās un sociālās atbildības kritērijiem. Šajā nolūkā piemērots risinājums var būt ētikas un humanitāro zinātņu iekļaušana inženierzinātņu mācību programmās (27).

    6.7.

    Otrs jautājums ir saistīts ar pārvaldības uzraudzību un kontroli. Visi piekrīt, ka ir vajadzīga samērīga ražošanas procesu un attiecīgi arī paveiktā darba uzraudzība. Pašlaik jauni tehnoloģiskie rīki potenciāli ļauj ieviest viedas sistēmas pilnīgai darba ņēmēju kontrolei reāllaikā, radot risku, ka uzraudzība un kontrole var kļūt nesamērīga.

    6.8.

    Jautājums par darba izpildes un darbības rādītāju kontroles samērīgumu un proporcionalitāti, par vadītāja un darbinieka savstarpējo uzticēšanos arī ir temats, kas būtu jāiekļauj valstu, Eiropas, starpnozaru un nozaru sociālā dialoga darba kārtībā.

    6.9.

    Joprojām pretrunīgs ir jautājums par algoritmu ievirzēm un sagatavošanas datiem, kā arī par iespējamām diskriminācijas nevēlamajām sekām. Daži uzskata, ka algoritmi un cita prognozējoša darbinieku atlases programmatūra var samazināt diskrimināciju darbā pieņemšanas procesā un veicināt “gudrāku” atlasi. Citi savukārt uzskata, ka darbinieku atlases programmatūras joprojām var atspoguļot, pat netīši, šādu darbinieku atlases robotu programmētāju neobjektivitāti. Daži eksperti uzskata, ka algoritmu modeļi vienmēr būs tikai matemātiski izteikti viedokļi (28). Tāpēc vienlaikus jāpanāk, ka ir iespējama cilvēka intervence (saistībā ar iepriekš izklāstīto pārredzamības principu – tiesības prasīt lēmuma pieņemšanas kritērijus) un jānodrošina, ka datu vākšana un apstrāde atbilst proporcionalitātes un mērķa principiem. Jebkurā gadījumā datus var izmantot tikai tādam mērķim, kādam tie vākti (29).

    6.10.

    Iespēja ar tiesību aktiem vai ar koplīgumiem paredzēt konkrētākus noteikumus, lai aizsargātu tiesības un brīvības attiecībā uz darba ņēmēju personas datu apstrādi darba attiecību ietvaros, ko dalībvalstīm sniedz Vispārīgā datu aizsardzības regula, ir reāla svira, kas dalībvalstīm un sociālajiem partneriem ir jāizmanto (30).

    6.11.

    Šajā sakarā ir jānorāda, ka risks attiecas ne tikai uz algotiem darba ņēmējiem. Arī apakšuzņēmuma līgumu slēgšanas tiešsaistē, darba platformā un dažādu kolektīvā darba modeļu attīstību papildina jaunas automatizētas sistēmas rezultātu un rūpības pārvaldībai, kuru ētiskās robežas reizēm šķiet pārkāptas (darba ņēmēja tīmekļa kameras ieslēgšana platformā, attālināta ekrāna satura kopēšana u. c.).

    6.12.

    Šādu platformu algoritmi, kas cita starpā nosaka pašnodarbinātas personas atalgojumu, digitālo reputāciju un iespējas piekļūt uzdevumiem, bieži vien ir neskaidri. To darbības veidi darba ņēmējiem netiek izskaidroti, un viņi nevar piekļūt darbības kritērijiem, kas viņiem tiek piemēroti.

    7.   Taisnīgas pārejas sagatavošana

    7.1.

    Vidējā termiņā sociālās polarizācijas risks, ko uzsver daudzi eksperti, liek pamatīgi pārdomāt mūsu sociālo modeļu nākotni, tostarp to turpmāko finansējumu. EESK aicina Komisijai uzsākt debates par nodokļiem, valsts budžeta un kolektīvo sociālās aizsardzības sistēmu finansēšanu ekonomikā, kurā strauji pieaug robotu skaits (31), lai gan darbaspēka nodokļi joprojām ir galvenais nodokļu ieņēmumu avots Eiropā. Debatēs būtu jāietver arī jautājums par digitalizācijas dividenžu pārdalīšanu.

    7.2.

    Komisija ierosinājusi nostiprināt Eiropas Globalizācijas pielāgošanās fondu (EGF) un cita starpā panākt, lai to varētu izmantot darba ņēmēji, kuri ekonomikas digitalizācijas (digitalizācijas, automatizācijas) dēļ ir zaudējuši darbu, un pašnodarbinātas personas, kuras šā paša iemesla dēļ ir pārtraukušas darbību (32). EESK uzskata, ka tas ir solis ceļā uz reāla Eiropas pārejas fonda izveidi, kas veicinātu sociāli atbildīgu digitālās pārveides un ar to saistītās pārstrukturēšanas plānošanu un pārvaldību.

    7.3.

    Valstu līmenī arvien biežāk tiek apspriesti mākslīgā intelekta sociālie aspekti un plašākā nozīmē sabiedriskie aspekti. Nesenās diskusijas Apvienotās Karalistes parlamentā (33) un Francijas parlamenta Senātā apliecināja vajadzību veicināt ētisku pieeju mākslīgajam intelektam, balstot šo pieeju uz vairākiem principiem, piemēram, algoritmu sistēmu godprātību, pārredzamību un izskaidrojamību, mākslīgā intelekta pielietojumu ētiku un atbildību, pētnieku, ekspertu un speciālistu izpratnes veidošanu par viņu pētījumu rezultātu iespējamu nevēlamu izmantošanu. Francijā Villani ziņojumā mēģināts mākslīgajam intelektam “piešķirt jēgu” (34). Daudzi Jeila, Stenforda, Kembridžas un Oksfordas universitāšu eksperti brīdina par mākslīgā intelekta “nenovērsto neaizsargātību” un uzsver, ka ir obligāti jāprognozē, jānovērš un jāmazina šāda neaizsargātība (35). Kvebekas Pētniecības fonds (FRQ) partnerībā ar Monreālas Universitāti jau vairākus mēnešus strādā pie Globālā novērošanas centra projekta par mākslīgā intelekta un digitalizācijas ietekmi uz sabiedrību (36).

    7.4.

    Visas minētās iniciatīvas apliecina vajadzību pārnest debates par mākslīgo intelektu ārpus ekonomiskajiem un tehniskajiem aspektiem un paplašināt publisko apspriešanu par mākslīgā intelekta lomu, kādu sabiedrība to vēlas redzēt, tostarp darba vidē. Šādas debates ļautu novērst “nepareizu pretstatījumu” starp izteikti naivu un optimistisku skatījumu uz mākslīgo intelektu un tā sekām, no vienas puses, un katastrofālu skatījumu, no otras puses (37). Šādu debašu uzsākšana valstu līmenī ir viens no pirmajiem lietderīgajiem posmiem, taču jāiesaistās arī Eiropas Savienībai, piemēram definējot pamatnostādnes ētikas jomā, ko Komisija jau ir sākusi darīt.

    7.5.

    Jautājums par šādu pamatnostādņu īstenošanu būs jāuztic novērošanas centram, kas skatītu ētikas jautājumus mākslīgā intelekta sistēmās. Mākslīgais intelekts un tā lietojumi ir jāizmanto iedzīvotāju un darba ņēmēju labjutības un emancipācijas veicināšanai, ievērojot pamattiesības, un nedrīkst pieļaut, ka tie tieši vai netieši ietekmē procesus, kas veicina līdzdalības, mācīšanās, kvalifikācijas un autonomijas zaudēšanu. Princips “noteicējs ir cilvēks” ir konkrēti jāpiemēro jebkuros apstākļos, tostarp darba vidē.

    7.6.

    Šis princips ir jāpiemēro arī citās darbības nozarēs, piemēram, veselības aprūpes nozarē, kurā sniegtie pakalpojumi ir cieši saistīti ar cilvēku dzīvību, veselību, drošību un dzīves kvalitāti. Tikai ar stingriem ētikas noteikumiem varēs garantēt, ka ne tikai darba ņēmēji, bet arī patērētāji, pacienti, klienti un citi pakalpojumu sniedzēji varēs pilnībā izmantot jaunos mākslīgā intelekta lietojumus.

    Briselē, 2018. gada 19. septembrī

    Eiropas Ekonomikas un sociālo lietu komitejas priekšsēdētājs

    Luca JAHIER


    (1)  Acemoglu, D., Restrepo, P. (2018), “Artificial Intelligence, Automation and Work”, NBER darba dokuments 24196, 2018. gada janvāris. Sk. arī: Conseil d’orientation pour l’emploi (2017), “Automatisation, numérisation et emploi” (1. sējums) (www.coe.gouv.fr).

    (2)  Acemoglu, D., op. cit.; Conseil d’orientation pour l’emploi (Nodarbinātības konsultāciju centrs) (2017), op. cit.

    (3)  COM(2018) 380 final.

    (4)  Direktīva 2002/14/EK; Eiropas Biznesa konfederācijas, Eiropas Arodbiedrību konfederācijas un Eiropas Darba devēju un sabiedrisko pakalpojumu uzņēmumu centra kopīgā nodoma deklarācija par sociālo dialogu un jaunajām tehnoloģijām, 1985. g.; Sociālo partneru kopīgais atzinums par jaunajām tehnoloģijām, darba organizāciju un darba tirgus pielāgojamību, 1991. g.; Pārmaiņu un to sociālo seku pārvaldības pamatnostādnes, 2003. g.

    (5)  COM(2018) 246 final.

    (6)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020

    (7)  OV C 288, 31.8.2017, 1. lpp.

    (8)  Sk. https://www.techemergence.com.

    (9)  OV C 288, 31.8.2017, 1. lpp.

    (10)  Eurofound (2018), “Automation, digitalisation and platforms: Implications for work and employment”, Eiropas Savienības Publikāciju birojs, Luksemburga.

    (11)  OV C 13, 15.1.2016., 161. lpp.

    (12)  Frey un Osborne, 2013; Bowles, 2014; Arntz, Gregory un Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; ESAO, 2017; sk. arī izpētes atzinumu CCMI/136 (OV C 13, 15.1.2016., 161. lpp.).

    (13)  http://www.oecd.org/employment/future-of-work/

    (14)  COM(2018) 237 final.

    (15)  OV C 367, 10.10.2018., 15. lpp.

    (16)  Nīderlandes zinātniskā padome valdības politikas jautājumos.

    (17)  https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda

    (18)  Sk. Eiropas Darba drošības un veselības aizsardzības aģentūras darbu saistībā ar “jauniem riskiem” (https://osha.europa.eu/lv/emerging-risks). Aģentūra uzskata, ka pašreizējās pieejas un tehniskie standarti, kuru mērķis ir aizsargāt darba ņēmējus no riskiem darbā ar kolaboratīviem robotiem, būs jāpārskata, ņemot vērā šīs tendences.

    (19)  COM(2018) 246 final.

    (20)  Eiropas Biznesa konfederācijas, Eiropas Darba devēju un sabiedrisko pakalpojumu uzņēmumu centra, Eiropas Amatniecības, mazo un vidējo uzņēmumu asociācijas un Eiropas Arodbiedrību konfederācijas kopīgs dokuments, 16.10.2003.

    (21)  Direktīva 2002/14/EK, ar ko izveido vispārēju sistēmu darbinieku informēšanai un uzklausīšanai Eiropas Savienībā.

    (22)  OV C 303, 19.8.2016., 54. lpp.; OV C 173, 31.5.2017., 15. lpp.; OV C 129, 11.4.2018., 7. lpp.; OV C 434, 15.12.2017., 30. lpp.

    (23)  OV C 434, 15.12.2017., 30. lpp.

    (24)  OV C 367, 10.10.2018., 15. lpp.

    (25)  OV C 288, 31.8.2017., 1. lpp.; OV C 367, 10.10.2018., 15. lpp.

    (26)  Vairāki Eiropas plašsaziņas līdzekļi ziņoja par darba apstākļiem dažos loģistikas centros, kuros darba ņēmēji ir pilnībā atkarīgi no algoritmiem, kuri viņiem norāda noteiktā laikā veicamos uzdevumus, vai viņu darba rezultāti tiek vērtēti reāllaikā.

    (27)  OV C 367, 10.10.2018., 15. lpp.

    (28)  Cathy O’Neil, Hārvarda doktora grāda ieguvēja un datu zinātniece, “Models are opinions embedded in mathematics” (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).

    (29)  Skatīt, piemēram, Francijas datu aizsardzības uzraudzības iestādes (CNIL) darbus (“Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle”,

    https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).

    (30)  Regula (ES) 2016/679 (88. pants).

    (31)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020

    (32)  COM(2018) 380 final.

    (33)  https://www.parliament.uk/ai-committee

    (34)  http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html

    (35)  https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf

    (36)  http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/

    (37)  Acemoglu, D., op.cit. Sk. arī Eurofound (2018), “Automation, digitalisation and platforms: Implications for work and employment”, Eiropas Savienības Publikāciju birojs, Luksemburga, 23. lpp.: “The risks comprise unwarranted optimism, undue pessimism and mistargeted insights”.


    Top