Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Komisijas paziņojums Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Vairojot uzticēšanos antropocentriskam mākslīgajam intelektam”” (COM(2019) 168 final)

EESC 2019/01830

OV C 47, 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

11.2.2020   

LV

Eiropas Savienības Oficiālais Vēstnesis

C 47/64


Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Komisijas paziņojums Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Vairojot uzticēšanos antropocentriskam mākslīgajam intelektam””

(COM(2019) 168 final)

(2020/C 47/09)

Ziņotāja: Franca SALIS-MADINIER

Apspriešanās

Eiropas Komisija, 3.6.2019.

Juridiskais pamats

Līguma par Eiropas Savienības darbību 304. pants

Atbildīgā specializētā nodaļa

Vienotā tirgus, ražošanas un patēriņa specializētā nodaļa

Pieņemts specializētās nodaļas sanāksmē

18.10.2019.

Pieņemts plenārsesijā

30.10.2019.

Plenārsesija Nr.

547

Balsojuma rezultāts

(par/pret/atturas)

198/1/4

1.   Secinājumi un ieteikumi

1.1.

Mākslīgais intelekts nav pašmērķis, bet rīks, kas var radīt būtiskas pozitīvas pārmaiņas, bet arī ietvert riskus. Tādēļ ir jāreglamentē mākslīgā intelekta izmantošana.

1.2.

Komisijai būtu jāparedz pasākumi mākslīgā intelekta un mašīnmācīšanās ļaunprātīgas izmantošanas prognozējamības, novēršanas un aizliegšanas jomā un labāk jāreglamentē ļaunprātīgā nolūkā izmantojamu produktu laišana tirgū.

1.3.

Konkrētāk, Eiropas Savienībai ir jāveicina uz konkrētiem lietojumiem orientētu mākslīga intelekta sistēmu attīstīšana, kas paātrinātu ekoloģisko un klimatisko pāreju.

1.4.

Ir jānoskaidro, kādas problēmas būs jāatrisina ar reglamentējošiem un leģislatīviem līdzekļiem, ko papildina uzraudzība un noteikumu neievērošanas gadījumā – sankcijas, un kādas problēmas varēs novērst ar ētikas kodeksiem, pašregulējumu un brīvprātīgām saistībām. Jebkurā gadījumā ir jānodrošina mākslīgā intelekta sistēmu atbilstība pašreizējiem tiesību aktiem.

1.5.

Mākslīgajam intelektam ir vajadzīga pieeja, kas ietvertu ne tikai tehniskos aspektus, bet arī sabiedriskos un ētikas aspektus. EESK atzinīgi vērtē ES apņemšanos veidot antropocentrisku pieeju mākslīgajam intelektam, kas atbilstu ES pamatvērtībām: cilvēka cieņas respektēšana, brīvība, demokrātija, līdztiesība, nediskriminēšana, tiesiskums un cilvēktiesību ievērošana.

1.6.

EESK atkārtoti norāda (1) uz nepieciešamību mākslīgā intelekta sistēmu ieviešanas posmā konsultēties un informēt darba ņēmējus un viņu pārstāvjus, jo minētās sistēmas var radīt izmaiņas darba organizēšanā, uzraudzībā un kontrolē, kā arī darba ņēmēju novērtēšanas un darbā pieņemšanas sistēmās. Lai iesaistītu darba ņēmējus mākslīgā intelekta sistēmu lietojumos, Komisijai jāveicina sociālais dialogs.

1.7.

EESK uzsver (2), ka uzticams mākslīgais intelekts nozīmē cilvēka kontroli pār mašīnu un iedzīvotāju informēšanu par mākslīgā intelekta sistēmu lietojumiem. Šīm sistēmām jābūt izskaidrojamām, vai, ja tas nav iespējams, iedzīvotāji un patērētāji ir jāinformē par šo sistēmu ierobežojumiem un riskiem.

1.8.

Eiropas Savienībai ir jāpievēršas “jaunajiem riskiem” (3) darba aizsardzības jomā. Ir jāizstrādā noteikumi, lai nepieļautu, ka autonomās sistēmas rada zaudējumus vai kaitējumu personām. Darba ņēmējiem ir jābūt apmācītiem strādāt ar mašīnām un ārkārtas gadījumā tās apturēt.

1.9.

EESK aicina izstrādāt stabilu sertifikācijas sistēmu, kas balstīta uz testēšanas procedūrām, kas uzņēmumiem ļauj apliecināt, ka attiecīgās mākslīgā intelekta sistēmas ir uzticamas un drošas. Algoritmiskas lēmumu pieņemšanas procesu pārredzamība, izsekojamība un izskaidrojamība ir tehnisks izaicinājums, kas ir jāatbalsta ar ES instrumentiem, piemēram, programmu “Apvārsnis Eiropa”.

1.10.

Iedzīvotāju un patērētāju uzticēšanās mākslīgajam intelektam būs atkarīga no privātuma un datu aizsardzības ievērošanas pakāpes. Vēl nav atrisināti jautājumi par datu piederību, kontroli un to izmantošanu uzņēmumos un organizācijās (jo īpaši saistībā ar lietu internetu). Komiteja mudina Komisiju regulāri pārskatīt Vispārīgo datu aizsardzības regulu (4) un ar to saistītos tiesību aktus, ņemot vēra tehnoloģiju attīstību.

1.11.

EESK uzskata, ka ir svarīgi apsvērt, kā mākslīgā intelekta sistēmas var palīdzēt samazināt siltumnīcefekta gāzu emisijas, īpaši rūpniecības, transporta, enerģētikas, būvniecības un lauksaimniecības nozarē. Komiteja aicina panākt, lai klimata pārmaiņas un digitālā pārveide būtu savstarpēji saistītas.

1.12.

EESK uzskata, ka mākslīgā intelekta sistēmu kontrole varētu būt nepietiekama, lai noteiktu atbildību un vairotu uzticēšanos. EESK iesaka prioritārā kārtībā definēt skaidrus noteikumus, ar kuriem pārkāpumu gadījumā atbildība tiktu noteikta tiesību subjektam – fiziskai vai juridiskai personai. EESK aicina Komisiju arī prioritāri izskatīt būtisko jautājumu par mākslīgā intelekta sistēmu apdrošināšanas iespējām.

1.13.

EESK ierosina izstrādāt “ES sertifikātu mākslīgā intelekta jomā uzticamam uzņēmumam”, ko piešķirtu uzņēmumiem, kuri ievēro standartus, un kas cita starpā būtu balstīts uz vērtēšanas sarakstu, ko sagatavojusi augsta līmeņa ekspertu grupa mākslīgā intelekta jautājumos.

1.14.

Veicinot šā jautājuma risināšanu G7 un G20 sanāksmēs un divpusējos dialogos, Eiropas Savienībai jāpanāk, lai regulējums mākslīga intelekta jomā sniegtos pāri Eiropas robežām. Ir jāizstrādā starptautisks nolīgums par mākslīgo intelektu, kas dotu iespēju izstrādāt starptautiskos standartus un regulāri pārbaudīt to atbilstību.

2.   Komisijas priekšlikuma kopsavilkums

2.1.

Izskatāmā paziņojuma pamatā ir darbs, ko paveikusi 2018. gada jūnijā Komisijas izveidotā augsta līmeņa grupa. Šajā paziņojumā Komisija definējusi septiņas pamatprasības uzticamam mākslīgajam intelektam, un tās ir uzskaitītas atzinuma 4. punktā.

2.2.

Komisija ir uzsākusi izmēģinājuma posmu, kurā iesaistītas plašas ieinteresēto personu aprindas. Īpaša uzmanība tajā ir pievērsta vērtēšanas sarakstam, ko augsta līmeņa grupa ir sagatavojusi katrai konkrētajai pamatprasībai. Augsta līmeņa grupa 2020. gada sākumā pārskatīs un atjauninās vērtēšanas sarakstu, un Komisija, ja nepieciešams, ierosinās jaunus pasākumus.

2.3.

Komisija vēlas savu pieeju attiecībā uz mākslīgo intelektu izplatīt starptautiskā mērogā un turpinās aktīvu darbību, tostarp arī G7 un G20 forumos.

3.   Vispārīgas piezīmes

3.1.

Antropocentriskam mākslīgajam intelektam ir vajadzīga pieeja, kas ietvertu ne tikai tehniskos, bet arī sabiedriskos un ētikas aspektus. EESK atzinīgi vērtē ES iestāžu apņemšanos veidot tādu pieeju mākslīgajam intelektam, kura atbilstu ES pamatvērtībām: cilvēka cieņas respektēšana, brīvība, demokrātija, līdztiesība, nediskriminēšana, tiesiskums un cilvēktiesību ievērošana. Komisija ir uzsvērusi (5), ka mākslīgais intelekts nav pašmērķis, bet rīks, kas var sekmēt būtiskas pozitīvas pārmaiņas. Kā ikviens rīks, tas vienlaikus rada gan iespējas, gan riskus. Tādēļ ES ir jāreglamentē tā lietošana un skaidri jānosaka atbildība.

3.2.

Uzticēšanos antropocentriskam mākslīgajam intelektam varēs panākt, ja tiks apliecinātas vērtības un principi, izstrādāts precīzs tiesiskais regulējums un ētikas vadlīnijas, kurās ietvertas pamatprasības.

3.3.

Kopā ar visām ieinteresētajām personām ir jānoskaidro, kuras no daudzām mākslīgā intelekta radītajām problēmām būs jāatrisina ar reglamentējošiem un leģislatīviem līdzekļiem, ko papildina regulatīvi uzraudzības mehānismi un noteikumu neievērošanas gadījumā – sankcijas, un kādas problēmas varēs novērst ar ētikas kodeksiem, pašregulējumu un brīvprātīgām saistībām. EESK ir gandarīta, ka Komisija ir ņēmusi vērā dažus principus, uz kuriem sākotnēji bija norādījusi EESK, tomēr pauž nožēlu, ka šajā posmā Komisija nav ierosinājusi nevienu konkrētu pasākumu, lai novērstu pamatotas bažas saistībā ar patērētāju tiesībām, sistēmu drošību un atbildību.

3.4.

Mākslīgā intelekta sistēmām ir jāatbilst spēkā esošajam tiesiskajam regulējumam, īpaši saistībā ar personas datu aizsardzību, produktatbildību, patērētāju tiesību aizsardzību, nediskriminēšanu, profesionālo kvalifikāciju, kā arī darba ņēmēju informēšanu un apspriešanos ar viņiem darbavietā. Ir jāpārliecinās, ka šie tiesību akti ir pielāgoti jaunajiem izaicinājumiem digitalizācijas un mākslīgā intelekta jomā.

3.5.

Komisija norādījusi, ka ir “jāievieš procesi, kas noskaidro un novērtē iespējamos riskus, kas saistīti ar AI (artificial intelligence) sistēmu izmantošanu dažādās lietojumu jomās” (6). EESK uzskata, ka ļoti svarīga nozīme ir šīs novērtēšanas turpmākajiem nosacījumiem un tādu rādītāju izstrādei, kurus varētu ņemt vērā novērtējuma veikšanā. Augsta līmeņa grupas sagatavotā vērtējuma saraksta projekts ir pamats šādu procedūru īstenošanai.

3.6.

Tas attiecas arī uz jautājumu par mākslīgā intelekta sistēmu gaidītās pievienotās vērtības taisnīgu sadali. EESK uzskata, ka visām valstīm un visu valstu iedzīvotājiem ir jāgūst labums no pozitīvajām pārmaiņām, ko mākslīgais intelekts sekmēs ekonomikas attīstības, ražošanas un patēriņa (tostarp enerģijas) procesu ilgtspējas un efektīvākas resursu izmantošanas jomā.

4.   Īpašas piezīmes

4.1.   Cilvēka subjektība un virsvadība

4.1.1.

Komisija vēlas nodrošināt, ka mākslīga intelekta sistēmu izmantošana nekādā gadījumā nemazina cilvēku autonomiju vai rada nelabvēlīgas sekas. Kā jau norādīts iepriekšējos Komitejas atzinumos, EESK atbalsta šo pieeju, kurā paredzēta cilvēka kontrole pār mašīnu.

4.1.2.

Tas nozīmē, ka iedzīvotājiem ir jābūt pienācīgi informētiem par šo sistēmu lietojumu un ka šīm sistēmām jābūt izskaidrojamām vai, ja tas nav iespējams (piemēram, dziļās mācīšanās gadījumā), jāsniedz lietotājam informācija par sistēmas ierobežojumiem un riskiem. Jebkurā gadījumā jānodrošina iedzīvotājiem brīva iespēja pieņemt lēmumu, kas atšķiras no mākslīgā intelekta sistēmas pieņemtā lēmuma.

4.1.3.

Laikā, kad tiek ieviestas mākslīgā intelekta sistēmas, kuras var mainīt darba organizāciju, uzņēmumu un publiskās pārvaldes iestāžu darbinieki un viņu pārstāvji ir pienācīgi jāinformē un ar viņiem jāapspriežas, kā arī viņiem jāsaņem informācija par šo sistēmu lietojumiem, īpaši tad, ja tie kontroles, uzraudzības, novērtēšanas un darbā pieņemšanas aspektā skar darba ņēmējus. Lai iesaistītu darba ņēmējus mākslīgā intelekta sistēmu lietojumos, Komisijai jāveicina sociālais dialogs.

4.1.4.

Par cilvēkresursiem runājot, īpaša uzmanība jāpievērš mākslīgā intelekta sistēmu ļaunprātīgas izmantošanas riskam, kas saistīts, piemēram, ar neierobežotu uzraudzību, persondatu un medicīnisko datu vākšanu un to koplietošanu ar trešām personām, kā arī jaunajiem riskiem, kas saistīti ar veselību un drošību darbavietā (7). Ir jāizstrādā skaidri noteikumi, lai nepieļautu, ka cilvēka-mašīnas sadarbība rada kaitējumu personām. Starptautiskās Standartizācijas organizācijas (ISO) izstrādātais standarts attiecībā uz kolaboratīviem robotiem (8) paredzēts ražotājiem, integrētājiem un lietotājiem, un tajā ietvertas vadlīnijas par darba vides veidošanu un organizēšanu un iespējamo risku samazināšanu personām. Darba ņēmēji ir jāapmāca, kā lietot mākslīgo intelektu un robotiku, kā ar tiem strādāt un kā tos apturēt ārkārtas situācijā (apturēšanas mehānisma (emergency brake) princips).

4.2.   Tehniskā noturība un drošums

4.2.1.

EESK aicina ieviest Eiropas drošības standartus un izstrādāt stabilu sertifikācijas sistēmu, kas balstīta uz testēšanas procedūrām, kas uzņēmumiem ļautu apliecināt, ka attiecīgās mākslīgā intelekta sistēmas ir uzticamas. EESK vēlas uzsvērt mākslīgā intelekta sistēmu apdrošināšanas jautājuma svarīgo nozīmi.

4.2.2.

Komisija nav pietiekami pievērsusies mākslīgā intelekta un mašīnmācīšanās ļaunprātīgas izmantošanas prognozējamības, novēršanas un aizliegšanas aspektiem, kaut gan daudzi pētnieki ir brīdinājuši par to (9). Būtu jāņem vērā pētnieku ieteikumi, jo īpaši saistībā ar šo tehnoloģiju divējādu izmantošanu, kas var būt saistīta ar kiberdrošību (kiberuzbrukumu skaita palielināšanās, cilvēku un mākslīga intelekta neaizsargātības izmantošana, data poisoning), fizisko drošību (autonomo sistēmu, to skaitā autonomo transportlīdzekļu, dronu, automātisko ieroču uzlaušana) vai politikas drošību (persondatu vākšana lielā apjomā, mērķtiecīga propaganda, videomateriālu manipulēšana utt.). Pētniekiem, inženieriem un publiskajām pārvaldes iestādēm ir cieši jāsadarbojas, lai šos riskus novērstu; savukārt eksperti un citas ieinteresētās personas, piemēram, lietotāji un patērētāji, ir jāiesaista šo problēmu apspriešanā.

4.3.   Privātums un datu pārvaldīšana

4.3.1.

Komisija norāda, ka “ir pienācīgi jāpārvalda un jākontrolē piekļuve datiem” (10). EESK uzskata, ka ar vispārīgiem paziņojumiem nepietiek. Mākslīgā intelekta attīstība būs atkarīga no tā, cik lielā mērā cilvēks uzticēsies mākslīgā intelekta sistēmām. Vēl ir daudz darāmā, lai atrisinātu jautājumus, kas saistīti ar datu piederību, kontroli un to, kā uzņēmumi un organizācijas izmanto datus. Bažas rada datu apjoms, ko, piemēram, automobilis pārsūta transportlīdzekļa vadītājam, kā arī pārsūtīto datu veids (11). Lai gan Vispārīgajā datu aizsardzības regulā noteikts, ka savienotajām ierīcēm ir jāatbilst integrētas privātuma aizsardzības (Privacy by design) koncepcijai, jākonstatē, ka patērētājam par to ir ļoti maz vai vispār nav informācijas un ka nav iespējams šos datus kontrolēt. Tādēļ EESK aicina Komisiju nekavējoties pārskatīt Vispārīgo datu aizsardzības regulu un ar to saistītos tiesību aktus, ņemot vērā tehnoloģiju attīstību (12).

4.4.   Pārredzamība

4.4.1.

EESK uzskata, ka algoritmiskas lēmumu pieņemšanas procesu izskaidrojamībai ir būtiska nozīme, lai izprastu ne tikai mehānismus, bet arī ar lēmuma pieņemšanu saistīto loģiku un to, kā mākslīgā intelekta sistēmas ietekmē šos procesus. Mašīnmācīšanās sistēmu testēšanas standarta procedūru izstrāde joprojām ir tehnisks izaicinājums, un tā būtu jāatbalsta ar ES instrumentiem, piemēram, programmu “Apvārsnis Eiropa”.

4.4.2.

EESK atbalsta Komisijas pieeju, ar kuru saskaņā mākslīgā intelekta sistēmām jābūt identificējamām kā tādām, “nodrošinot, ka lietotāji zina, ka mijdarbojas ar AI sistēmu” (13), tostarp arī pacienta attiecībās ar medicīnisko personālu, kā arī saistībā ar profesionālajiem pakalpojumiem iedzīvotāju veselības un labjutības nodrošināšanai. EESK uzsver, ka lietotāji vai patērētāji jāinformē arī par cilvēka sniegtajiem pakalpojumiem. Daudzas mākslīgā intelekta sistēmas praksē izmanto lielu cilvēka darba apjomu, kas galalietotājiem bieži vien paliek apslēpts (14). Šis jautājums ir saistīts ar pārredzamības trūkumu attiecībā uz pakalpojumu lietotājiem un patērētājiem un slēpta un neatzīta darba izmantošanu.

4.4.3.

EESK arī uzskata, ka patērētājam vienmēr jābūt informētam par mākslīgā intelekta sistēmu esamību produktos, kurus viņš iegādājas, un vienmēr jānodrošina patērētāja piekļuve saviem datiem un iespēja tos kontrolēt.

4.5.   Dažādība, nediskriminēšana un taisnīgums

4.5.1.

Diskriminācijas riskam ir pakļauti tādi mākslīgā intelekta lietojumi, kas dod iespēju profilēt pilsoņus, lietotājus un patērētājus (piemēram, saistībā ar darbā pieņemšanu, nekustamā īpašuma īrēšanu, atsevišķiem personalizētiem aprūpes pakalpojumiem). ES ir pieņēmusi tiesību aktu kopumu par vienlīdzīgu attieksmi un nediskriminēšanu (15). Šie tiesību akti jāattiecina arī uz mākslīgā intelekta sistēmām. Taču, lai reaģētu uz jauno praksi, tie arī jāpielāgo un vajadzības gadījumā jāpastiprina (arī to ievērošanas kontroles līmenī). Pastāv reāls risks, ka algoritmiskā profilēšana kļūst par jaunu, ietekmīgu diskriminācijas rīku. Eiropas Savienībai ir jānovērš šāds risks.

4.5.2.

Rasisma apkarošanas direktīvā (16) un direktīvā par dzimumu līdztiesību ārpus nodarbinātības jomas (17) ir paredzēts izveidot īpašas struktūras, kuru kompetencē ir sieviešu un vīriešu līdztiesības veicināšana. EESK uzskata, ka šīm struktūrām jāuzņemas aktīva loma mākslīgā intelekta sistēmu pārraudzībā un kontrolē attiecībā uz tiešas vai netiešas diskriminācijas risku.

4.6.   Sabiedrības un vides labklājība

4.6.1.

Komisija nav ierosinājusi konkrētus risinājumus, kā klimata pāreju sasaistīt ar digitālo pārveidi, īpaši mākslīgā intelekta sistēmu lietošanā. Ir svarīgi apsvērt, kā mākslīgā intelekta sistēmas var palīdzēt samazināt siltumnīcefekta gāzu emisijas, īpaši rūpniecības, transporta, enerģētikas, būvniecības un lauksaimniecības nozarē.

4.6.2.

Komisija norāda, ka mākslīgā intelekta sistēmas var izmantot sociālo iemaņu uzlabošanai, taču tās var šīs iemaņas arī pavājināt. EESK uzskata, ka Eiropas Savienībai vairāk uzmanības jāpievērš dažām sabiedrības problēmām. Piemēram, pētījumi liecina, ka atsevišķu mākslīgā intelekta sistēmas saturošu lietojumprogrammu dizains ir izstrādāts tā, lai tiešsaistes pakalpojumu lietotāji pēc iespējas ilgāku laiku būtu pieslēgušies (sociālie tīkli, spēles, video u. c.). Tas darīts ar mērķi savākt pēc iespējas vairāk datu par viņu paradumiem; tiek izmantotas stratēģijas, kurās nepārtraukti tiek atjaunināti algoritmiskie ieteikumi, sūtīti atgādinājumi un paziņojumi, piedāvātas spēles utt. Ir sagatavoti pētījumi par to, kā bērnus ietekmē pārmērīgi ilga laika pavadīšana un iedraudzināšana tiešsaistē (18), un rezultāti liecina par trauksmi, agresiju, miega trūkumu, ietekmi uz izglītību, sociālajām attiecībām, veselību un labbūtību. Lai veidotu uzticamu mākslīgo intelektu, Eiropas Savienībai ir jāņem vērā šādas sekas un tās jānovērš.

4.6.3.

Visbeidzot, viens no sabiedrības labbūtības faktoriem ir saistīts ar drošības sajūtu darbā. Taču digitalizācijas sekas var radīt nedrošības sajūtu un stresu (19). Tādēļ pirms iespējamās pārstrukturēšanas ir jāparedz pārmaiņu prognozēšanas stratēģijas un visu darba ņēmēju tālākizglītība. Šajā nolūkā uzņēmumos ir vajadzīgs darba devēju un darba ņēmēju pārstāvju sociālais dialogs, kas ļautu iekļaujošā veidā plaši ieviest jaunās tehnoloģijas, konkrēti, mākslīgo intelektu un robotiku. Lai stiprinātu uzņēmumu vadības un darbinieku savstarpējo uzticēšanos, mākslīgā intelekta sistēmām, ko izmanto darbinieku vadībai, vērtēšanai un kontrolei, ir jābūt izskaidrojamām, to parametriem jābūt zināmiem un darbībai – pārredzamai.

4.7.   Atbildīgums

4.7.1.

Mašīnmācīšanās sistēmu pieņemtie lēmumi nav viegli izskaidrojami; turklāt minētās sistēmas tiek regulāri atjauninātas. EESK uzskata, ka mākslīgā intelekta sistēmu kontrole varētu būt nepietiekama, lai noteiktu atbildību un vairotu uzticēšanos. Tādēļ Komiteja iesaka izstrādāt noteikumus, ar kuriem pārkāpumu gadījumā atbildība tiktu noteikta tiesību subjektam – fiziskai vai juridiskai personai. EESK iesaka vairāk balstīties uz uzticamiem uzņēmumiem vai speciālistiem nekā uz algoritmiem un ierosina izstrādāt “ES sertifikātu mākslīgā intelekta jomā uzticamam uzņēmumam”, ko piešķirtu uzņēmumiem, kuri ievēro standartus, un kas cita starpā būtu balstīts uz vērtēšanas sarakstu, ko sagatavojusi augsta līmeņa ekspertu grupa mākslīgā intelekta jautājumos.

4.7.2.

Produktatbildības direktīvā (20) noteikts princips par atbildību neatkarīgi no vainas, un to piemēro Eiropas ražotājiem: ja kāds ražojums rada kaitējumu patērētājam, ražotājs būs atbildīgs pat tad, ja tā nav ražotāja vaina un ražotājs nav pieļāvis nolaidību. Tā kā mākslīgā intelekta sistēmu izstrāde, izplatība un izmantošana vēršas plašumā, ES ir jāpieņem pielāgoti noteikumi par atbildību gadījumos, kad digitālā satura produkti un patērētājiem piedāvātie pakalpojumi var būt bīstami un radīt kaitējumu. Ja kāda mākslīgā intelekta sistēma ir radījusi patērētājam kaitējumu, ir jānodrošina patērētājam tiesu iestāžu pieejamība.

5.   Starptautiska regulējuma nepieciešamība

5.1.

Globalizētā pasaulē mākslīgā intelekta regulējumam ir jāsniedzas pāri Eiropas robežām. Eiropai būtu jāveicina plaša vienprātība G7 un G20 forumos un jāturpina divpusējie dialogi, lai vairākums valstu varētu piedalīties mākslīgā intelekta standartizācijas procesos un regulāri pārbaudīt to atbilstību.

Briselē, 2019. gada 30. oktobrī

Eiropas Ekonomikas un sociālo lietu komitejas

priekšsēdētājs

Luca JAHIER


(1)  OV C 440, 6.12.2018., 1. lpp.

(2)  OV C 288, 31.8.2017., 1. lpp., OV C 440, 6.12.2018., 1. lpp.

(3)  https://osha.europa.eu/lv/emerging-risks

(4)  Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regula (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula) (OV L 119, 4.5.2016., 1. lpp.).

(5)  COM(2019) 168 final.

(6)  COM(2019) 168 final, 5. lpp.

(7)  Skatīt, piemēram, OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces.

(8)  ISO/TS 15066, 2016.

(9)  Skatīt ziņojumu The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, 2018. gada februāris.

(10)  COM(2019) 168 final, 6. lpp.

(11)  “Your car knows when you gain weight”, The New York Times (International Edition), 22.5.2019.

(12)  OV C 190, 5.6.2019., 17. lpp.

(13)  COM(2019) 168 final, 6. lpp.

(14)  Skatīt, piemēram, “A white-collar sweatshop’: Google Assistant contractors allege wage theft”, The Guardian, 29.5.2019., un “Bot technology impressive, except when it’s not the bot”, The New York Times (International Edition), 24.5.2019.

(15)  OV L 180, 19.7.2000., 22. lpp.; OV L 303, 2.12.2000., 16. lpp.; OV L 373, 21.12.2004., 37. lpp.; OV L 204, 26.7.2006., 23. lpp.

(16)  Padomes 2000. gada 29. jūnija Direktīva 2000/43/EK, ar ko ievieš vienādas attieksmes principu pret personām neatkarīgi no rasu vai etniskās piederības (OV L 180, 19.7.2000., 22. lpp.).

(17)  Padomes 2004. gada 13. decembra Direktīva 2004/113/EK, ar kuru īsteno principu, kas paredz vienlīdzīgu attieksmi pret vīriešiem un sievietēm, attiecībā uz pieeju precēm un pakalpojumiem, preču piegādi un pakalpojumu sniegšanu (OV L 373, 21.12.2004., 37. lpp.).

(18)  Skatīt Kidron, Evans, Afia (2018), “Disrupted Childhood – The Cost of Persuasive Design”, 5Rights Foundation.

(19)  Augsta līmeņa grupas ziņojums par digitālās pārveides ietekmi uz ES darba tirgiem, 2019. g.

(20)  Padomes 1985. gada 25. jūlija Direktīva 85/374/EEK par dalībvalstu normatīvo un administratīvo aktu tuvināšanu attiecībā uz atbildību par produktiem ar trūkumiem (OV L 210, 7.8.1985., 29. lpp.).


Top