EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Baltā grāmata par mākslīgo intelektu. Eiropas pieeja izcilībai un uzticamībai” (COM(2020) 65 final)

EESC 2020/01110

OV C 364, 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

28.10.2020   

LV

Eiropas Savienības Oficiālais Vēstnesis

C 364/87


Eiropas Ekonomikas un sociālo lietu komitejas atzinums par tematu “Baltā grāmata par mākslīgo intelektu. Eiropas pieeja izcilībai un uzticamībai”

(COM(2020) 65 final)

(2020/C 364/12)

Ziņotāja:

Catelijne MULLER

Apspriešanās

Komisija, 9.3.2020.

Juridiskais pamats

Līguma par Eiropas Savienības darbību 304. pants

Atbildīgā specializētā nodaļa

Vienotā tirgus, ražošanas un patēriņa specializētā nodaļa

Pieņemts specializētās nodaļas sanāksmē

25.6.2020.

Pieņemts plenārsesijā

16.7.2020.

Plenārsesija Nr.

553

Balsojuma rezultāts

(par / pret / atturas)

207/0/6

1.   Secinājumi un ieteikumi

1.1.

EESK atzinīgi vērtē Komisijas stratēģiju, kas izklāstīta Baltajā grāmatā par mākslīgo intelektu, proti, veicināt mākslīgā intelekta (MI) tehnoloģiju ieviešanu, vienlaikus nodrošinot to atbilstību Eiropas ētikas normām, juridiskajām prasībām un sociālajām vērtībām.

1.2.

EESK arī atzinīgi vērtē mērķi izmantot Eiropas stiprās puses rūpnieciskajos un profesionālajos tirgos un uzsver, ka ir svarīgi uzlabot ieguldījumus, infrastruktūru, inovāciju un prasmes, lai uzņēmumi, tostarp MVU, un sabiedrība kopumā varētu izmantot MI radītās iespējas. Būtu jāsekmē MI inovācija, lai gūtu maksimālu labumu no MI sistēmām un vienlaikus novērstu un samazinātu to radītos riskus.

1.3.

Tomēr EESK uzskata, ka koncentrēšanās tikai uz datiem balstītu MI ir pārāk ierobežojoša, lai ES kļūtu par īstu līderi progresīva, uzticama un konkurētspējīga MI jomā. EESK mudina Komisiju veicināt arī tādas jaunas paaudzes MI sistēmas, kuras ir balstītas uz zināšanām un argumentiem un kuras atbalsta cilvēciskās vērtības un principus.

1.4.

EESK aicina Komisiju: i) veicināt daudzdisciplināru pieeju pētniecībā, iesaistot tajā citas disciplīnas, piemēram, tiesības, ētiku, filozofiju, psiholoģiju, darba zinātnes, humanitārās zinātnes, ekonomiku u. c.; ii) iesaistīt attiecīgās ieinteresētās personas (arodbiedrības, profesionāļu, uzņēmumu un patērētāju organizācijas, NVO) debatēs par MI un nodrošināt, ka tie kā līdzvērtīgi partneri piedalās ES finansētos pētījumos un citos projektos, piemēram, publiskā un privātā sektora partnerībā MI jomā, nozaru dialogos un programmā, kas paredzēta MI ieviešanai publiskajā sektorā, un vadošā centra izveidē; iii) turpināt izglītot un informēt plašāku sabiedrību par MI iespējām un riskiem.

1.5.

EESK mudina Komisiju padziļināti apsvērt MI ietekmi uz visu pamattiesību un pamatbrīvību spektru, kas cita starpā, bet ne tikai, ietver tiesības uz taisnīgu tiesu, uz godīgām un atklātām vēlēšanām, pulcēšanos un demonstrācijām, kā arī tiesības netikt diskriminētam.

1.6.

EESK joprojām iebilst pret jebkāda juridiskas personas statusa ieviešanu mākslīgajam intelektam. Tas mazinātu civiltiesiskās atbildības tiesību aktu preventīvo koriģējošo iedarbību un radītu nopietnu morālā kaitējuma risku gan MI izstrādē, gan lietošanā, radot iespējas ļaunprātīgai izmantošanai.

1.7.

EESK aicina izmantot pastāvīgu, sistemātisku sociāltehnisko pieeju, izvērtējot tehnoloģiju visos aspektos un no dažādiem viedokļiem, nevis pamatojoties uz augsta riska MI lietojumu vienreizēju (vai pat regulāri atkārtotu) atbilstības novērtējumu.

1.8.

EESK brīdina, ka “augsta riska” nozarēm piemērojamās prasības varētu neattiekties uz daudziem MI lietojumiem un izmantošanas veidiem, kas saistīti ar augstu riska pakāpi (papildus biometriskajai atpazīšanai un MI izmantošanai personāla atlasē). EESK iesaka Komisijai sagatavot sarakstu ar augsta riska MI lietojumu vai izmantošanas veidu kopīgām iezīmēm neatkarīgi no nozares.

1.9.

EESK visnotaļ iesaka jebkādu biometriskās atpazīšanas izmantošanu atļaut tikai: i) ja ir zinātniski pierādīta ietekme, ii) kontrolētā vidē un iii) ievērojot stingrus nosacījumus. Būtu jāaizliedz plaši izmantot uz MI balstītu biometrisko atpazīšanu cilvēku novērošanai vai cilvēku, viņu uzvedības vai emociju izsekošanai, novērtēšanai vai klasificēšanai.

1.10.

EESK atbalsta sociālo partneru agrīnu un ciešu iesaistīšanu MI sistēmu ieviešanā darbavietās saskaņā ar konkrētajā valstī piemērojamiem noteikumiem un praksi, lai nodrošinātu, ka sistēmas ir izmantojamas un atbilst darba ņēmēju tiesībām un darba nosacījumiem.

1.11.

EESK arī atbalsta to darbinieku, kas pēc tam strādās ar MI sistēmu, un darbinieku, kuriem ir īpašas juridiskās, ētiskās un humanitārās zināšanas, agrīnu un ciešu iesaistīšanu MI sistēmu ieviešanā, lai nodrošinātu, ka tās atbilst tiesiskajām un ētiskajām prasībām, kā arī darba ņēmēju vajadzībām, un ka darba ņēmēji saglabā autonomiju attiecībā uz savu darbu un MI sistēmas uzlabo viņu prasmes un apmierinātību ar darbu.

1.12.

MI metodēm un pieejām, ko izmanto Covid-19 pandēmijas apkarošanai, jābūt noturīgām, efektīvām, pārredzamām un izskaidrojamām. Tajās būtu arī jāievēro cilvēktiesības, ētikas principi un spēkā esošie tiesību akti, un tām jābūt taisnīgām, iekļaujošām un brīvprātīgām.

1.13.

EESK aicina Komisiju uzņemties vadošo lomu, lai Eiropā nodrošinātu labāku koordināciju attiecībā uz praktiskiem MI risinājumiem un pieejām, ko izmanto Covid-19 pandēmijas apkarošanai.

2.   ES Baltā grāmata par mākslīgo intelektu

2.1.

EESK ar gandarījumu atzīmē, ka Eiropas Komisija ņēmusi vērā daudzus ieteikumus, ko iepriekšējos atzinumos formulējusi EESK un augsta līmeņa ekspertu grupa mākslīgā intelekta jautājumos, mudinot izmantot MI tehnoloģijas, vienlaikus nodrošinot to atbilstību Eiropas ētikas normām, juridiskajām prasībām un sociālajām vērtībām, kuru pamatā ir tā dēvētā “izcilības un uzticamības ekosistēma”.

2.2.

EESK atzinīgi vērtē priekšlikumus, kas uzņēmumiem, tostarp MVU, un plašai sabiedrībai dod iespēju gūt labumu no mākslīgā intelekta izstrādes un lietošanas. EESK uzsver, ka ir svarīgi palielināt ieguldījumus, uzlabot infrastruktūru, inovāciju un prasmes, lai palielinātu ES konkurētspēju pasaulē.

Pieeja “procesu kontrolē cilvēks”

2.3.

Baltajā grāmatā tomēr jūtams zināms “fatālisms”, kas vedina uz domām, ka MI “iekaro mūs” un tāpēc mums neatliek nekas cits, kā tikai regulēt tā izmantošanu. EESK ir patiešām pārliecināta par ES apņemšanos nodrošināt, ka Eiropā tiek ieviests tikai uzticams mākslīgais intelekts, un tādēļ ES būtu jāuzdrošinās pieņemt daudz stingrāku nostāju šajā jautājumā. Tādēļ EESK mudina Komisiju jebkurā laikā paredzēt iespēju pilnībā atteikties no dažiem konkrētiem MI (vai to izmantošanas) veidiem. EESK uzskata, ka attiecībā uz MI mums ir jāpiemēro pieeja “procesu kontrolē cilvēks”.

Mākslīgā intelekta radīto iespēju izmantošana Eiropā – uz nākotni orientēta definīcija

2.4.

Saskaņā ar Baltajā grāmatā formulēto praktisko definīciju mākslīgais intelekts ir “tehnoloģiju krājums, kas apvieno datus, algoritmus un datošanas jaudas”. Tālāk tekstā dati un algoritmi ir definēti kā galvenie MI elementi. Tomēr šī definīcija attiektos ne tikai uz MI, bet uz jebkuru programmatūru, kas jebkad uzrakstīta. Joprojām nav nevienas vispārpieņemtas mākslīgā intelekta definīcijas, un MI ir vispārīgs termins daudzām datora lietojumprogrammām.

2.5.

Koncentrēšanās Baltajā grāmatā tikai uz datiem balstītu MI ir pārāk ierobežojošs, lai ES kļūtu par īstu līderi progresīva, uzticama un konkurētspējīga MI jomā. Baltajā grāmatā nav ņemtas vērā daudzas progresīvas MI sistēmas un tātad to pārvaldība un reglamentēšana. EESK mudina Komisiju veicināt arī tādas jaunas paaudzes MI sistēmas – tā dēvētās hibrīdsistēmas –, kurās apvienota uz datiem balstīta pieeja, uz zināšanām un argumentāciju balstīta pieeja. Baltajā grāmatā ir atzīts, ka hibrīdsistēmas ir vajadzīgas izskaidrojamības nolūkā, taču hibrīdsistēmu priekšrocības ir plašākas par izskaidrojamību: tās var paātrināt un/vai ierobežot mācīšanos, kā arī apstiprināt un pārbaudīt mašīnmācīšanās modeli.

2.6.

Baltajā grāmatā uzmanība ir vērsta tikai uz nobīdi, kas saistīta ar datiem, taču ne visas nobīdes rodas zemas kvalitātes vai ierobežotu datu rezultātā. Jebkuru rīku izstrāde būtībā ir neobjektīvu izvēļu kopums, sākot no plānotajiem ieguldījumiem līdz mērķiem, kas izvirzīti to optimālas izmantošanas nolūkā. Visas šīs izvēles tā vai citādi ir atkarīgas no konkrētā(-o) cilvēka(-u) izdarītās izvēles.

2.7.

Tomēr vissvarīgākais ir tas, ka MI sistēmas ir kas vairāk nekā tikai to programmatūras komponentu summa. MI sistēmas ietver arī apkārtējo sociāltehnisko sistēmu. Apsverot MI pārvaldību un reglamentēšanu, uzmanība būtu jāpievērš arī apkārtējām sociālajām struktūrām: organizācijām un uzņēmumiem, dažādām profesijām, kā arī cilvēkiem un institūcijām, kas izveido, izstrādā, ievieš, izmanto un kontrolē MI, un visiem tiem, kuri ar to saskaras, piemēram, iedzīvotājiem attiecībās ar valdībām, uzņēmumiem, patērētājiem, darba ņēmējiem un pat sabiedrībai kopumā.

2.8.

Tāpat būtu jānorāda, ka juridiskās definīcijas (pārvaldības un regulējuma vajadzībām) atšķiras no tīri zinātniskām definīcijām, jo ir jāievēro vairākas atšķirīgas prasības, piemēram, attiecībā uz iekļautību, precizitāti, pastāvīgumu, visaptverošu raksturu un praktiskumu. Dažas no tām ir juridiski saistošas prasības, bet citas tiek uzskatītas par labu regulatīvo praksi.

Visu spēku apvienošana

2.9.

EESK atzinīgi vērtē centienus novērst MI sadrumstalotību Eiropā, apvienojot mākslīgā intelekta pētniekus, īpašu uzmanību pievēršot MVU un veidojot privātā un publiskā sektora partnerību. Papildus EESK ieteiktu: i) veicināt daudzdisciplināru pieeju pētniecībā, iesaistot citas disciplīnas, piemēram, tiesības, ētiku, filozofiju, psiholoģiju, darba zinātnes, humanitārās zinātnes, ekonomiku u. c.; ii) iesaistīt attiecīgās ieinteresētās personas (arodbiedrības, uzņēmumu organizācijas, patērētāju organizācijas, NVO) debatēs par debatēs par MI un nodrošināt, ka tie kā līdzvērtīgi partneri piedalās ES finansētos pētījumos un citos projektos, piemēram, publiskā un privātā sektora partnerībā MI jomā, nozaru dialogos un programmā, kas paredzēta MI ieviešanai publiskajā sektorā, un vadošā centra izveidē; iii) turpināt izglītot un informēt plašāku sabiedrību par MI iespējām un riskiem.

Mākslīgais intelekts un tiesības

2.10.

Baltajā grāmatā atzīts, ka MI darbojas pasaulē, kurā pastāv likumi. EESK īpaši atzinīgi vērtē uzsvaru uz MI ietekmi uz pamattiesībām un iesaka Komisijai padziļināti apsvērt MI ietekmi uz plašu pamattiesību un pamatbrīvību kopumu, piemēram, vārda brīvību, tiesībām uz privātās dzīves neaizskaramību (kas pārsniedz personas datu aizsardzību), taisnīgu tiesas procesu, godīgām un atklātām vēlēšanām, pulcēšanos un demonstrācijām, kā arī uz tiesībām netikt diskriminētam.

2.11.

EESK atzinīgi vērtē Baltajā grāmatā pausto skaidro nostāju par pašreizējo atbildības režīmu piemērojamību MI un centienus balstīties uz šiem režīmiem, lai novērstu jaunos riskus, ko var radīt MI, un pārvarētu nepilnības izpildē tajos gadījumos, kad ir grūti noteikt faktisko atbildīgo ekonomikas dalībnieku, un pielāgotu režīmus mainīgajai MI sistēmu funkcionalitātei.

2.12.

Komisijai būtu arī jāatzīst, ka mākslīgajam intelektam nav robežu un ka centienus nevar un nevajadzētu attiecināt tikai uz Eiropu. Lai izveidotu kopēju starptautisku tiesisko regulējumu, pasaules mērogā būtu jāpanāk vispārējs konsenss, kas balstīts uz juridisko ekspertu diskusijām un pētījumiem.

2.13.

Jebkurā gadījumā EESK joprojām stingri iebilst pret jebkāda juridiskas personas statusa ieviešanu mākslīgajam intelektam. Tas mazinātu civiltiesiskās atbildības tiesību aktu preventīvo koriģējošo iedarbību un radītu nopietnu morālā kaitējuma risku gan MI izstrādē, gan lietošanā, radot iespējas ļaunprātīgai izmantošanai.

Augsta riska mākslīga intelekta regulējums

2.14.

EESK atzinīgi vērtē uz risku balstītu pieeju MI ietekmes kontrolēšanai. Komisija nākusi klajā ar “augsta riska MI” tiesisko regulējumu, kam būtu jāatbilst prasībām attiecībā uz noturību, precizitāti, reproducējamību, pārredzamību, cilvēka virsvadību un datu pārvaldību. Saskaņā ar Balto grāmatu augsta riska MI veido divi kumulatīvi elementi: i) augsta riska nozare un ii) MI lietojuma izmantošana, kas saistīta ar augstu risku. Baltajā grāmatā ir minēti divi MI lietojumu vai izmantošanas piemēri, kurus varētu saistīt ar augstu risku neatkarīgi no nozares. Arī biometriskā atpazīšana ir klasificēta kā lietojums, kas saistīts ar augstu risku. Izsmeļošajā augsta riska nozaru sarakstā (lai arī tas periodiski tiek pārskatīts) tagad ir ietvertas šādas potenciāli augsta riska nozares: veselības aprūpe, transports, enerģētika un dažas publiskā sektora daļas.

2.15.

Otrais kritērijs, t.i., ka MI lietojums tiek izmantots riskantā veidā, ir neskaidrāks un vedina uz domu, ka ir iespējami dažādi riska līmeņi. EESK ierosina ietekmes jomās iekļaut sabiedrību un vidi.

2.16.

Saskaņā ar Baltās grāmatas loģiku tiesiskais regulējums principā neattieksies uz augsta riska AI lietojumu, ko izmanto zema riska nozarē. EESK uzsver, ka augstas riska MI nevēlama nelabvēlīgā ietekme zema riska nozarē varētu izslēgt MI lietojumus vai izmantošanu no regulējuma un radītu iespēju apiet noteikumus: kā piemēru var minēt mērķorientētu reklāmu (zema riska nozare), attiecībā uz kuru ir konstatēts, ka tai ir potenciāla segregatīva, diskriminējoša un nošķiroša ietekme, piemēram, vēlēšanu laikā vai personalizētas cenu noteikšanas rezultātā (augsta riska lietojums vai ietekme). EESK iesaka sagatavot sarakstu ar augsta riska “kā tāda” MI lietojumu vai izmantošanas veidu kopīgām iezīmēm neatkarīgi no nozares neatkarīgi no nozares, kurā tie tiek izmantoti.

2.17.

Lai arī EESK atzīst nepieciešamību veikt MI atbilstības pārbaudi, tā pauž bažas, ka ar vienreizēju (vai pat regulāri atkārtotu) iepriekšēju atbilstības novērtējumu nepietiks, lai ilgtspējīgi garantētu uzticama un antropocentriska MI izstrādi, ieviešanu un izmantošanu. Lai nodrošinātu uzticamu MI, nepieciešama nepārtraukta, sistemātiska sociāltehniska pieeja, izvērtējot visus tehnoloģijas aspektus no dažādiem viedokļiem. Politikas izstrādei nepieciešama daudzdisciplināra pieeja, kurā nepārtraukti sadarbojas politikas veidotāji, dažādu jomu akadēmisko aprindu pārstāvji, sociālie partneri, profesionāļu organizācijas, profesionāļi, uzņēmumi un NVO. Jo īpaši attiecībā uz sabiedriskas nozīmes pakalpojumiem, kas saistīti ar veselību, drošību un cilvēku labjutību un kuru pamatā ir uzticība, ir jāgarantē, ka MI sistēmas ir pielāgotas praktiskajām prasībām un nevar mazināt cilvēka atbildību.

Biometriskā atpazīšana

2.18.

EESK atzinīgi vērtē Komisijas aicinājumu sākt publiskas debates par to, kā izmantot uz MI balstītu biometrisko atpazīšanu. Mikroizteiksmes, gaitas, balss (toņa), sirdsdarbības ātruma, temperatūras u.c. biometriskā atpazīšana jau tiek izmantota, lai novērtētu vai pat paredzētu mūsu uzvedību, garīgo stāvokli un emocijas, tostarp personāla atlases procedūrās. Izsakoties pilnīgi skaidri – nav pārliecinošu zinātnisku pierādījumu, kas liecinātu par to, ka personas iekšējās emocijas vai garīgo stāvokli var precīzi “nolasīt” no sejas izteiksmes, gaitas, sirdsdarbības ātruma, balss toņa vai ķermeņa temperatūras, nemaz nerunājot par to, ka tādā veidā varētu paredzēt personas turpmāko uzvedību.

2.19.

Turklāt jānorāda, ka Vispārīgā datu aizsardzības regula tikai zināmā mērā ierobežo biometrisko datu apstrādi. Saskaņā ar Vispārīgo datu aizsardzības regulu biometriskie dati ir “persondati pēc specifiskas tehniskas apstrādes, kuri attiecas uz fiziskas personas fiziskajām, fizioloģiskajām vai uzvedības pazīmēm, kas ļauj veikt vai apstiprina minētās fiziskās personas unikālu identifikāciju”. Daudzas biometriskās atpazīšanas tehnoloģijas tomēr nav paredzētas personas unikālai identificēšanai, bet gan tikai personas izturēšanās vai emociju novērtēšanai. Uz šiem lietojumiem, iespējams, neattiecas Vispārīgajā datu aizsardzības regulā iekļautā biometrisko datu (apstrādes) definīcija.

2.20.

Uz MI balstīta biometriskā atpazīšana ietekmē arī mūsu plašākās tiesības uz privātās dzīves neaizskaramību, identitātes, autonomijas un psiholoģiskās integritātes ievērošanu, radot situāciju, kurā mūs (pastāvīgi) novēro, mums seko un identificē. Tai varētu būt psiholoģiska atturoša ietekme, rosinot cilvēkus pielāgot savu uzvedību noteiktai normai. Tādējādi tiek aizskartas mūsu pamattiesības uz privātumu (morālā un psiholoģiskā integritāte). Turklāt uz MI balstīta biometriskā atpazīšana varētu ietekmēt arī citas pamattiesības un brīvības, piemēram, pulcēšanās brīvību un tiesības netikt diskriminētam.

2.21.

EESK iesaka jebkādu biometriskās atpazīšanas izmantošanu atļaut tikai tad, ja tai ir zinātniski pierādīta ietekme, tā notiek kontrolētā vidē un saskaņā ar stingriem nosacījumiem. Būtu jāaizliedz plaši izmantot uz MI balstītu biometrisko atpazīšanu cilvēku novērošanai vai cilvēku, viņu uzvedības vai emociju izsekošanai, novērtēšanai vai klasificēšanai.

Mākslīgā intelekta ietekme uz darbu un prasmēm

2.22.

EESK norāda, ka Baltajā grāmatā nav stratēģijas, kā reaģēt uz MI ietekmi uz darbu, lai gan tas bija nepārprotams elements 2018. gada ES stratēģijā par mākslīgo intelektu.

2.23.

EESK atbalsta visu veidu darba ņēmēju un pakalpojumu sniedzēju, tostarp ārštata darbinieku, pašnodarbināto un gadījumdarbu veicēju, agrīnu un ciešu iesaisti, piesaistot ne tikai cilvēkus, kuri izstrādā vai attīsta mākslīgo intelektu, bet arī tos, kuri pērk, ievieš un strādā ar MI sistēmām vai kurus šīs sistēmas ietekmē. Sociālajam dialogam ir jānotiek pirms MI tehnoloģiju ieviešanas darbavietā, ievērojot visus piemērojamos valsts noteikumus un praksi. Darbavietā piekļuve darba ņēmēju datiem un šādu datu pārvaldība ir jānodrošina atbilstoši principiem un noteikumiem, par ko vienojušies sociālie partneri.

2.24.

EESK vēlas pievērst īpašu uzmanību mākslīgajam intelektam, ko izmanto, pieņemot darbā vai atbrīvojot no darba personālu un personāla izvērtēšanas un novērtēšanas procedūrās. Baltajā grāmatā minēts, ka MI izmantošana personāla atlasē ir uzskatāma par “augsta riska” darbību un būtu jāregulē neatkarīgi no nozares. EESK iesaka paplašināt šo izmantošanas jomu, iekļaujot MI izmantošanu personāla atbrīvošanai no darba un personāla izvērtēšanas un novērtēšanas procedūrās, taču arī izpētīt to MI lietojumu, kas ietver augstu risku darbavietā, kopējās iezīmes neatkarīgi no nozares. Darbavietā nevajadzētu atļaut tādus MI lietojumus, kuriem nav zinātniska pamatojuma, piemēram, emociju noteikšanai, izmantojot biometrisko atpazīšanu.

2.25.

Lai ikviens varētu pielāgoties mākslīgā intelekta straujajai attīstībai, ir būtiski svarīgi uzturēt digitālās prasmes vai dot iespēju iegūt jaunas. Tāpēc politika un finanšu līdzekļi būs jāvirza arī uz izglītību un prasmju veidošanu jomās, kurās nebūs mākslīgā intelekta sistēmu radīta apdraudējuma riska (t. i., uzdevumi, kuros cilvēka darbs ir izšķiroši svarīgs, piemēram, sabiedriskas nozīmes pakalpojumi, kas saistīti ar veselību, drošību un cilvēku labjutību un kuru pamatā ir uzticēšanās, vai kuros cilvēks un iekārta darbojas saskaņoti, vai kurus mēs nevēlamies uzticēt iekārtai).

3.   Mākslīgais intelekts un koronavīruss

3.1.

Mākslīgais intelekts var palīdzēt labāk izprast koronavīrusu un Covid-19, kā arī pasargāt cilvēkus no riska, palīdzēt izstrādāt vakcīnu un pētīt ārstēšanas iespējas. Tomēr joprojām ir svarīgi atklāti un skaidri norādīt, ko var un ko nevar mākslīgais intelekts.

3.2.

Noturība un efektivitāte: uz datiem balstīta MI izmantošana, lai prognozētu koronavīrusa izplatību, ir potenciāli problemātiska, jo datu par koronavīrusu ir pārāk maz, lai MI rezultāti būtu ticami. Turklāt nelielais pieejamo datu apjoms ir nepilnīgs un neobjektīvs. Izmantojot šos datus mašīnmācīšanās pieejās, varētu rasties daudz nepatiesi negatīvu un nepatiesi pozitīvu rezultātu.

3.3.

Sevišķi svarīga ir pārredzamība attiecībā uz izmantotajiem datiem un modeļiem, kā arī rezultātu izskaidrojamība. Patlaban pasaule nevar atļauties pieņemt lēmumus, kas balstīti uz “melnajām kastēm”.

3.4.

Izmantojot mākslīgo intelektu šīs pandēmijas apkarošanai, cilvēktiesību ievērošana, ētikas principi un spēkā esošie tiesību akti ir svarīgāki nekā jebkad agrāk. Jo īpaši gadījumos, kad MI rīki, iespējams, pārkāpj cilvēktiesības, to izmantošanai jābūt pamatotai ar leģitīmam interesēm, un tos var izmantot tiktāl, cik tas nepieciešams, samērīgi un, pats galvenais, ierobežotā laikā.

3.5.

Visbeidzot, mums ir jānodrošina taisnīgums un iekļautība. Jāpanāk, lai MI sistēmas, kas tiek izstrādātas pandēmijas apkarošanai, būtu bez aizspriedumiem un diskriminācijas. Turklāt tām jābūt visiem pieejamām un jāņem vērā dažādo skarto valstu sabiedrības un kultūras atšķirības.

Izsekošanas un identificēšanas un veselības uzraudzības lietotnes

3.6.

Kā uzskata virusologi un epidemiologi, lai pēc norobežošanas pasākumiem atkal atvērtu sabiedrību un ekonomiku, ir vajadzīga efektīva cilvēku veselības uzraudzība, izsekošana un aizsargāšana. Pašlaik tiek izstrādātas daudzas lietotnes uzraudzības, izsekošanas un veselības pārbaužu veikšanas darbībām, ko parasti (un vēsturiski) veica profesionāļi. Visā pasaulē daudzu valstu valdības ir lielā mērā uzticējušās uzraudzīšanas un izsekošanas lietotnēm kā līdzeklim, kas ļautu atcelt ierobežojošos pasākumus.

3.7.

Šāda veida lietotņu plaša izmantošana ir ļoti radikāls solis. Tāpēc ir svarīgi kritiski izvērtēt lietotņu lietderību, nepieciešamību un efektivitāti, kā arī to sabiedrisko un juridisko ietekmi, pirms tiek pieņemts lēmums par to izmantošanu. Joprojām ir jābūt iespējai neizmantot lietotnes, prioritāri izvēloties mazāk invazīvus risinājumus.

3.8.

Uzraudzīšanas un izsekošanas lietotņu efektivitāte un uzticamība ir ārkārtīgi svarīga, jo neefektivitāte un neuzticamība varētu radīt daudz nepatiesi pozitīvu un nepatiesi negatīvu rezultātu, maldīgu drošības sajūtu un tādējādi lielāku inficēšanās risku. Sākotnējās zinātniskās simulācijas rada nopietnas šaubas par to, vai uzraudzīšanas lietotnei vispār būs pozitīva ietekme uz vīrusa izplatību, pat ja to lietotu 80 % vai 90 % iedzīvotāju. Lietotne arī nevar reģistrēt īpašus apstākļus, piemēram, organiskā stikla aizsegus un logus vai individuālo aizsardzības līdzekļu nēsāšanu.

3.9.

Turklāt šo lietotņu izmantošanas rezultātā (daļēji) tiek ierobežotas dažādas cilvēktiesības un brīvības, jo tās skar mūsu biedrošanās brīvību, tiesības uz drošību, uz nediskrimināciju un uz privātumu.

3.10.

Privātumam ir ļoti liela nozīme, taču tas nozīmē daudz vairāk nekā tikai mūsu personas datus un anonimitāti. Privātums nozīmē arī tiesības netikt izsekotam, uzraudzītam un pakļautam kontrolei. Ir zinātniski pierādīts, ka tad, kad cilvēki zina, ka viņus izseko, viņi sāk izturēties savādāk. Kā norādījusi Eiropas Cilvēktiesību tiesa, šis “atturošais efekts” ir mūsu privātuma aizskaršana. Šis plašais privātuma jēdziens būtu jāiekļauj debatēs par mākslīgo intelektu.

3.11.

Pastāv risks, ka savāktie dati (tagad vai nākotnē) tiks izmantoti ne tikai pašreizējās pandēmijas apkarošanai, bet arī cilvēku profilēšanai, kategorizēšanai un vērtēšanai dažādos nolūkos. Tālākā nākotnē ir pat iespējams iztēloties, ka “funkciju nobīde” varētu izraisīt nevēlamus profilēšanas veidus uzraudzībā un kontrolē, ietekmēt apdrošināšanas vai sociālo pabalstu saņemšanu, darbā pieņemšanu vai atlaišanu no darba utt. Tāpēc datus, kas savākti, izmantojot šādas lietotnes, nekādā gadījumā nedrīkstētu izmantot profilēšanai, riska noteikšanai, klasificēšanai vai prognozēšanai.

3.12.

Turklāt jebkurš MI risinājums, kas tiek izmantots šajos ārkārtas apstākļos un pat ar vislabākajiem nodomiem, radīs precedentu neatkarīgi no tā, vai mums tas patīk vai ne. Iepriekšējās krīzes ir parādījušas, ka, neraugoties uz visiem labajiem nodomiem, šādi pasākumi praksē nekad nepazūd.

3.13.

Tāpēc mākslīgā intelekta lietošana šīs pandēmijas laikā vienmēr ir jāvērtē un jāsalīdzina, ņemot vērā vairākus apsvērumus, piemēram: i) vai tā ir efektīva un uzticama? ii) vai pastāv mazāk agresīvi risinājumi? iii) vai ieguvumi pārsniedz sabiedrības, ētikas normu un pamattiesību problēmas? un iv) vai ir iespējams panākt atbildīgu kompromisu starp konfliktējošām pamattiesībām un brīvībām? Turklāt šāda veida sistēmas nedrīkst izmantot nekāda veida saistībās vai piespiedu kārtā.

3.14.

EESK mudina politikas veidotājus nepiekāpties pārāk ātri tehnoloģiskiem risinājumiem. Ņemot vērā situācijas nopietnību, mēs iesakām nodrošināt, ka pieteikumi saistībā ar projektiem, kas izstrādāti, lai palīdzētu kontrolēt pandēmiju, tiek pamatoti ar pārliecinošiem pētījumiem epidemioloģijā, socioloģijā, psiholoģijā, tiesībās, ētikā un sistēmu zinātnēs. Pirms lēmumu pieņemšanas par šo sistēmu izmantošanu ir jāveic efektivitātes, nepieciešamības un jutīguma analīze un simulācijas.

Briselē, 2020. gada 16. jūlijā

Eiropas Ekonomikas un sociālo lietu komitejas priekšsēdētājs

Luca JAHIER


Top