EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020DC0065

BALTĀ GRĀMATA par mākslīgo intelektu. Eiropiska pieeja – izcilība un uzticēšanās

COM/2020/65 final/2

Briselē, 19.2.2020

COM(2020) 65 final

BALTĀ GRĀMATA

par mākslīgo intelektu.

Eiropiska pieeja – izcilība un uzticēšanās


Baltā grāmata par mākslīgo intelektu

Eiropiska pieeja – izcilība un uzticēšanās

Mākslīgais intelekts attīstās strauji. Tas mainīs mūsu dzīvi, uzlabojot veselības aprūpi (precizējot diagnozēšanu, uzlabojot slimību profilaksi), kāpinot lauksaimniecības efektivitāti, palīdzot mazināt klimata pārmaiņas un tām pielāgoties, paaugstinot ražošanas sistēmu efektivitāti ar prognozējošo apkopi, uzlabojot eiropiešu drošību, kā arī daudzos citos veidos, kurus nu tik sākam apjaust. Tajā pašā laikā mākslīgais intelekts (AI, reizēm MI) nes līdzi dažādas briesmas, piemēram, nepārredzamu lēmumu pieņemšanu, dzimumisku vai citādu diskrimināciju, iejaukšanos privātajā dzīvē vai izmantošanu noziegumos.

Uz sīvas globālās konkurences fona ir vajadzīga groda eiropiska pieeja, kas balstīta uz Eiropas stratēģiju AI jomā, ar kuru iepazīstinājām 2018. gada aprīlī 1 . Ņemot savās rokās AI radītās iespējas un problēmas, ES ir jārīkojas vienoti un uz Eiropas vērtību pamata jānosprauž savs ceļš, veicinot mākslīgā intelekta izstrādi un ieviešanu.

Komisija ir apņēmusies veicināt zinātnes sasniegumus, saglabāt ES līderlomu tehnoloģijā un nodrošināt, ka jaunās tehnoloģijas kalpo visiem eiropiešiem, uzlabojot viņu dzīvi un ievērojot viņu tiesības.

Politiskajās pamatnostādnēs 2 Komisijas priekšsēdētāja Urzula fon der Leiena izziņoja koordinētu Eiropas pieeju mākslīgā intelekta ietekmei cilvēciskā un ētiskā aspektā, kā arī aicināja apcerēt lielo datu labāku izmantošanu inovācijā.

Tātad: Komisija atbalsta regulatīvu un uz ieguldīšanu orientētu pieeju ar dubultīgu mērķi veicināt AI ieviešanu un novērst briesmas, kas iemīt kādos šo jauno tehnoloģiju lietojumos. Šās baltās grāmatas nolūks ir noteikt politiskos risinājumus minēto mērķu sasniegšanai. Tā neskar AI izstrādāšanu un izmantošanu militārām vajadzībām. Komisija aicina dalībvalstis, pārējās Eiropas institūcijas un visas ieinteresētās personas, to vidū rūpniekus, sociālos partnerus, pilsoniskās sabiedrības organizācijas, pētniekus, visplašāko sabiedrību un ikvienu interesentu reaģēt uz tālāk minētajām iespējām un dot savu artavu Komisijas turpmāko lēmumu izstrādē šajā sfērā.

1.Ievads

Ciparsignālu tehnoloģijai iespiežoties it visos cilvēka dzīves aspektos, cilvēkiem jāspēj tai uzticēties. Uzticamība ir arī priekšnoteikums tās ieviešanai. Šī Eiropai ir izdevība – ņemot vērā tās ciešo pieķeršanos vērtībām un tiesiskumam un pierādīto spēju izstrādāt drošas, uzticamas un izsmalcinātas preces un pakalpojumus, sākot ar aeronavigācija iekārtām un beidzot ar energoiekārtām, automobiļiem un medicīnas aparatūru.

Eiropas pašreizējā un turpmākā ilgtspējīgā ekonomiskā izaugsme un sabiedrības labklājība arvien vairāk balstās uz datu radīto vērtību. AI ir viens no svarīgākajiem datu ekonomikas lietojumiem. Lielākā daļa datu tagad attiecas uz patērētājiem un tiek glabāta un apstrādāta centrālā mākoņdatošanas infrastruktūrā. Turpretim liela daļa daudz bagātīgāko nākotnes datu nāks no rūpniecības, uzņēmējdarbības un publiskā sektora un glabāsies visdažādākajās sistēmās, it sevišķi datošanas ierīcēs, kas darbojas tīkla perifērijā. Tas rada jaunas iespējas Eiropai, kam pozīcijas ir spēcīgas digitalizētajā rūpniecībā un uzņēmumu savstarpējos lietojumos, taču relatīvi vājas patērētāju platformās.

Vienkāršiem vārdiem var teikt, ka mākslīgais intelekts ir tehnoloģiju krājums, kas apvieno datus, algoritmus un datošanas jaudas. Tādēļ galvenie AI pašreizējā pieauguma virzītāji ir progress datošanā un arvien labāka datu pieejamība. Savu tehnoloģisko un rūpniecisko spēku Eiropa var apvienot ar augstas kvalitātes digitālo infrastruktūru un savās pamatvērtībās balstītu tiesisko regulējumu, kļūstot par pasaules līderi datu ekonomikas un tās lietojumu inovācijā – tas izklāstīts Eiropas datu stratēģijā 3 . Uz tāda pamata tā var attīstīt AI ekosistēmu, kas tehnoloģijas devumu nodod Eiropas sabiedrībai un ekonomikai:

·pilsoņiem – jaunus ieguvumus, piemēram, labāku medicīnisko aprūpi, mazāk sadzīves tehnikas bojājumu, drošākas un tīrīgākas transporta sistēmas, labākus publiskos pakalpojumus,

·uzņēmējdarbības attīstībai – piemēram, jaunas ražojumu un pakalpojumu paaudzes izstrādi jomās, kur Eiropa ir sevišķi spēcīga (iekārtas, transportlīdzekļi, kiberdrošība, lauksaimniecība, ekoloģiska un apritīga ekonomika, medicīniskā aprūpe un augstas pievienotās vērtības nozares, kā mode un tūrisms),

·sabiedriskas nozīmes pakalpojumos – piemēram, samazinot apkalpošanas izmaksas (transports, izglītība, enerģētika un atkritumu apsaimniekošana), uzlabojot ražojumu ilgtspēju 4 un atbalstot efektīvu tiesībaizsardzību, lai aizsargātu pilsoņus 5 ar pienācīgiem aizsardzības pasākumiem, kuros tiek ievērotas viņu tiesības un brīvības.

Tā kā AI spēj būtiski ietekmēt sabiedrību un ir vajadzīgs viest uzticēšanos, ir vitāli svarīgi, lai Eiropas AI balstītos tādās vērtībās un pamattiesībās kā cilvēka cieņa un privātuma aizsardzība.

AI sistēmu nozīme jāskata ne tikai no indivīda, bet arī no vispārības viedokļa. AI sistēmu izmantošanai var būt nozīmīga loma ilgtspējīgas attīstības mērķu sasniegšanā un demokrātijas procesa un sociālo tiesību atbalstīšanā. Ar nesenajiem priekšlikumiem par Eiropas zaļo kursu 6 Eiropa ir uzņēmusies vadošo lomu klimatisko un vidisko problēmu risināšanā. Ciparsignālu tehnoloģijas, piemēram, AI, ir būtisks faktors zaļā kursa mērķu sasniegšanai. Ņemot vērā AI augošo nozīmi, visā AI sistēmu darba mūžā un visā piegādes ķēdē ir pienācīgi jāņem vērā to iedarbība uz vidi, piemēram, resursu izmantošanā algoritmu apmācībai un datu glabāšanai.

Vienota eiropiska pieeja mākslīgajam intelektam vajadzīga, lai sasniegtu pietiekamus apmērus un izvairītos no vienotā tirgus neviengabalainības. Valstu iniciatīvu ieviešana var apdraudēt juridisko noteiktību, vājināt pilsoņu uzticēšanos un aizturēt dinamiskas Eiropas rūpniecības nozares rašanos.

Šajā baltajā grāmatā izklāstīti politiskie risinājumi, kas Eiropā iespējotu uzticama un droša AI attīstību, pilnībā ievērojot ES pilsoņu vērtības un tiesības. Šās baltās grāmatas galvenie bloki ir šādi.

·Politiskais satvars, kas nosaka pasākumus pūliņu sakopošanai Eiropas, valstu un reģionu līmenī. Privātā un publiskā sektora partnerībā satvars tiecas mobilizēt resursus, lai izveidotu “izcilības ekosistēmu” visā vērtības veidošanas ķēdē, kas sākas no pētniecības un inovācijas, un radīt pareizus stimulus, kas paātrina uz AI balstītu risinājumu pieņemšanu, arī mazos un vidējos uzņēmumos (MVU) .

·Topošā AI tiesiskā regulējuma pamatelementi Eiropā, kuri radīs unikālu “uzticēšanās ekosistēmu”. Lai to panāktu, tai ir jānodrošina atbilstība ES noteikumiem, ieskaitot noteikumus par pamattiesību un patērētāju tiesību aizsardzību, sevišķi attiecībā uz AI sistēmām, kuras darbojas ES un rada augstu bīstamību 7 . Uzticēšanās ekosistēmas veidošana pati ir politikas mērķis, un tai jādod pilsoņiem pārliecība, kas ļauj AI uzņemt lietošanā, bet uzņēmumiem un publiskām organizācijām – juridiska noteiktība, kuras apstākļos inovēt ar AI. Komisija stingri atbalsta antropocentrisko pieeju, kas balstās uz paziņojumu “Vairojot uzticēšanos antropocentriskam mākslīgajam intelektam” 8 , un ņems vērā arī atziņas, kas gūtas Mākslīgā intelekta augstās ekspertu grupas izstrādāto ētikas vadlīniju iemēģināšanas posmā.

Baltajai grāmatai pievienotās Eiropas Datu stratēģijas mērķis ir dāvāt Eiropai spējas kļūt par pasaulē pievilcīgāko, aizsargātāko un dinamiskāko elastīgas datu ekonomikas reģionu – nodrošinot Eiropai datus, kas ļauj uzlabot lēmumus un vērst labāku visu tās pilsoņu dzīvi. Stratēģijā izklāstīti vairāki politiski pasākumi, ieskaitot privāto un publisko ieguldījumu mobilizēšanu, kas vajadzīga šā mērķa sasniegšanai. Beidzot, AI, lietu interneta un citu ciparsignālu tehnoloģiju ietekme tiesību aktiem drošuma un tiesiskās atbildības jomā tiek analizēta šai baltajai grāmatai pievienotajā Komisijas ziņojumā.

2.Rūpniecisko un profesionālo tirgu stipro pušu izmantošana

Eiropai ir labas izredzes gūt labumu no AI potenciāla ne tikai kā lietotājai, bet arī kā šās tehnoloģijas radītājai un ražotājai. Tai ir izcili pētniecības centri, novatoriski jaunuzņēmumi, pirmā vieta pasaulē robotikā un konkurenciālās ražošanas un pakalpojumu nozarēs, sākot ar autorūpniecību un enerģētiku un beidzot ar medicīnisko aprūpi, finansiālajiem pakalpojumiem un lauksaimniecību. Eiropa ir arī izvērsusi spēcīgu datošanas infrastruktūru (piem, augstas veiktspējas datorus), kas ir būtiska AI funkcionēšanai. Eiropas rīcībā ir liels publisko un rūpniecisko datu apjoms, kuru potenciāls pašlaik netiek pietiekami izmantots. Tai ir plaši atzīta rūpniecības jauda drošās un aizsargātās digitālās sistēmās ar zemu enerģijas patēriņu, kas ir būtiskas AI turpmākai attīstībai.

Izmantojot ES spēju ieguldīt nākamās paaudzes tehnoloģijās un infrastruktūrās, kā arī digitālajās prasmēs, piemēram, datpratībā, palielināsies Eiropas tehnoloģiskā patstāvība galvenajās pamattehnoloģijās un datu ekonomikai vajadzīgajās infrastruktūrās. Infrastruktūrām jāatbalsta tādu Eiropas datu kopfondu izveide, kuri nodrošina uzticamu AI, piemēram, tādu, kura pamatā ir Eiropas vērtības un normas.

Eiropai jāliek lietā savas stiprās puses, lai attīstītu savas pozīcijas ekosistēmās un vērtības veidošanās ķēdē, sākot ar kādām aparatūras ražošanas nozarēm un programmatūras izstrādi un beidzot ar pakalpojumiem. Kaut kādā mērā tas jau notiek. Eiropa saražo vairāk nekā ceturtdaļu rūpniecisko un profesionālo apkalpes robotu (piemēram, precīzijas lauksaimniecībai, drošībai, veselības aizsardzībai, loģistikai), un tai ir svarīga loma uzņēmumiem un organizācijām domāto lietotņu (uzņēmuma-uzņēmuma jeb B2B lietotņu, piemēram, uzņēmumu resursu plānošanas, projektēšanas un inženiertehniskā programmatūra), kā arī lietojumu, kas balsta e-pārvaldi un “intelektiskos uzņēmumus”, izstrādē un izmantošanā.

Eiropa rāda ceļu AI ieviešanā ražošanā. Vairāk nekā puse vadošo ražotāju izmanto vismaz vienu mākslīgā intelekta funkciju 9 .

Viens no iemesliem, kāpēc Eiropai ir spēcīgas pozīcijas pētniecības jomā, ir ES finansēšanas programma, kas ir izrādījusies noderīga, lai sakopotu pūliņus, izvairītos no dublēšanās un piesaistītu publiskos un privātos ieguldījumus dalībvalstīs. Pēdējos trīs gados ES finansējums pētniecībai un inovācijai AI jomā ir uzkāpis līdz 1,5 miljardiem eiro, kas ir par 70 % vairāk nekā iepriekšējā periodā.

Tomēr ieguldījumi pētniecībā un inovācijā Eiropā joprojām ir “sīka vienība” iepretim publiskajiem un privātajiem ieguldījumiem citos pasaules reģionos. 2016. gadā Eiropā AI tika ieguldīti aptuveni 3,2 miljardi eiro, salīdzinot ar aptuveni 12,1 miljardu eiro Ziemeļamerikā un 6,5 miljardiem eiro Āzijā 10 . Reaģējot uz to, Eiropai ir ievērojami jāpaplašina ieguldīšana. Kopā ar dalībvalstīm izstrādātais Koordinētais mākslīgā intelekta plāns 11 pierādās par labu sākumpunktu ciešākas sadarbības veidošanai AI jomā Eiropā un sinerģijas radītāju ieguldījumu maksimalizēšanai mākslīgā intelekta vērtības veidošanās ķēdē.

3.Nākotnes izdevību izmantošana. Nākamais datu vilnis

Lai gan Eiropai pašlaik ir vājāka pozīcija patērētāju lietotnēs un tiešsaistes platformās, no kam piekļuvē datiem rodas neizdevīgi konkurences apstākļi, ir sākušās būtiskas pārmaiņas datu vērtībā un datu atkalizmantošanā nozaru starpā. Pasaulē saražoto datu apjoms strauji aug – no 33 ZB 2018. gadā tam paredzēts sasniegt 175 ZB 2025. gadā 12 . Ikkatrs jauns datu vilnis Eiropai dod iespējas ieņemt pozīcijas elastīgajā datu ekonomikā un šajā jomā kļūt par pasaules līderi. Tuvākajos piecos gados arī krasi mainīsies datu glabāšanas un apstrādes veids. Tagad 80 % mākonī notiekošās datu apstrādes un analīzes rit datošanas centros un centralizētās datošanas iekārtās, un 20 % – viedajos satīklotajos objektos, piemēram, automobiļos, sadzīves tehnikā vai rūpniecības robotos, un datošanas iekārtās, kas atrodas tuvu lietotājam (“perifērdatošanā”). Līdz 2025. gadam šī proporcija ievērojami mainīsies 13 .

Eiropa ir pasaules līdere zema energopatēriņa elektronikā, kas ir būtiska nākamās paaudzes specializētajiem mākslīgā intelekta procesoriem. Šajā tirgū patlaban dominē trešo valstu tirgotāji. Tas varētu mainīties, ja tiktu izmantotas tādas iniciatīvas kā Eiropas procesoru iniciatīva, kuras mērķis ir attīstīt zema energopatēriņa datošanas sistēmas gan perifērajai, gan nākamās paaudzes augstas veiktspējas datošanai, un Ciparsignālu pamattehnoloģiju kopuzņēmuma darbs, ko likts priekšā sākt 2021. gadā. Eiropa ir līdere arī neiromorfiskos risinājumos 14 , kas ideāli piemēroti ražošanas procesu automatizācijai (Industry 4.0) un dažiem transporta veidiem. Tie spēj vairākkārtīgi palielināt energoefektivitāti.

Jaunākie sasniegumi kvantiskajā datošanā apstrādes jaudu palielinās eksponenciāli 15 . Eiropa var būt šās tehnoloģijas priekšpulks, jo tai ir akadēmiskie spēki kvantiskajā datošanā un Eiropas rūpniecībai ir spēcīgas pozīcijas kvantiskajos simulatoros un kvantiskajai datošanai vajadzīgajā programmēšanas vidē. Eiropas iniciatīvas, kuru mērķis ir palielināt kvantiskās testēšanas un eksperimentēšanas iekārtu pieejamību, palīdzēs šos jaunos kvantiskās datošanas risinājumus pielietot daudzās rūpniecības un akadēmiskā darba nozarēs.

Līdztekus Eiropa turpinās virzīt AI algoritmisko pamatu attīstību, smeļoties savā zinātniskajā izcilībā. Ir jābūvē tilti starp disciplīnām, kuras pašlaik darbojas katra par sevi, piemēram, mašīnu mācīšanos un dziļo mācīšanos (ko raksturo ierobežota interpretējamība, vajadzība pēc liela datu apjoma, kas ļautu apmācīt modeļus un mācīties no korelācijām) un simboliskām pieejām (kur noteikumus rada ar cilvēka iejaukšanos). Kombinējot simbolisko spriešanu ar dziļajiem neirālajiem tīkliem, var uzlabot mākslīgā intelekta rezultātu izprotamību.

4.Izcilības ekosistēma

Lai izveidotu izcilības ekosistēmu, kura spēj atbalstīt AI izstrādi un ieviešanu visā ES ekonomikā un valsts pārvaldē, ir jāpastiprina rīcība vairākos līmeņos.

A.Sadarbība ar dalībvalstīm

Īstenojot 2018. gada aprīlī pieņemto stratēģiju AI jomā 16 , 2018. gada decembrī Komisija iepazīstināja ar Koordinēto plānu, kurš sagatavots kopīgi ar dalībvalstīm un kura mērķis ir Eiropā veicināt AI izstrādi un izmantošanu 17 .

Plānā ierosināts ap 70 kopīgu darbību ciešākai, efektīvākai sadarbībai starp dalībvalstīm un Komisiju tādās svarīgās jomās kā pētniecība, ieguldīšana, ieviešana tirgū, prasmes un talanti, dati un starptautiskā sadarbība. Plānam paredzēts darboties līdz 2027. gadam, un to regulāri uzraudzīs un pārskatīs.

Mērķis ir maksimalizēt ieguldījumu ietekmi pētniecībā, inovācijā un ieviešanā, novērtēt valstu AI stratēģiju un kopā ar dalībvalstīm attīstīt un izvērst Koordinēto mākslīgā intelekta plānu.

·1. darbība. Ņemot vērā baltās grāmatas sabiedriskās apspriešanas rezultātus, Komisija liks priekšā dalībvalstīm pārskatīt koordinēto plānu, kas jāpieņem līdz 2020. gada beigām.

ES līmeņa finansējumam AI jāpiesaista un jāsakopo ieguldījumi jomās, kurās vajadzīgās darbības nav īstenojamas kādai atsevišķai dalībvalstij. Mērķis ir nākamajā gadu desmitā ES ik gadu piesaistīt AI vairāk nekā 20 miljardus eiro 18 no kopējiem ieguldījumiem. Lai stimulētu privātās un publiskās investīcijas, ES darīs pieejamus resursus no Digitālās Eiropas programmas, “Apvāršņa Eiropas”, kā arī no Eiropas strukturālajiem un investīciju fondiem, lai apmierinātu zemāk attīstīto reģionu un lauku apvidu vajadzības.

Koordinētajā plānā varētu pievērsties arī sabiedrības un vides labklājībai, kas būtu viens no AI galvenajiem principiem. AI sistēmas rada cerības palīdzēt risināt aktuālākās problēmas, ieskaitot klimata pārmaiņas un vides degradāciju. Ir arī svarīgi, lai tas notiktu saudzīgi pret vidi. AI par sevi spēj un tam vajag kritiski izvērtēt resursu izmantojumu un enerģijas patēriņu, un tam jābūt mācītam izdarīt videi labvēlīgu izvēli. Komisija kopā ar dalībvalstīm apsvērs iespējas veicināt un popularizēt AI risinājumus, kuri to spēj.

B.Pētniecības un inovācijas kopienas pūliņu koncentrēšana

Eiropa nevar atļauties saglabāt pašreizējo neviengabalaino kompetences centru kopumu, jo neviens no tiem nesasniedz līmeni, kas vajadzīgs, lai konkurētu ar pasaules vadošajiem institūtiem. Obligāti jārada lielāka sinerģija un tīkli starp daudzajiem Eiropas AI pētniecības centriem un jāsaskaņo to pūliņi, lai uzlabotu izcilību, pieturētu un piesaistītu labākos pētniekus un attīstītu labāko tehnoloģiju. Eiropai ir vajadzīga vaduguns – pētniecības, inovācijas un zinību centrs, kas šos pūliņus koordinētu un būtu pasaules mēroga izcilības paraugs AI jomā un spētu piesaistīt ieguldījumus un šajā jomā labākos talantus. 

Centriem un tīkliem jākoncentrējas uz nozarēm, kurās Eiropai ir potenciāls kļūt par labāko pasaulē, piemēram, rūpniecību, veselības aprūpi, transportu, finansēm, lauksaimnieciskās pārtikas vērtības veidošanas ķēdēm, enerģētiku/vidi, mežsaimniecību, Zemes novērošanu un kosmosa apgūšanu. Visās šajās jomās turpinās sacensība par pasaules līdera godu, un Eiropai ir ievērojams potenciāls, zināšanas un ekspertu kompetence 19 . Tikpat svarīgi ir veidot izmēģināšanas un eksperimentēšanas vietas, kas atbalstītu jaunu AI lietojumu izstrādi un pēcāku ieviešanu.

·2. darbība. Komisija atvieglinās izcilības un izmēģināšanas centru izveidi, lai būtu iespējams kombinēt Eiropas, valstu un privātā sektora ieguldījumus, varbūt pieņemot arī jaunu tiesību aktu. Komisija ir ierosinājusi grandiozu īpaši virzītu summu, kas atbalstītu pasaules etalontestēšanas centrus Eiropā saskaņā ar programmu “Digitālā Eiropa” un ko attiecīgā gadījumā papildinātu “Apvāršņa Eiropas” pētniecības un inovācijas darbības kā daļa no daudzgadu finanšu shēmas 2021.–2027. gadam.

C.Prasmes

Eiropiskā pieeja AI būs jābalsta spēcīgam uzsvaram uz prasmēm, lai aizpildītu veidojošos plaisu starp mākas piedāvājumu un pieprasījumu 20 . Drīzumā Komisija iepazīstinās ar pastiprināto Prasmju programmu, kuras mērķis ir nodrošināt, lai ikviens Eiropā var gūt labumu no ES ekonomikas zaļās un digitālās pārveides. Iniciatīvu vidū varētu būt arī nozaru regulatoru atbalsts AI prasmju uzlabošanai, lai varētu izdarīgi un efektīvi īstenot attiecīgus noteikumus. Atjauninātais Digitālās izglītības rīcības plāns palīdzēs labāk izmantot datus un tādas AI balstītas tehnoloģijas kā mācīšanās un prognozējoša analīze, lai uzlabotu izglītības un apmācības sistēmas un tās pielāgotu digitālajam laikmetam. Plāns arī uzlabos sapratni par AI visos izglītības līmeņos, lai gatavotu pilsoņus informētībā sakņotiem lēmumiem, kurus aizvien vairāk skars AI.

AI jomā nepieciešamo prasmju izkopšana un darbaspēka kvalifikācijas celšana, lai to pielāgotu AI vadītai pārveidei, būs prioritāte pārskatītajā koordinētajā AI plānā, kas izstrādājams kopā ar dalībvalstīm. Tajā varētu ietilpt ētikas vadlīniju novērtējuma saraksta pārveidošana par orientējošu “mācību programmu” AI izstrādātājiem, kura būs pieejama kā materiāls mācību iestādēm. Īpaši jāpūlas palielināt šajā jomā apmācīto un nodarbināto sieviešu skaitu.

Turklāt AI pētniecības un inovācijas centrs Eiropā ar tā piedāvātajām iespējām kā bāka pievilinātu talantus no visas pasaules. Tas arī attīstītu un izplatītu izcilību prasmēs, kas sakņojas un plaukst visā Eiropā.

·3. darbība. Izmantojot programmas “Digitālā Eiropa” augstāko prasmju pīlāru, izveidot un atbalstīt vadošo universitāšu un citu augstākās izglītības iestāžu tīklus, lai piesaistītu labākos mācībspēkus un zinātniekus un piedāvātu pasaulē labākās maģistrantūras programmas AI jomā.

Darba ņēmējus un darbiniekus tieši skar ne tikai prasmju pilnveide, bet arī AI sistēmu veidošana un izmantošana darbavietā. Sociālo partneru iesaistīšanai būs izšķirīga nozīme, nodrošinot antropocentrisku pieeju AI darbā.

D.Fokusā – MVU

Būs svarīgi arī nodrošināt, ka MVU var piekļūt AI un to izmantot. Šajā nolūkā vēl vairāk jāstiprina digitālās inovācijas centri 21 un AI pieprasījumplatforma 22 un jāveicina sadarbība starp MVU. Tam tiks izmantota programma “Digitālā Eiropa”. Lai gan visiem digitālās inovācijas centriem jāsniedz atbalsts MVU, lai tie izprastu un pieņemtu AI, būs svarīgi, lai vismaz vienam inovācijas centram katrā dalībvalstī būtu augsta specializācija AI jomā.

MVU un jaunuzņēmumiem būs vajadzīga piekļuve finansējumam, lai varētu savus procesus pielāgot vai jaunināt, izmantojot AI. Balstoties uz gaidāmo 100 miljonu eiro izmēģinājuma ieguldījumu fondu AI un blokķēdes jomā, Komisija plāno vēl vairāk paplašināt piekļuvi AI finansējumam programmā “InvestEU” 23 . AI ir skaidri nosaukts starp jomām, kas ir tiesīgas izmantot “InvestEU” garantiju.

·4. darbība. Komisija kopā ar dalībvalstīm nodrošinās, ka vismaz vienam digitālās inovācijas centram katrā dalībvalstī ir augsta specializācija AI jomā. Digitālās inovācijas centrus var atbalstīt no programmas “Digitālā Eiropa”.

·Komisija un Eiropas Investīciju fonds 2020. gada 1. kvartālā sāks 100 miljonu eiro izmēģinājuma shēmu, kas nodrošinās pašu kapitāla finansējumu inovatīvām izstrādēm AI jomā. Ja tiks panākta galīgā vienošanās par DFS, Komisija plāno no 2021. gada to ievērojami palielināt ar InvestEU līdzekļiem.

E.Partnerība ar privāto sektoru

Būtiski ir arī nodrošināt, ka privātais sektors pilnībā iesaistās pētniecības un inovācijas darbu saraksta plānošanā un dod nepieciešamo līdzieguldījumu. Tālab uz plašas bāzes izveidojama publiskā un privātā sektora partnerība un nodrošināma uzņēmumu augstākās vadības apņemšanās.

·5. darbība. “Apvāršņa Eiropas” ietvaros Komisija izveidos jaunu publiskā un privātā sektora partnerību AI, datu un robotikas jomā, lai apvienotu spēkus, nodrošinātu AI pētniecības un inovācijas koordināciju, “Apvārsnī Eiropā” sadarbotos ar citām publiskā un privātā sektora partnerībām un sadarbotos ar testēšanas iestādēm un minētajiem digitālās inovācijas centriem.



F.Veicināt AI pieņemšanu publiskajā sektorā

Ir būtiski, lai valsts pārvaldes iestādes, slimnīcas, komunālo pakalpojumu un transporta dienesti, finanšu uzraugi un citi vispārības interešu īstenotāji ātri sāktu darbā izmantot ražojumus un pakalpojumus, kuros tiek izmantots AI. Īpaša uzmanība tiks pievērsta veselības aprūpei un transportam, kur tehnoloģija ir gatava plašai ieviešanai.

·6. darbība. Komisija sāks atklātus, pārredzamus nozares dialogus, kuros prioritāte būs veselības aprūpei, lauku pārvaldes iestādēm un sabiedrisko pakalpojumu sniedzējiem, lai iesniegtu rīcības plānu, kas atvieglos AI izstrādi, eksperimentēšanu un pieņemšanu. Nozares dialogi tiks izmantoti, lai sagatavotu īpašu AI pieņemšanas programmu, kas atbalstīs AI sistēmu publisko iepirkumu un palīdzēs pārveidot pašus publiskā iepirkuma procesus.

G.Nodrošināt piekļuvi datiem un datošanas infrastruktūrai

Šajā baltajā grāmatā izklāstītās pasākumu jomas ir komplementāras plānam, kas līdztekus iesniegts Eiropas datu stratēģijā. Datu pieejamības un pārvaldības uzlabošana ir pamatu pamats. Bez datiem nav iespējams attīstīt AI un citus digitālos lietojumus. Milzīgais jauno datu apjoms, kas vēl tiks ģenerēts, ir iespēja Eiropai ieņemt vietu datu un AI pārveides avangardā. Atbildīgas datu pārvaldības prakses veicināšana un datu atbilstība principiem “FAIR” palīdzēs vairot uzticēšanos un nodrošināt datu atkalizmantojamību 24 . Tikpat svarīgi ir ieguldīt datošanas pamattehnoloģijās un infrastruktūrās.

Komisija ir likusi priekšā ar vairāk nekā 4 miljardiem eiro no programmas “Digitālā Eiropa” atbalstīt augstas veiktspējas un kvantisko datošanu, ieskaitot perifēro datošanu un AI, datu un mākoņdatošanas infrastruktūru. Eiropas datu stratēģija šīs prioritātes attīsta plašāk.

H.Starptautiskie aspekti

Eiropai ir labas iespējas uzņemties vadību pasaulē, veidojot alianses, kuru pamatā ir kopīgas vērtības, un veicinot mākslīgā intelekta ētisku izmantošanu. ES darbs AI jomā jau ir ietekmējis starptautiskās diskusijas. Izstrādājot ētikas vadlīnijas, augstā ekspertu grupa iesaistīja vairākas ārpussavienības organizācijas un vairākus valdības novērotājus. Vienlaikus ES cieši iesaistījās ESAO AI ētikas principu izstrādē 25 . Vēlāk G20 apstiprināja šos principus 2019. gada jūnija ministru paziņojumā par tirdzniecību un digitālo ekonomiku.

Līdztekus ES atzīst, ka citos daudzpusējos forumos, kā Eiropas Padomē, ANO Izglītības, zinātnes un kultūras organizācijā (UNESCO), Ekonomiskās sadarbības un attīstības organizācijā (ESAO), Pasaules tirdzniecības organizācijā (WTO) un Starptautiskajā telesakaru savienībā (ITU), turpinās nozīmīgs darbs AI jomā. ANO ietvaros ES ir iesaistījusies augstas darba grupas par digitālo sadarbību ziņojuma un tajā iekļautā ieteikuma par AI pēcanalīzē.

ES turpinās sadarboties ar valstīm domubiedrēm, kā arī ar pasaules grandiem AI jomā, balstoties uz pieeju, kas pamatota ar ES noteikumiem un vērtībām (piemēram, atbalstot augšupēju regulatīvo konverģenci, piekļūstot galvenajiem resursiem, ieskaitot datus, radot apstākļus godīgai konkurencei). Komisija vērīgi uzraudzīs trešo valstu politiku, kas ierobežo datu plūsmas, un risinās nepamatotus ierobežojumus divpusējās tirdzniecības sarunās un rīkojoties Pasaules tirdzniecības organizācijas kontekstā. Komisija ir pārliecināta, ka pasaules reģionu sadarbība AI jautājumos balstāma pieejā, kas veicina pamattiesību, ieskaitot cilvēka cieņu, ievērošanu, plurālismu, iekļaušanu, nediskriminēšanu un privātuma un persondatu aizsardzību 26 , un centīsies nest savas vērtības pasaulē 27 . Tikpat skaidrs, ka atbildīga AI izstrāde un izmantošana var būt virzītājspēks ilgtspējīgas attīstības mērķu sasniegšanā un Ilgtspējīgas attīstības programmas 2030. gadam tālākā izpildē.

5.Uzticēšanās ekosistēma. AI normatīvais satvars

Kā katra jauna tehnoloģija, AI rada gan izdevības, gan briesmas. Pilsoņi baidās zaudēt spēju aizstāvēt savas tiesības un drošumu algoritmiskās lēmumu pieņemšanas radītās informācijas asimetrijas priekšā, bet uzņēmumi raizējas par juridisko noteiktību. Lai gan mākslīgais intelekts var palīdzēt aizsargāt pilsoņu drošību un dot viņiem iespēju īstenot savas pamattiesības, viņi bažījas arī par to, ka AI var būt neparedzēta ietekme vai to var pat izmantot ļaunprātībām. Šīs bažas ir jākliedē. Blakus ieguldījumu un prasmju trūkumam galvenais faktors, kas kavē AI plašāku ieviešanu, ir uzticēšanās trūkums.

Tāpēc Komisija 2018. gada 25. aprīlī izklāstījusi mākslīgā intelekta stratēģiju 28 , kur līdztekus ieguldījumu palielināšanai pētniecībā, inovācijā un mākslīgā intelekta jaudā visā ES pievēršas sociālekonomiskajiem aspektiem. Stratēģijas saskaņošanai tā vienojās ar dalībvalstīm par koordinētu plānu 29 . Komisija arī izveidoja augstu ekspertu grupu, kas 2019. gada aprīlī publicēja vadlīnijas par uzticamu AI 30 .

Komisija publicēja paziņojumu 31 , kur apsveica augstās ekspertu grupas vadlīnijās noteiktās septiņas galvenās prasības:

·cilvēka subjektība un virsvadība,

·tehniskā noturība un drošums,

·privātums un datu pārvaldīšana,

·pārredzamība,

·dažādība, nediskriminēšana un taisnīgums,

·sabiedrības un vides labklājība,

·atbildības prasīšana.

Turklāt vadlīnijās iekļauts novērtēšanas saraksts, ko uzņēmumi var praktiski izmantot. 2019. gada otrajā pusē vairāk nekā 350 organizācijas ir izmēģinājušas šo novērtēšanas sarakstu un iesūtījušas atsauksmes. Ņemot vērā izmēģināšanas rezultātus, augstā ekspertu grupa pašlaik savas vadlīnijas pārskata un šo darbu pabeigs līdz 2020. gada jūnijam. Galvenais, kas atklājies atsauksmju ievākšanas rezultātā, ir tas, ka, lai gan vairākas prasības jau ir atspoguļotas pastāvošajos tiesiskajos vai regulatīvajos režīmos, tās, kuras attiecas uz pārredzamību, izsekojamību un cilvēka virsvadību, nav specifiski aptvertas spēkā esošajos daudzu ekonomikas nozaru tiesību aktos.

Papildus šim augstās ekspertu grupas nesaistošo vadlīniju kopumam un saskaņā ar priekšsēdētājas politiskajām pamatnostādnēm skaidrs Eiropas tiesiskais regulējums veicinātu patērētāju un uzņēmumu uzticēšanos AI un tādējādi paātrinātu tehnoloģijas ieviešanu. Tādam regulējumam jābūt saskaņotam ar citiem pasākumiem, kuru mērķis ir šajā jomā veicināt Eiropas spējas inovēt un konkurēt. Tam arī jānodrošina sociāli, vidiski un ekonomiski optimāli rezultāti un jāievēro ES tiesību normas, principi un vērtības. Tas īpaši attiecas uz jomām, kurās pilsoņu tiesības var tikt skartas vistiešāk, piemēram, AI lietojumi tiesībaizsardzības un tiesu iestāžu vajadzībām.

Jau tagad uz mākslīgā intelekta izstrādātājiem un izmantotājiem attiecas Eiropas tiesību akti par pamattiesībām, piemēram, datu aizsardzību, privātumu, nediskriminēšanu, patērētāju aizsardzību un ražojumu drošumu un ražotāja atbildību. Patērētāji cer sagaidīt vienādu drošumu un tiesību ievērošanu neatkarīgi no tā, vai ražojums vai sistēma ir vai nav apveltīta ar mākslīgo intelektu. Taču dažas AI īpatnības (piem., lēmumu nepārredzamība) var apgrūtināt šo tiesību aktu piemērošanu un izpildi. Šā iemesla dēļ ir jānoskaidro, vai spēkā esošie tiesību akti spēj novērst AI radītu bīstamību un tos var efektīvi īstenot, un vai tiesību akti ir jākoriģē jeb vajadzīgi jauni tiesību akti.

Ņemot vērā, cik strauji AI attīstās, tiesiskajam regulējumam ir jāatstāj iespējas reaģēt uz turpmāko attīstību. Izmaiņām jāaptver tikai skaidri noteiktas problēmas, kurām ir realizējami risinājumi.

Dalībvalstis aizrāda, ka pašlaik nav vienota Eiropas regulējuma. Vācijas Datu ētikas komisija ir ierosinājusi bīstamībai atbilstošu pieclīmeņu regulēšanas sistēmu – no vismazāk bīstamo AI sistēmu neregulēšanas līdz pilnīgam pašu bīstamāko aizliegumam. Dānija nupat izveidojusi datu ētikas zīmoga prototipu. Malta ir ieviesusi brīvprātīgas AI sertifikācijas sistēmu. Ja ES neizdosies nodrošināt ES mēroga pieeju, draud iekšējā tirgus sadrumstalotība, kas apdraudētu uzticēšanās, juridiskās noteiktības un tirgus apguves mērķu sasniegšanu.

Grods Eiropas tiesiskais regulējums uzticama mākslīgā intelekta jomā aizsargās visus Eiropas pilsoņus un palīdzēs izveidot nebuksējošu iekšējo tirgu AI turpmākai attīstībai un ieviešanai, kā arī stiprinās Eiropas mākslīgā intelekta rūpniecisko pamatu.

A.Problēmas izklāsts

Lai gan AI spēj dot daudz laba, cita starpā padarot ražojumus un procesus drošākus, tas var arī nodarīt pāri. Šis kaitējums var būt gan materiāls (personu drošībai un veselībai, ieskaitot dzīvības zaudējumu, mantai utt.), gan nemateriāls (privātuma zaudēšana, vārda brīvības ierobežojumi, cilvēka cieņa, diskriminācija, piemēram, algota darba pieejamībā), un tas var būt radies no dažnedažāda apdraudējuma. Tiesiskajā regulējumā uzmanība būtu jāpievērš tam, kā minimalizēt dažādas iespējamā kaitējuma briesmas, sevišķi ievērojamākās.

Galvenās briesmas AI izmantošanā skar tādu noteikumu piemērošanu, kas izstrādāti, lai aizsargātu pamattiesības (to vidū persondatu un privātuma aizsardzību un nediskriminēšanu), kā arī jautājumus, kas saistīti ar drošumu 32 un tiesisko atbildību.

Briesmas pamattiesībām, ieskaitot persondatu un privātuma aizsardzību un nediskriminēšanu

AI izmantošana var aizskart vērtības, uz kurām balstās ES, un izraisīt pamattiesību pārkāpumus 33 , aizskarot tādas tiesības kā tiesības uz vārda brīvību, pulcēšanās brīvību, cilvēka cieņu, nediskriminēšanu dzimuma, rases vai tautības, reliģijas vai ticības, invaliditātes, gadu skaita vai dzimumorientācijas dēļ, atbilstoši jomai, persondatu un privātuma aizsardzību 34 vai tiesības uz efektīvu tiesisko aizsardzību un taisnīgu tiesu, kā arī patērētāju aizsardzību. Apdraudējumu var radīt AI sistēmu vispārējās konstrukcijas (projekta) nepilnības (cilvēciska nevērība) vai datu izmantošana bez iespējamas neobjektivitātes korekcijas (piemēram, sistēma ir apmācīta izmantot tikai vai galvenokārt vīriešu datus un tādēļ rezultāti, kas attiecas uz sievietēm, nav optimāli).

AI spēj pildīt daudzas funkcijas, ko senāk spēja tikai cilvēki. Tāpēc pilsoņi un juridiskās personas arvien vairāk tiks pakļautas darbībām un lēmumiem, kurus pieņems AI sistēmas vai ar to palīdzību un kurus dažkārt varēs būt grūti izprast un vajadzības gadījumā efektīvi apstrīdēt. Turklāt AI paplašina iespējas reģistrēt un analizēt cilvēku ieradumus. Piemēram, pastāv iespējas, ka valsts iestādes vai citas struktūras, kuras veic masveida novērošanu, un darba devēji, kuri vēro darbinieku uzvedību, var izmantot AI, pārkāpjot ES datu aizsardzības un citus noteikumus. Analizējot lielus datu apjomus un identificējot saiknes starp tiem, AI var arī izmantot, lai izsekotu un dezanonimizētu personu datus, un tas rada jaunus persondatu aizsardzības apdraudējumus pat datu kopām, kurās pašās persondatu nav. AI izmanto arī tiešsaistes starpnieki, lai noteiktu lietotāju informācijas prioritātes un pieslīpētu viņiem piedāvājamo saturu. Apstrādātie dati, lietotņu izstrādes veids un cilvēka iejaukšanās apmēri var aizskart tiesības uz vārda brīvību, persondatu aizsardzību, privātumu un politiskās brīvības.

Daži AI algoritmi, ko izmanto, lai prognozētu recidīvismu, var izrādīt aizspriedumus dzimumu un rasu jautājumos, uzrādot atšķirīgu recidīvisma prognozēšanas iespējamību sievietēm iepretim vīriešiem vai savas valsts pavalstniekiem iepretim ārzemniekiem. Avots: Tolan S., Miron M., Gomez E. and Castillo C. "Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia", Best Paper Award, International Conference on AI and Law, 2019.

Dažas AI sejas analīzes programmas izrāda aizspriedumus dzimumu un rasu jautājumos, pieļaujot nelielu kļūdu gaišādainu vīriešu dzimuma noteikšanā, bet lielu kļūdu tumšādainu sieviešu dzimuma noteikšanā. Avots: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. 

Ikvienā sabiedriskā vai saimnieciskā darbībā var slēpties aizspriedumi un diskriminācija. Cilvēka lēmumu pieņemšana nav pasargāta no kļūdām un aizspriedumiem. Taču AI tiem pašiem aizspriedumiem var būt daudz lielāka ietekme: tie var aizskart un diskriminēt daudzus cilvēkus, jo AI nav sociālās kontroles mehānismu, kuri regulē cilvēka uzvedību 35 . Tā var gadīties arī tad, ja AI sistēma darbodamās kaut ko “iemācās”. Tādos gadījumos un tad, kad šādu iznākumu nebūtu bijis iespējams novērst vai paredzēt projektēšanas stadijā, briesmas rodas nevis no sistēmas sākotnējās uzbūves nepilnībām, bet no to korelāciju vai modeļu praktiskās ietekmes, ko sistēma identificē lielā datu kopā.

Daudzu AI tehnoloģiju specifika, ieskaitot nepārredzamību (“melnās kastes efektu”), sarežģītību, neprognozējamību un daļēji autonomu uzvedību, var apgrūtināt atbilstības pārbaudi un kavēt pamattiesību aizsardzībai paredzēto spēkā esošo ES tiesību normu efektīvu izpildi. Tiesībaizsardzības iestādēm un skartajām personām var trūkt līdzekļu, ar kuriem pārbaudīt, kā pieņemts kāds lēmums, kurā bijis iesaistīts AI, un līdz ar to – vai ievēroti attiecīgie noteikumi. Fiziskas un juridiskas personas var saskarties ar tiesu iestāžu faktiskas pieejamības grūtībām situācijās, kad šādi lēmumi var šīs personas negatīvi ietekmēt.

Briesmas drošībai un atbildības režīma efektivitātei

Ražojumos un pakalpojumos iestrādātas, AI tehnoloģijas lietotājam var radīt jaunu bīstamību. Piemēram, objektu pazīšanas tehnoloģijas defekta dēļ autonoms automobilis var nepareizi identificēt kādu priekšmetu uz ceļa un izraisīt negadījumu ar miesas bojājumu un kaitējumu mantai. Tāpat kā pamattiesību apdraudējuma gadījumā te briesmas var radīt trūkumi AI tehnoloģijas uzbūvē, kas var būt saistīti ar datu pieejamības un kvalitātes problēmām vai citām problēmām, kuru cēlonis ir mašīnu mācīšanās. Lai gan daži no apdraudējumiem attiecas ne tikai uz ražojumiem un pakalpojumiem, kuros ir AI, tā izmantošana var briesmas palielināt vai pastiprināt.

Skaidru drošības noteikumu trūkums bīstamības novēršanā, papildus briesmām attiecīgajiem indivīdiem, var radīt juridisko nenoteiktību uzņēmumiem, kuri ES tirgo savus ražojumus, kuros iesaistīts AI. Tirgus uzraudzības un tiesībaizsardzības iestādes var nonākt situācijā, kad tām nav skaidrs, vai tās var iejaukties, jo tām var nebūt pilnvaru rīkoties un/vai tām nav atbilstošu tehnisko iespēju pārbaudīt sistēmas 36 . Tāpēc juridiskā nenoteiktība var pazemināt vispārējo drošumu un apdraudēt Eiropas uzņēmumu konkurētspēju.

Ja drošības apdraudējums īstenojas, skaidru minēto AI tehnoloģiju prasību un apraksta trūkuma dēļ ir grūti izsekot potenciāli problemātiskiem lēmumiem, kas pieņemti, iesaistot AI sistēmas. Un tas var apgrūtināt atlīdzināšanu cietušajiem saskaņā ar spēkā esošajiem ES un valstu tiesību aktiem par produktatbildību 37 .

Saskaņā ar Produktatbildības direktīvu ražotājs ir atbildīgs par kaitējumu, ko izraisījis brāķīgs ražojums. Tomēr tādas sistēmas gadījumā, kura balstās uz AI, piemēram, autonomie automobiļi, var būt grūti pierādīt, ka ražojumam ir defekts, nodarīto kaitējumu un sakarību starp tiem. Turklāt pastāv zināma neskaidrība par to, kā un cik lielā mērā Produktatbildības direktīva attiecas uz noteiktu veidu defektiem, piemēram, ja tie rodas izstrādājuma kiberdrošības nepilnību dēļ.

Tādējādi grūtības izsekot potenciāli problemātiskiem lēmumiem, ko pieņem AI sistēmas un kas minētas iepriekš saistībā ar pamattiesībām, tādā pašā mērā attiecas uz jautājumiem, kas saistīti ar drošumu un tiesisko atbildību. Cietušajiem var nebūt faktiskas piekļuves liecībām, kas nepieciešamas tiesas prāvai, un viņi var būt mazāk aizsargāti nekā situācijās, kad kaitējumu nodarījušas tradicionālās tehnoloģijas. Ar AI izmantošanas paplašināšanos kaitējuma briesmas augs.

B. Iespējas koriģēt spēkā esošo ES tiesisko regulējumu saistībā ar AI

Plašs spēkā esošo ES ražojumu drošuma un ražotāja atbildības tiesību aktu kopums 38 , tostarp nozarēm specifiskas normas, kam papildus pastāv valstu tiesību akti, atbilst un ir potenciāli piemērojams daudziem jauniem AI lietojumiem.

Pamattiesību un patērētāja tiesību aizsardzības aspektā ES tiesiskais regulējums ietver tādus aktus kā Rasu vienlīdzības direktīva 39 , Direktīva par vienlīdzību nodarbinātībā un profesijā 40 , direktīvas par vīriešu un sieviešu vienlīdzību attiecībā uz nodarbinātību un pieeju precēm un pakalpojumiem 41 , daudzas patērētāju aizsardzības normas 42 , kā arī persondatu aizsardzības un privātuma noteikumi, sevišķi Vispārīgā datu aizsardzības regula un citi nozariski akti par persondatu aizsardzību, piemēram, Direktīva par datu aizsardzību tiesībaizsardzības jomā 43 . Turklāt no 2025. gada tiks piemēroti noteikumi par preču un pakalpojumu piekļūstamības prasībām, kas izklāstītas Eiropas Pieejamības aktā. 44 Bez tam pamattiesības jāievēro citu ES tiesību aktu īstenošanā tādās jomās kā finansiālie pakalpojumi, migrācija un tiešsaistes starpnieku atbildība.

Lai gan ES tiesību akti joprojām ir pilnībā piemērojami neatkarīgi no AI iesaistes, ir svarīgi novērtēt, vai var pienācīgi īstenot to izpildi, lai novērstu briesmas, ko rada mākslīgā intelekta sistēmas, jeb vajadzīgs koriģēt konkrētos juridiskos instrumentus.

Piemēram, ekonomikas subjekti joprojām pilnīgi atbild par AI atbilstību spēkā esošajiem noteikumiem, kas aizsargā patērētājus; nav atļauta nekāda algoritmiska patērētāju uzvedības izmantošana, kas pārkāpj spēkā esošos noteikumus, un par pārkāpumu pienākas sods. 

Komisija uzskata, ka tiesisko regulējumu var uzlabot šādās jomās.

·ES un dalībvalstu pastāvošo tiesību normu efektīva piemērošana un izpildes nodrošināšana. AI pamatīpašības sarežģī ES un dalībvalstu pastāvošo tiesību normu pareizu piemērošanu un izpildes nodrošināšanu. Pārredzamības trūkums (AI necaurredzamība) apgrūtina iespējamo tiesību pārkāpumu konstatēšanu un pierādīšanu, to starpā tādu tiesību normu gadījumos, kas sargā pamattiesības, nosaka atbildīgos un atbilst atlīdzinājuma pieprasīšanas nosacījumiem. Tādēļ, lai nodrošinātu efektīvu piemērošanu un izpildi, var būt nepieciešams koriģēt vai precizēt spēkā esošās tiesību normas dažās jomās, piemēram, par tiesisko atbildību, kā sīkāk izklāstīts ziņojumā, kas pievienots šai baltajai grāmatai.

·Pastāvošo ES tiesību normu tvēruma ierobežojumi. ES ražojumu drošuma tiesību normas ir koncentrētas uz ražojumu laišanu tirgū. Lai gan ES ražojumu drošuma aktos paredzētajai programmatūrai, kura ir daļa no gatavā izstrādājuma, ir jāatbilst attiecīgajiem ražojumu drošuma noteikumiem, neatbildēts paliek jautājums, vai ES ražojumu drošuma tiesību akti attiecas uz savrupo programmatūru – neskaitot retās nozares, kurās pastāv skaidri noteikumi 45 . Pašlaik spēkā esošie vispārējie ES tiesību akti drošuma jomā attiecas uz ražojumiem, nevis pakalpojumiem, tātad – pēc principa neattiecas uz pakalpojumiem, kas balstās AI tehnoloģijā (kā veselības aprūpe, finansiālie pakalpojumi, pārvadājumi).

·AI sistēmu mainīgā funkcionalitāte. Programmatūras, ieskaitot AI, iestrādāšana ražojumos var šo ražojumu un sistēmu mūžā mainīt to funkcijas. Tas īpaši attiecas uz sistēmām, kuras prasa biežu programmatūras atjaunināšanu vai balstās uz mašīnu mācīšanos. Šīs iezīmes var izraisīt jaunas briesmas, kuru nav bijis brīdī, kad sistēma laista tirgū. Tādas briesmas nav pienācīgi aplūkotas spēkā esošajos tiesību aktos, kuros galvenā uzmanība veltīta bīstamībai, kas pastāv brīdī, kad ražojumu laiž tirgū.

·Neskaidrība par pienākumu sadalījumu starp dažādiem ekonomikas dalībniekiem piegādes ķēdē. Vispārīgi ES normas par ražojumu drošumu uzliek atbildību tirgū laistā ražojuma izgatavotājam, un tā aptver visus komponentus, piem., AI sistēmas. Taču noteikumi var kļūt neskaidri, piemēram, kad AI tiek pievienots pēc tam, kad ražojumu tirgū laidusi persona, kura nav to saražojusi. Turklāt ES tiesību akti par produktatbildību paredz ražotāja atbildību, bet atstāj valstu kompetencē noteikumus par atbildību, kuri reglamentē citu piegādes ķēdes dalībnieku atbildību.

·Drošuma jēdziena pārmaiņas. Mākslīgā intelekta izmantošana ražojumos un pakalpojumos var izraisīt apdraudējumu, kas ES tiesību aktos šobrīd tieši nav paredzēts. Tas var nākt no kiberdraudiem, briesmām personas drošībai (kas saistās, piemēram, ar jauniem mākslīgā intelekta lietojumiem mājsaimniecības ierīcēs), briesmām, ko rada savienojamības zudums, utt. Briesmas var draudēt brīdī, kad ražojumi tiek laisti tirgū, vai programmatūras atjaunināšanas vai pašmācīšanās dēļ rasties ražojuma izmantošanas laikā. ES pilnībā jāizmanto tās rīcībā esošie instrumenti, lai uzlabotu pierādījumu bāzi par iespējamām briesmām, kas saistās ar mākslīgā intelekta lietojumiem, cita starpā izmantojot ES Kiberdrošības aģentūras (ENISA) pieredzi AI draudu novērtēšanā.

Ziņojums par mākslīgā intelekta, lietu interneta un robotikas ietekmi uz drošumu un tiesisko atbildību

Baltajai grāmatai pievienotajā ziņojumā analizēts attiecīgais tiesiskais regulējums. Ir noskaidrotas regulējuma nepilnības jautājumos, kas attiecas uz specifiskām briesmām, ko izraisa AI sistēmas un citas ciparsignālu tehnoloģijas.

Secināts, ka spēkā esošie tiesību akti par ražojumu drošumu jau atbalsta paplašinātu drošuma koncepciju, kura aizsargā no ikkatra apdraudējuma, kas rodas atkarā no izstrādājuma lietošanas veida. Tomēr, gādājot par lielāku juridisko noteiktību, varētu ieviest noteikumus, kas skaidri attiecas uz jaunām briesmām, kuras ceļas no jaunām ciparsignālu tehnoloģijām.

Jaunāko ciparsignālu tehnoloģiju – AI, lietu interneta, robotikas – īpatnības var apdraudēt kādus atbildības regulējuma aspektus un mazināt tā efektivitāti. Dažas no īpatnībām var apgrūtināt nodarījuma saistīšanu ar personu, kas saskaņā ar lielāko daļu dalībvalstīs pastāvošo noteikumu būtu nepieciešama, kad tiek prasīts noskaidrot vainīgo. Tas var ievērojami palielināt izmaksas cietušajiem un nozīmē, ka var būt grūti pierādīt vainu un prasīt atbildību no tiem, kas nav izgatavotāji.

·Atsevišķu AI sistēmu autonoma uzvedība savā darba mūžā var ražojumā izraisīt būtiskas izmaiņas, kas iedragā drošumu, un tādēļ var būt nepieciešama jauna briesmu novērtēšana. Turklāt drošības labad var būt vajadzīgs, lai cilvēks AI produktus un sistēmas uzraudzītu projektēšanas brīdī un visā to darba mūžā.

·Vajadzības gadījumā varētu apsvērt skaidrus ražotāju pienākumus gadījumiem, kad briesmās var nonākt lietotāja garīgais drošums (piemēram, darbā ar cilvēkveidīgiem robotiem).

·Savienības tiesību aktos par ražojumu drošumu varētu paredzēt īpašas prasības, kas attiektos uz drošuma apdraudējumu, kura cēlonis ir kļūdaini projektēšanas posma dati, kā arī mehānismus, kas visā AI produktu un sistēmu izmantošanas laikā uzturētu datu kvalitāti.

·Algoritmos balstīto sistēmu necaurredzamību varētu risināt ar pārredzamības prasībām.

·Var būt vajadzīgs koriģēt un precizēt spēkā esošos noteikumus par savrupo programmatūru, kas tirgū tiek laista tābrīža gatavībā vai tiek ielādēta izstrādājumā pēc tā laišanas tirgū, ja tam ir ietekme uz drošumu.

·Tā kā piegādes ķēdes jauno tehnoloģiju ziņā kļūst sarežģītākas, juridisko noteiktību varētu nodrošināt noteikumi, kas prasa specifisku sadarbību starp ekonomikas subjektiem piegādes ķēdē un lietotājiem.

·Personām, kam AI sistēmu dēļ nodarīts kaitējums, ir jāsaņem tāda pati aizsardzība kā personām, kurām kaitējumu nodarījušas citas tehnoloģijas, tomēr ļaujot tālāk attīstīties tehnoloģiskajai inovācijai.

·Vajag rūpīgi izvērtēt visas iespējas šo mērķi sasniegt, tostarp varbūtēju Produktatbildības direktīvas grozīšanu un valstu noteikumu par tiesisko atbildību turpmāku mērķtiecīgu saskaņošanu. Piemēram, Komisija vēlas izzināt viedokļus par to, vai un kādā mērā var būt vajadzīgs sarežģītības sekas mazināt, koriģējot pierādīšanas pienākumu, ko valstu noteikumi par atbildību uzliek AI lietojuma darbības izraisīta kaitējuma gadījumā.

Kā pirmāk norādīts, vairākas dalībvalstis jau izskata iespējas pieņemt tiesību aktus, kuros risinātu AI radītās problēmas. Tas draud ar vienotā tirgus neviengabalainību. Atšķirīgi valstu noteikumi, visticamāk, radīs šķēršļus uzņēmumiem, kuri vēlas vienotajā tirgū pārdot un darbināt AI sistēmas. Vienotas ES līmeņa pieejas nodrošināšana ļautu Eiropas uzņēmumiem gūt labumu no vienmērīgas piekļuves vienotajam tirgum un atbalstītu to spēju konkurēt pasaules tirgos.

No minētās diskusijas Komisija secina, ka papildus iespējamām korekcijām spēkā esošajos tiesību aktos var būt vajadzīgi jauni tiesību akti tieši par AI, lai ES tiesisko regulējumu varētu pielāgot pašreizējām un gaidāmām pārmaiņām tehnoloģijā un komercijā.

C.Turpmākā ES tiesiskā regulējuma tvērums

Viens no galvenajiem jautājumiem turpmākajā specifiskajā tiesiskajā regulējumā par AI būs noteikt tā piemērošanas jomu. Patlaban tiek pieņemts, ka tiesiskais regulējums attiektos uz ražojumiem un pakalpojumiem, kuri balstās uz AI. Tāpēc šajā baltajā grāmatā skaidri jādefinē AI, kā arī iespējamās turpmākās politikas īstenošanas iniciatīvas.

Paziņojumā par mākslīgo intelektu Eiropai 46 Komisija sniedza pirmo AI definīciju. Šo definīciju precizēja augstā ekspertu grupa 47 .

Ikkatrā jaunā juridiskā aktā AI definīcijai būs jābūt pietiekami elastīgai, lai ņemtu vērā tehnikas attīstību, un reizē gana precīzai, lai nodrošinātu vajadzīgo juridisko noteiktību.

Autonomajā braukšanā, piemēram, algoritms reāllaikā izmanto datus no automobiļa (ātrums, motora izmantojums, amortizatori u. c.) un sensoriem, kas pārlūko visu automobiļa vidi (ceļš, ceļazīmes, citi transportlīdzekļi, gājēji u. c.), lai noteiktu, kāds virziens, paātrinājums un ātrums automobilim jāieņem, lai nonāktu noteiktā galamērķī. Uz iegūto datu pamata algoritms pielāgojas situācijai uz ceļa un ārējiem apstākļiem, ieskaitot citu vadītāju uzvedību, lai noteiktu ērtāko un drošāko braukšanas veidu.

Šajā baltajā grāmatā, kā arī turpmākās diskusijās par politikas iniciatīvām, šķiet svarīgi precizēt galvenos elementus, no kā veidojas AI, proti, “datus” un “algoritmus”. AI var būt iestrādāts aparatūrā. Mašīnu mācīšanās metožu – AI apakškopas – gadījumā algoritmus apmāca no datu kopuma izsecināt zināmus modeļus, lai varētu noteikt, kādas darbības vajadzīgas uzdotā mērķa sasniegšanai. Algoritmi var turpināt mācīties, kad tos jau izmanto. Lai gan izstrādājumi ar mākslīgo intelektu spēj darboties autonomi, uztverot vidi un neievērojot iepriekšnoteiktu norādījumu kopumu, to uzvedību lielā mērā nosaka un ierobežo izstrādātāji. Mērķus, kuru dēļ AI sistēmai jāoptimalizējas, nosaka un programmē cilvēki. 

ES ir ieviests stingrs tiesiskais regulējums, kas cita starpā nodrošina patērētāju aizsardzību, novērš negodīgu komercpraksi un aizsargā persondatus un privātumu. Turklāt tiesību normu aktīvā ir konkrētām nozarēm (piemēram, veselības aprūpe, pārvadājumi) specifiski noteikumi. Šos spēkā esošos ES tiesību aktu noteikumus turpinās piemērot AI, neskarot atjauninājumus, kas varētu būt vajadzīgi, lai atspoguļotu digitālo pārveidi un AI izmantošanu (sk. B iedaļu). Tādējādi tos aspektus, kas jau ir aplūkoti spēkā esošajos horizontālajos vai nozariskajos tiesību aktos (piemēram, par medicīniskām ierīcēm 48 , transporta sistēmām), šie tiesību akti reglamentēs arī turpmāk.

Principa pēc jaunajam AI tiesiskajam regulējumam jābūt efektīvam, lai tas sasniegtu tā mērķus, taču tas nedrīkst būt pārlieku preskriptīvs un radīt nesamērīgu slogu, sevišķi MVU. Lai panāktu šo līdzsvaru, Komisija uzskata, ka tai jāizmanto bīstamībai atbilstoša pieeja.

Bīstamībai atbilstoša pieeja ir svarīga, lai palīdzētu nodrošināt regulatīvās iejaukšanās samērīgumu. Tomēr vajadzīgi skaidri kritēriji, pēc kuriem nošķirt dažādus AI lietojumus, īpaši jautājumā par to, vai tie ir vai nav “ļoti bīstami” 49 . AI lietojuma radītas augstas bīstamības konstatēšanai jābūt skaidrai, viegli saprotamai un piemērojamai visām iesaistītajām personām. Tomēr, pat ja AI lietojuma bīstamība nav kvalificēta kā augsta, uz to joprojām pilnībā attiecas spēkā esošie ES noteikumi.

Komisija uzskata, ka atsevišķa AI lietojuma bīstamība kopumā atzīstama par augstu atbilstoši tam, kas ir briesmās, un izsverams, vai nozare un paredzētais pielietojums nes līdzi būtisku apdraudējumu, sevišķi drošības, patērētāja tiesību un pamattiesību aizsardzības aspektā. Proti, AI lietojums jāuzskata par ļoti bīstamu, ja tas atbilst šādiem diviem kumulatīviem kritērijiem:

·pirmkārt, AI lietojumu izmanto nozarē, kur parastās darbības īpatnību dēļ var paredzēt, ka radīsies ievērojamas briesmas. Pirmais kritērijs nodrošina, ka ar regulatīvo iejaukšanos tiek mērķēts uz jomām, kur kopumā tiek uzskatīts, ka briesmas radīsies pavisam droši. Aptvertās nozares jaunajā tiesiskajā regulējumā specifiski un izsmeļoši jāuzskaita. Piemēram, veselības aprūpe, transports, enerģētika, dažas publiskā sektora daļas 50 . Saraksts periodiski jāpārskata un vajadzības gadījumā jāgroza līdzi attiecīgām norisēm praksē,

·otrkārt, AI lietojumu attiecīgajā nozarē turklāt izmanto tā, ka iespējams rasties ievērojamām briesmām. Otrais kritērijs atspoguļo atziņu, ka ne katrs AI pielietojums izraudzītajās nozarēs noteikti nes līdzi ievērojamas briesmas. Piemēram, veselības aprūpe kopumā varētu būt viena no attiecīgajām nozarēm, taču pacientu pierakstīšanās sistēmas kļūme slimnīcā parasti nerada bīstamību, kas attaisnotu normatīvu iejaukšanos. Atsevišķa lietojuma radītās apdraudētības novērtējumu varētu balstīt uz to, cik stipra ir iedarbība uz skartajām personām. Piemēram, AI lietojumu izmantošana, kas rada tiesiskas vai līdzīgas nozīmes sekas indivīda vai uzņēmuma tiesību īstenošanā, rada traumas, nāves vai ievērojama materiāla vai nemateriāla kaitējuma briesmas, izraisa sekas, no kurām indivīdi vai juridiskas personas pēc labākās gribas nespēj izvairīties.

Abu kumulatīvo kritēriju piemērošana nodrošinātu, ka tiesiskā regulējuma darbības joma ir mērķvirzīga un nodrošina juridisko noteiktību. Obligātās prasības, kas ietvertas jaunajā AI tiesiskajā regulējumā (sk. D iedaļu), pēc principa attiektos tikai uz lietojumiem, kuri par ļoti bīstamiem atzīti pēc abiem kumulatīvajiem kritērijiem.

Par spīti iepriekš teiktajam, var būt arī izņēmuma gadījumi, kad attiecīgā apdraudējuma dēļ AI lietojumu izmantošana konkrētiem mērķiem par sevi ir uzskatāma par stipri bīstamu – neatkarīgi no nozares – un kad aizvien būtu piemērojamas tālāk minētās prasības. 51 . Ilustrācijai, varētu konkrēti domāt par šādiem aspektiem.

·Ņemot vērā AI lietojumu nozīmi indivīdam un ES normas nodarbinātības vienlīdzības jomā, to izmantošana personāla komplektēšanā, kā arī situācijās, kas ietekmē darbinieku tiesības, vienmēr tiktu uzskatīta par “ļoti bīstamu” un tās dēļ tālāk minētās prasības būtu piemērojamas vienmēr. Var apsvērt arī citus specifiskus lietojumus, kas aizskar patērētāja tiesības.

·AI lietojumu izmantošana biometriskai tālidentifikācijai 52 un citām uzbāzīgām uzraudzīšanas tehnoloģijām vienmēr tiktu uzskatīta par “ļoti bīstamu” un tās dēļ vienmēr tiktu piemērotas turpmāk minētās prasības.

D.Prasību veidi

Izstrādājot turpmāko AI tiesisko regulējumu, būs jāpieņem lēmums par to, kāda veida obligātas juridiskās prasības tiks izvirzītas attiecīgajiem subjektiem. Šīs prasības var specificēt standartos. Kā norādīts iepriekš C iedaļā, kā arī papildus jau esošajiem tiesību aktiem, šīs prasības attiektos tikai uz ļoti bīstamiem AI lietojumiem, tādējādi nodrošinot, ka katra regulatīva iejaukšanās ir mērķēta un samērīga.

Ņemot vērā augstās ekspertu grupas vadlīnijas un iepriekš izklāstīto, prasības ļoti bīstamiem AI lietojumiem varētu ietvert šādus galvenos elementus (iztirzāti apakšiedaļās):

·apmācību dati,

·dati un uzskaite,

·sniedzamā informācija,

·noturība un precizitāte,

·cilvēka virsvadība,

·īpašas prasības dažiem mākslīgā intelekta lietojumiem, piemēram, izmantošanai biometriskajā tālidentifikācijā.

Gādājot par juridisko noteiktību, šīs prasības tiks precizētas, dodot pieturas punktu visiem subjektiem, kuriem tās jāievēro.

a)Apmācību dati

Svarīgāk nekā jebkad agrāk ir veicināt, stiprināt un aizsargāt ES vērtības un noteikumus, it īpaši tiesības, ko pilsoņiem dod ES tiesību normas. Šie pūliņi, bez šaubām, attiecas arī uz te iztirzātajiem ļoti bīstamajiem AI lietojumiem, kuri tiek tirgoti un izmantoti Eiropas Savienībā.

Kā jau teikts, bez datiem nav mākslīgā intelekta. Daudzu AI sistēmu funkcionēšana, kā arī darbības un lēmumi, līdz kuriem tās var novest, lielā mērā veidojas no datu kopuma, ar kuru sistēmas ir apmācītas. Tādēļ jāveic nepieciešamie pasākumi, lai nodrošinātu, ka AI sistēmu apmācībā izmantotajos datos ir ievērotas ES vērtības un noteikumi, kas īpaši attiecas uz drošumu un spēkā esošajiem tiesību aktiem par pamattiesību aizsardzību. Datu kopai, ko izmanto AI sistēmu apmācībai, varētu paredzēt šādas prasības:

·prasības, kuru mērķis ir sniegt pamatotas garantijas, ka AI sistēmas nodrošināto ražojumu vai pakalpojumu turpmāka izmantošana ir droša tāpēc, ka atbilst piemērojamajās (esošajās, kā arī iespējamās papildinošās) ES drošuma normās noteiktajiem standartiem. Piemēram, prasības, kas nodrošina, ka AI sistēmas apmāca ar datu kopām, kas ir pietiekami plašas un aptver visus vajadzīgos scenārijus un ļauj izvairīties no briesmām;

·prasības veikt pamatotus pasākumus, kuru mērķis ir nodrošināt, ka AI sistēmu turpmākā izmantošana nerada rezultātus, kas rada aizliegtu diskrimināciju. Šīs prasības varētu pirmām kārtām ietvert pienākumu izmantot pietiekami reprezentatīvas datu kopas, sevišķi tālab, lai nodrošinātu, ka datu kopās ir pienācīgi atspoguļotas visas attiecīgās dzimuma, tautības un citu iespējamas aizliegtas diskriminācijas ieganstu dimensijas;

·prasības, kuru mērķis ir nodrošināt privātuma un persondatu pienācīgu aizsardzību AI balstītu izstrādājumu un pakalpojumu izmantošanā. Attiecībā uz problēmām, kas ietilpst to attiecīgajā darbības jomā, šos jautājumus reglamentē Vispārīgā datu aizsardzības regula un Tiesībaizsardzības direktīva.

b)Uzskaites un datu glabāšana

Ņemot vērā tādus elementus kā daudzu AI sistēmu kompleksums un nepārredzamība un ar tiem saistītās grūtības, kas var traucēt efektīvi pārbaudīt atbilstību piemērojamajiem noteikumiem un panākt to izpildi, tiek izvirzītas prasības glabāt uzskaiti par algoritma programmēšanu, datiem, ko izmanto ļoti bīstamu AI sistēmu apmācībai, dažos gadījumos – glabāt pašus datus. Šīs prasības būtībā ļauj izsekot un pārbaudīt iespējami problemātiskas AI sistēmu darbības vai lēmumus. Tam vajadzētu ne tikai atvieglināt pārraudzīšanu un izpildi – tas var arī stiprāk mudināt attiecīgos ekonomikas subjektus agrīnā fāzē rēķināties ar to, ka būs jāievēro normas.

Tiesiskajā regulējumā tālab varētu būt priekšraksti par to, ka jāsaglabā:

·precīza uzskaite par datu kopu, kas izmantota AI sistēmu apmācīšanai un izmēģināšanai, ieskaitot galveno raksturlielumu aprakstu un datu kopas atlases aprakstu,

·dažos pamatotos gadījumos – pašas datu kopas,

·dokumentācija par programmēšanas 53 un apmācības metodiku, par procesiem un metodēm, kas izmantotas AI sistēmu izstrādē, izmēģināšanā un validēšanā, attiecīgā gadījumā – par drošumu un izvairīšanos no neobjektivitātes, kas izraisītu aizliegtu diskrimināciju.

Uzskaite, dokumentācija un attiecīgā gadījumā datu kopas būtu saglabājamas ierobežotu un pamatotu laika sprīdi, lai nodrošinātu attiecīgo tiesību normu faktisku izpildi. Jāveic pasākumi, lai nodrošinātu, ka tās ir pieejamas pēc pieprasījuma, it īpaši – kompetento iestāžu pārbaudēm vai apskatēm. Vajadzības gadījumā jāveic pasākumi, kas aizsargā konfidenciālu informāciju, piemēram, komercnoslēpumu.

c)Informēšana

Pārredzamība prasāma plašāk nekā tikai ar c) punktā minētajām uzskaitvedības prasībām. Lai sasniegtu izvirzītos mērķus, it īpaši – veicināt AI atbildīgu izmantošanu, vairot uzticēšanos un vajadzības gadījumā atvieglot tiesisko aizsardzību, ir svarīgi proaktīvi sniegt adekvātas ziņas par to, kā izmantojamas ļoti bīstamas AI sistēmas.

Līdz ar to ir jāapsver šādas prasības.

·Nodrošināt skaidru informāciju, kas sniedzama par AI sistēmas spējām un robežām, it īpaši par mērķi, kādam sistēmas paredzētas, apstākļiem, kādos var gaidīt to funkcionēšanu tā, kā paredzēts, un gaidāmo precizitāti noteiktā mērķa sasniegšanā. Šī informācija ir īpaši svarīga sistēmu izmantotājiem, bet tā var būt svarīga arī kompetentajām iestādēm un iesaistītajām personām.

·Atsevišķs jautājums – pilsoņi skaidri jāinformē, kad viņi mijdarbojas ar AI sistēmu, nevis cilvēku. Lai gan daži tādi noteikumi 54 jau ir iekļauti ES datu aizsardzības tiesību aktos, var izvirzīt papildprasības, lai sasniegtu minētos mērķus. Tādos gadījumos jāizvairās no liekas nastas. T. i., informācija nav jāsniedz, piemēram, situācijās, kur pilsoņiem uzreiz skaidrs, ka viņi mijdarbojas ar AI sistēmām. Turklāt ir svarīgi, lai sniegtā informācija būtu objektīva, kodolīga un labi saprotama. Informācijas sniegšanas veids jāpielāgo kontekstam.

d)Noturība un precizitāte

AI sistēmām – ļoti bīstamiem AI lietojumiem pavisam noteikti – ir jābūt tehniski stabilām un precīzām, lai tās būtu uzticamas. Tas nozīmē, ka tādas sistēmas ir jāizstrādā atbildīgi, laikus pienācīgi ņemot vērā briesmas, ko tās var radīt. To izstrādei un darbībai jābūt tādai, lai nodrošinātu AI sistēmu darbībai paredzēto uzticamību. Jāveic visi praktiski realizējamie pasākumi, kas minimalizē kaitējuma briesmas.

Līdz ar to varētu būt jāizvirza prasības, kuras nodrošina:

·ka visos darbmūža posmos AI sistēmas ir noturīgas un precīzas vai vismaz pareizi atspoguļo savu precizitātes līmeni,

·rezultātu reproducējamību,

·ka visos darbmūža posmos AI sistēmas spēj pienācīgi labot kļūdas vai nekonsekvenci,

·ka AI sistēmas ir noturīgas gan pret atklātiem uzbrukumiem, gan smalkākiem mēģinājumiem manipulēt ar datiem vai algoritmiem un ka tādos gadījumos tiek veikti briesmu mazināšanas pasākumi.

e)Cilvēka virsvadība

Cilvēka virsvadība palīdz nodrošināt, ka AI sistēma neapdraud cilvēka patstāvību un neraisa citādas nelabvēlīgas sekas. Uzticama, ētiska un antropocentriska AI mērķis ir sasniedzams tikai tad, ja tiek nodrošināta pienācīga cilvēku iesaistīšanās darbā ar ļoti bīstamiem AI lietojumiem.

Lai gan visi šajā baltajā grāmatā īpaša tiesiska režīma sakarā izskatītie AI lietojumi tiek uzskatīti par ļoti bīstamiem, atbilstīgais cilvēka virsvadības veids un mērs var nebūt visos gadījumos vienāds. Tas ir atkarīgs galvenokārt no sistēmām paredzētās izmantošanas un tā, kā izmantošana var ietekmēt skartos pilsoņus un juridiskās personas. Tas neskar VDAR noteiktās juridiskās tiesības gadījumiem, kad AI sistēma apstrādā persondatus. Cilvēka virsvadība varētu izpausties, piemēram, šādos veidos (bet ne tikai):

·AI sistēmas devums nav derīgs, iekams to nav pārskatījis un apstiprinājis cilvēks (piemēram, noraidīt sociālā pabalsta pieprasījumu var tikai cilvēks),

·AI sistēmas devums kļūst derīgs uzreiz, bet cilvēka iejaukšanās tiek nodrošināta vēlāk (piemēram, AI sistēma var noraidīt kredītkartes pieprasījumu, bet cilvēkam vēlāk jābūt iespējai to pārskatīt),

·AI sistēmas funkcionēšanas pārraudzība un spēja reāllaikā iejaukties un dezaktivizēt (piemēram, bezvadītāja automobilī ir lietojuma apturēšanas poga vai ir paredzēta rīcība gadījumam, kad cilvēks konstatējis, ka automobiļa darbība nav droša),

·projektēšanas posmā uzliekot AI sistēmai darbības ierobežojumus (piemēram, bezvadītāja automobilim apturēt darbību noteiktos sliktas redzamības apstākļos, kad sensori var kļūt mazāk droši, vai noteiktos apstākļos ieturēt zināmu distanci aiz priekšā braucošā transportlīdzekļa).

f)Īpašas prasības biometriskajai tālidentifikācijai

Biometrisko datu apkopošana un izmantošana 55 tālidentifikācijā 56  , piemēram, sejas pazīšanas ietaises sabiedriskās vietās, īpašā veidā apdraud pamattiesības 57 . Biometriskās tālidentifikācijas AI sistēmu izmantošanas ietekme uz pamattiesībām var ievērojami atšķirties pēc izmantošanas mērķa, konteksta un mēra.

ES datu aizsardzības noteikumi principā aizliedz apstrādāt biometriskos datus nolūkā veikt fiziskas personas unikālu identificēšanu, izņemot identificēšanu īpašos apstākļos 58 . Proti, saskaņā ar Vispārīgo datu aizsardzības regulu apstrāde var notikt ierobežota skaita iemeslu dēļ, no kuriem galvenais ir būtiskas vispārības intereses. Tādā gadījumā apstrāde jāveic uz ES vai valsts tiesību aktu pamata, ievērojot samērīguma prasības, tiesību uz datu aizsardzību būtības ievērošanu un atbilstošas garantijas. Saskaņā ar Tiesībaizsardzības direktīvu tādai apstrādei ir jābūt noteikti nepieciešamai, pēc principa jābūt ES vai valsts tiesību aktos paredzētai atļaujai, kā arī ar atbilstošiem drošības pasākumiem. Tā kā katra biometrisko datu apstrāde nolūkā veikt fiziskas personas unikālu identifikāciju būtu saistīta ar izņēmumu no aizlieguma, kas noteikts ES tiesību aktos, uz to attiektos ES Pamattiesību harta.

No tā izriet, ka saskaņā ar pašreizējiem ES datu aizsardzības noteikumiem un Pamattiesību hartu AI var izmantot biometriskajā tālidentifikācijā tikai tad, ja izmantošana ir pienācīgi pamatota, samērīga un pakļauta pienācīgiem drošības pasākumiem.

Lai risinātu sabiedrības iespējamās bažas saistībā ar AI izmantošanu šiem mērķiem sabiedriskās vietās un izvairītos no iekšējā tirgus neviengabalainības, Komisija sāks plašu Eiropas mēroga diskusiju par specifiskajiem apstākļiem, ja tādi ir, kas varētu pamatot tādu izmantošanu, un par kopīgiem drošības pasākumiem.

E.Adresāti

Jautājumā par to, uz ko attiektos juridiskās prasības, kuras tiktu piemērotas sakarā ar iepriekš minētajiem ļoti bīstamajiem AI lietojumiem, ir jāapskata divas galvenās problēmas.

Pirmkārt, pienākumu sadalījums starp iesaistītajiem saimnieciskās darbības veicējiem. AI sistēmas mūžciklā ir iesaistīti daudzi subjekti. Pie tiem pieder izstrādātājs, izmantotājs (persona, kas izmanto ar AI aprīkotu izstrādājumu vai pakalpojumu) un, iespējams, citi (ražotājs, izplatītājs vai importētājs, pakalpojumu sniedzējs, profesionāls vai privāts lietotājs).

Komisija uzskata, ka turpmākajā tiesiskajā regulējumā katrs pienākums jāadresē tam subjektam, kurš ir vispiemērotākais iespējama apdraudējuma novēršanai. Piemēram, AI izstrādātāji var būt vislabāk piemēroti izstrādes posmā radušos apdraudējumu novēršanai, taču viņu spēja kontrolēt apdraudējumu lietošanas posmā var būt ierobežota. Šādā gadījumā attiecīgais pienākums jāuzliek izmantotājam. Tas neskar jautājumu par to, kura persona saucama pie atbildības par izraisītu kaitējumu, lai prasītu atbildību pret galalietotājiem vai citām personām, kam kaitējums nodarīts, un nodrošinātu tiesu iestāžu faktisku pieejamību. Saskaņā ar ES tiesību aktiem par produktatbildību par ražojumiem ar defektiem atbild ražotājs, un netiek skarti valsts tiesību akti, kas varbūt atļauj prasīt atlīdzību arī no citām personām.

Otrkārt, likumdevēja iejaukšanās ģeogrāfiskais tvērums. Komisija uzskata, ka pāri visam ir noteikums, ka prasības piemērojamas visiem attiecīgajiem ekonomikas subjektiem, kuri ES piedāvā AI balstītas preces vai pakalpojumus, nerēķinoties ar to, vai subjekti ir vai nav iedibināti ES. Citādi nevar pilnīgi sasniegt pirmāk minētos likumdevēja iejaukšanās mērķus.

F.Atbilstība un izpildes nodrošināšana

Lai nodrošinātu, ka mākslīgais intelekts ir uzticams, drošs un respektē Eiropas vērtības un normas, piemērojamās juridiskās prasības ir jāizpilda praksē un to faktiskā izpilde jānodrošina gan kompetentajām valstu un ES iestādēm, gan skartajām personām. Kompetentajām iestādēm jābūt iespējai izmeklēt atsevišķus gadījumus, kā arī novērtēt ietekmi uz sabiedrību.

Tā kā atsevišķi AI lietojumi pilsoņiem un sabiedrībai rada stipru bīstamību (sk. A iedaļu), Komisija šobrīd uzskata, ka būtu nepieciešama objektīva, iepriekšēja atbilstības novērtēšana, lai pārbaudītu un nodrošinātu, ka tiek ievērotas noteiktas iepriekš minētās obligātās prasības, kas piemērojamas ļoti bīstamiem lietojumiem (sk. D iedaļu). Atbilstības priekšvērtēšanā varētu iekļaut testēšanas, apskates vai sertifikācijas procedūras. 59 Tā varētu ietvert izstrādes posmā izmantoto algoritmu un datu kopu pārbaudes.

Ļoti bīstamu AI lietojumu atbilstības novērtējumiem vajadzētu ietilpt atbilstības novērtēšanas mehānismos, kas jau pastāv attiecībā uz lielu skaitu ražojumu, kurus laiž ES iekšējā tirgū. Ja tādus mehānismus nevar droši izmantot, var būt vajadzīgs izveidot līdzīgus mehānismus, smeļoties labākajā praksē un varbūt ieinteresēto personu un Eiropas standartizācijas organizāciju devumā. Katram tādam jaunam mehānismam jābūt samērīgam un nediskriminējošam, un tajā jāizmanto pārredzami un objektīvi kritēriji, kas atbilst starptautiskajiem pienākumiem.

Izstrādājot un īstenojot sistēmu, kas balstās uz iepriekšēju atbilstības novērtēšanu, īpaši jāņem vērā šādi aspekti.

·Ne visas iepriekš izklāstītās prasības var būt piemērotas pārbaudei iepriekšējā atbilstības novērtēšanā. Piemēram, sniedzamās informācijas prasība visumā nav piemērota pārbaudei tādā novērtēšanā.

·Īpaši jāņem vērā iespēja, ka kādas AI sistēmas attīstās un mācās no pieredzes, un tas var prasīt atkārtotu novērtēšanu attiecīgās AI sistēmas darbmūžā.

·Vajadzība pārbaudīt apmācībā izmantotos datus un attiecīgo programmēšanas un apmācības metodiku, procesus un paņēmienus, ko izmanto AI sistēmu veidošanā, izmēģināšanā un apstiprināšanā. 

·Ja atbilstības novērtējums rāda, ka AI sistēma neatbilst prasībām, piemēram, apmācībā izmantoto datu ziņā, konstatētie trūkumi būs jālabo, piemēram, pārmācot sistēmu ES tā, lai nodrošinātu visu piemērojamo prasību izpildi.

Atbilstības novērtēšana būtu obligāta visiem ekonomikas subjektiem, kuriem izvirza šīs prasības, neatkarīgi no to iedibinājuma vietas 60 . Lai mazinātu MVU uzkraujamo nastu, varētu paredzēt kādu atbalsta struktūru, izmantojot arī digitālās inovācijas centrus. Bez tam atbilstību veicinātu standarti, kā arī īpaši tiešsaistes rīki.

Iepriekšējai atbilstības novērtēšanai nav jāskar tas, kā valstu kompetentās iestādes pārrauga atbilstību un nodrošina izpildi pēc laišanas tirgū. Tā tas ir ar ļoti bīstamiem AI lietojumiem, kā arī ar citiem AI lietojumiem, kas ir pakļauti juridiskām prasībām, lai gan attiecīgo lietojumu lielā bīstamība var būt iemesls kompetentajām iestādēm pievērst tiem īpašu uzmanību. Kontrole pēc laišanas tirgū jānodrošina, pienācīgi dokumentējot attiecīgo AI lietojumu (sk. E iedaļu) un vajadzības gadījumā dodot iespēju trešām personām, piemēram, kompetentajām iestādēm, pārbaudīt tādus lietojumus. Tas var būt īpaši svarīgi, ja rodas pamattiesību apdraudējums, kas ir atkarīgs no konteksta. Atbilstības uzraudzībai jābūt pastāvīgas tirgus uzraudzības shēmas sastāvdaļai. Ar pārvaldi saistītie aspekti sīkāk aplūkoti H iedaļā.

Gan ļoti bīstamiem AI lietojumiem, gan citiem AI lietojumiem bez tam jānodrošina faktiska tiesiskā aizsardzība personām, kuras no AI sistēmām negatīvi ietekmētas. Atbildības jautājumi sīkāk aplūkoti šai baltajai grāmatai pievienotajā Ziņojumā par drošuma un atbildības satvaru.

G.Brīvprātīga marķēšana AI lietojumiem bez augstas bīstamības

AI lietojumiem, kuri nav kvalificējami kā “ļoti bīstami” (sk. C iedaļu) un uz kuriem tāpēc neattiecas iepriekš aprakstītās obligātās prasības (sk. D, E un F iedaļu), papildus piemērojamiem tiesību aktiem būtu iespējams ieviest brīvprātīgas marķēšanas sistēmu.

Saskaņā ar minēto sistēmu ieinteresētie ekonomikas subjekti, uz kuriem neattiecas obligātās prasības, varētu brīvprātīgi pakļauties vai nu šīm prasībām, vai īpašam līdzīgu prasību kopumam, ko īpaši noteiktu brīvprātīgās shēmas vajadzībām. Pēc tam attiecīgajiem ekonomikas subjektiem tiktu piešķirts kvalitātes marķējums to AI lietojumiem.

Brīvprātīgā marķēšana ļautu attiecīgajiem ekonomikas subjektiem pavēstīt, ka viņu AI iespējotie izstrādājumi un pakalpojumi ir uzticami. Tas ļautu lietotājiem viegli uztvert, ka attiecīgie izstrādājumi un pakalpojumi atbilst noteiktiem objektīviem, standartizētiem ES mēroga kritērijiem līdztekus parastajiem tiesiski noteiktajiem pienākumiem. Tas palīdzētu palielināt lietotāju uzticēšanos AI sistēmām un veicinātu tehnoloģijas vispārēju izmantošanu.

Šis risinājums ietvertu jauna tiesību akta izveidi, kurā būtu noteikts brīvprātīgas marķēšanas regulējums to AI sistēmu izstrādātājiem un/vai izmantotājiem, kuras netiek uzskatītas par ļoti bīstamām. Dalība marķēšanas sistēmā būtu brīvprātīga, taču tās prasības būtu saistošas, ja izstrādātājs vai izmantotājs izvēlētos marķēšanu pielietot. Apvienojot tiesisko aizsardzību pirms un pēc laišanas tirgū, būtu jānodrošina visu prasību apmierināšana.

H.Pārvaldīšana 

Lai izvairītos no atbildības neviengabalainības, uzlabotu dalībvalstu jaudas un nodrošinātu, ka Eiropa sev pakāpeniski nodrošina spējas, kas vajadzīgas AI balstītu ražojumu un pakalpojumu testēšanai un sertificēšanai, AI jomā ir vajadzīga Eiropas pārvaldes struktūra, ko veidotu valstu kompetento iestāžu sadarbības satvars. Šādā sakarā būtu lietderīgi atbalstīt kompetentās valsts iestādes, lai tās spētu īstenot savas pilnvaras AI izmantošanas vietās.

Eiropas pārvaldes struktūrai varētu būt dažādi uzdevumi kā forumam regulārai informācijas un paraugprakses apmaiņai, jaunu tendenču apzināšanai, konsultēšanai par standartizācijas darbībām, kā arī par sertifikāciju. Tai jāpilda arī svarīga loma tiesiskā regulējuma īstenošanas veicināšanā, piemēram, izdodot norādījumus, atzinumus un ekspertu vērtējumus. Šim nolūkam tai būtu jāizmanto valstu iestāžu tīkls, kā arī nozaru tīkli un regulatīvās iestādes valsts un ES līmenī. Palīdzību Komisijai turklāt varētu sniegt ekspertu komiteja.

Pārvaldes struktūrai jāgarantē maksimāla ieinteresēto personu dalība. Par regulējuma īstenošanu un tālāko attīstību jāapspriežas ar ieinteresētajām personām: patērētāju organizācijām un sociālajiem partneriem, uzņēmumiem, pētniekiem un pilsoniskās sabiedrības organizācijām.

Ņemot vērā jau pastāvošās struktūras, piemēram, finanšu, farmācijas, aviācijas, medicīnisko ierīču, patērētāja aizsardzības un datu aizsardzības jomā, ierosinātajai pārvaldes struktūrai nevajadzētu dublēt esošās funkcijas. Toties būtu jādibina ciešas saiknes ar citām ES un valstu kompetentajām iestādēm dažādās nozarēs, lai papildinātu esošās speciālās zināšanas un palīdzētu pastāvošajām iestādēm novērot un pārraudzīt uzņēmēju darbību ar AI sistēmām un AI iespējotiem ražojumiem un pakalpojumiem.

Nobeidzot, ja šī iespēja tiek izmantota, atbilstības novērtēšanu var uzticēt dalībvalstu izraudzītajām un norīkotajām struktūrām. Izmēģinājumu stacijām jānodrošina neatkarīga AI sistēmu revīzija un novērtēšana saskaņā ar iepriekš izklāstītajām prasībām. Neatkarīga novērtēšana vairos uzticēšanos un nodrošinās objektivitāti. Tas varētu arī atvieglot attiecīgo piekritības iestāžu darbu.

ES bagātība ir izcili izmēģināšanas un vērtēšanas centri, un tai jāattīsta savas jaudas arī AI jomā. Trešās valstīs dibināti ekonomikas dalībnieki, kuri vēlas ienākt ES iekšējā tirgū, varētu vai nu izmantot ES dibinātas izraudzītās struktūras, vai, ievērojot savstarpējās atzīšanas nolīgumus ar trešām valstīm, izmantot trešās valsts struktūras, kam uzticēta tāda novērtēšana.

Pārvaldes struktūra, kas attiecas uz AI, un iztirzātie iespējamie atbilstības novērtējumi neskartu piekritības iestāžu pilnvaras un pienākumus saskaņā ar spēkā esošajiem ES tiesību aktiem specifiskās nozarēs vai jautājumos (finanses, farmācija, aviācija, medicīniskās ierīces, patērētāja aizsardzība, datu aizsardzība utt.).

6.Noslēgums

AI ir stratēģiska tehnoloģija, kas piedāvā daudzus ieguvumus pilsoņiem, uzņēmumiem un sabiedrībai kā kopumam, bet ar nosacījumu, ka tā ir antropocentriska, ētiska un ilgtspējīga un ievēro pamattiesības un pamatvērtības. AI piedāvā vērā ņemamu efektivitātes un ražīguma pieaugumu, kas var stiprināt Eiropas rūpniecības konkurētspēju un vairot pilsoņu labklājību. Tas var arī palīdzēt rast atvieglinājumu dažām spiedīgākām sabiedrības problēmām, ieskaitot cīņu ar klimata pārmaiņām un vides degradāciju, problēmām, kas saistītas ar ilgtspēju un demogrāfiskām pārmaiņām, demokrātiskās iekārtas aizsardzību un, cik tas ir vajadzīgs un ir samērīgi, cīņu ar noziedzību.

Lai Eiropa varētu pilnībā izmantot AI sagādātās izdevības, tai ir jāattīsta un jāpastiprina nepieciešamās rūpnieciskās un tehnoloģiskās jaudas. Pievienotajā Eiropas datu stratēģijā izklāstīts, ka vajadzīgi arī pasākumi, kas ļaus ES kļūt par globālu datu centru.

Eiropiska pieeja AI tiecas veicināt Eiropas inovācijas spējas AI jomā, vienlaikus atbalstot ētiska un uzticama AI izstrādi un ieviešanu visā ES ekonomikā. AI jādarbojas cilvēku labā un vispārības labumam.

Komisija aicina izteikties par baltajā grāmatā izklāstītajiem priekšlikumiem, izmantojot atklātu sabiedrisko apspriešanu, kas pieejama vietnē https://ec.europa.eu/info/consultations_en . Piezīmes šajā apspriešanā var iesniegt līdz 2020. gada 19. maijam.

Sabiedriskās apspriešanas ietvaros saņemtos apsvērumus Komisija parasti publicē. Tomēr ir iespējams lūgt, lai tiktu nodrošināta iesniegtās informācijas vai atsevišķu tās daļu konfidencialitāte. Tādā gadījumā lūdzam iesniegtā dokumenta pirmajā lappusē skaidri norādīt, ka tas nav publiskojams, un nosūtīt Komisijai iesniegtā dokumenta nekonfidenciālu versiju, kas paredzēta publicēšanai.

Ar šo balto grāmatu un tai pievienoto ziņojumu par drošuma un atbildības satvaru Komisija sāk plašu apspriešanos ar dalībvalstu pilsonisko sabiedrību, rūpniekiem un mācībspēkiem par konkrētiem priekšlikumiem par eiropisku pieeju AI. Te ietilpst gan politiski līdzekļi ieguldījumu veicināšanai pētniecībā un inovācijā, prasmju izkopšanai un AI ieviešanas atbalstīšanai MVU, gan priekšlikumi par galvenajiem turpmākā tiesiskā regulējuma elementiem. Šī apspriešana ļaus ar visām ieinteresētajām personām risināt daudzpusēju dialogu, no kura izaugs Komisijas turpmākie pasākumi.

(1)

 “Mākslīgais intelekts Eiropai”, COM/2018/237 final

(2)

https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf.

(3)

COM(2020) 66 final.

(4)

AI un digitalizācija vispār ir būtiski Eiropas zaļā kursa iespējotāji. Tomēr aplēsts, ka IKT nozares vides pēdas nospiedums pašlaik ir vairāk nekā 2 % no visiem pasaules izmešiem. Šai baltajai grāmatai pievienotajā Eiropas digitālajā stratēģijā ir ierosināti ekoloģiskas pārveides pasākumi digitālajā jomā.

(5)

AI rīki var dot iespēju ES pilsoņus labāk aizsargāt no noziegumiem un teroristiskiem aktiem.
Tādi rīki varētu, piemēram, palīdzēt identificēt teroristisku propagandu tiešsaistē, atklāt aizdomīgus darījumus bīstamu preču pārdošanā, identificēt bīstamus slēptus priekšmetus vai nelikumīgas vielas vai izstrādājumus, palīdzēt pilsoņiem ārkārtas situācijās un dot norādījumus pirmās palīdzības sniedzējiem.

(6)

COM(2019) 640 final.

(7)

Lai gan var būt vajadzīgs ieviest arī citus pasākumus, kas novērstu un apkarotu AI ļaunprātīgu izmantošanu noziedzīgiem mērķiem, tie neietilpst šās baltās grāmatas darbības jomā.

(8)

COM(2019) 168.

(9)

     Seko Japāna (30 %) un ASV (28 %). Avots: CapGemini (2019).

(10)

McKinsey, 10 imperatives for Europe in the age of AI and automation, 2017).

(11)

COM(2018) 795.

(12)

IDC (2019).

(13)

Gartner (2017).

(14)

Neiromorfiskie risinājumi ir katra ļoti liela mēroga integrālo shēmu sistēma, kas atdarina nervu sistēmā esošās neirobioloģiskās arhitektūras.

(15)

Kvantiskie datori spēs dažās sekundes daļās apstrādāt daudzkārt lielākas datu kopas nekā pašlaik veiktspējīgākie datori, un tas ļaus izstrādāt jaunus mākslīgā intelekta lietojumus visdažādākajās nozarēs.

(16)

Mākslīgais intelekts Eiropai, COM(2018) 237 .

(17)

Koordinētais mākslīgā intelekta plāns, COM(2018) 795 .

(18)

COM(2018) 237.

(19)

Arī topošais Eiropas Aizsardzības fonds un Pastāvīgā strukturētā sadarbība (PESCO) radīs iespējas AI pētniecībai un izstrādei. Šie projekti jāsinhronizē ar plašākām ES civilajām programmām, kas domātas AI.

(20)

https://ec.europa.eu/jrc/en/publication/academic-offer-and-demand-advanced-profiles-eu

(21)

 ec.europe.eu/digital-single-market/en/news/digital-innovation-hubs-helping-companies-across-economy-make-most-digital-opportunities.

(22)

www.Ai4eu.eu.

(23)

 Europe.eu/investeu.

(24)

Atrodami, piekļūstami, savienojami un atkalizmantojami – kā norādīts Komisijas “FAIR” datu ekspertu grupas 2018. gada nobeiguma ziņojumā un rīcības plānā, https://ec.europa.eu/info/sites/info/files/turning_fair_into_reality_1.pdf.

(25)

https://www.oecd.org/going-digital/ai/principles/

(26)

Saskaņā ar partnerības instrumentu Komisija finansēs 2,5 miljonu eiro projektu, kas veicinās sadarbību ar līdzīgi noskaņotiem partneriem, lai popularizētu ES AI ētikas vadlīnijas un pieņemtu vienotus principus un secinājumus par darbību.

(27)

Priekšsēdētāja Urzula fon der Leiena, “Eiropas Savienība, kas tiecas uz augstākiem mērķiem. Mana programma Eiropai”, 17. lpp.

(28)

COM(2018) 237.

(29)

COM(2018) 795.

(30)

https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top

(31)

COM(2019) 168.

(32)

Tie aptver kiberdrošības problēmas, jautājumus, kas saistīti ar AI lietojumiem kritiskās infrastruktūrās un AI ļaunprātīgu izmantošanu.

(33)

     Eiropas Padomes pētījums rāda, ka AI izmantošana var ietekmēt daudzas pamattiesības: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5 .

(34)

     Vispārīgā datu aizsardzības regula (VDAR) un E-privātuma direktīva (jauna e-privātuma regula tiek apspriesta) pievēršas šim apdraudējumam, taču varbūt vajadzēs pārbaudīt, vai AI sistēmas nerada arī citas briesmas. Komisija nemitīgi uzraudzīs un vērtēs VDAR piemērošanu.

(35)

     Komisijas Sieviešu un vīriešu vienlīdzīgu iespēju padomdevēja komiteja pašlaik gatavo atzinumu par mākslīgo intelektu, kur cita starpā tiek analizēta AI ietekme uz dzimumu līdztiesību; komiteja plāno to pieņemt 2020. gada sākumā. ES Dzimumu līdztiesības stratēģijā 2020.–2024. gadam ir aplūkota arī saikne starp AI un dzimumu līdztiesību; Eiropas Līdztiesības iestāžu sadarbības tīkls (Equinet) publicēs (autoru Robin Allen un Dee Masters) ziņojumu Regulating AI: the new role for Equality Bodies – Meeting the new challenges to equality and non-discrimination from increased digitalisation and the use of AI, gaidāms 2020. gada sākumā.

(36)

Piemērs – bērnu viedpulkstenis. Šis izstrādājums nedrīkst tieši kaitēt bērnam, kurš to valkā, bet, tā kā nav noteikts minimālais drošības līmenis, to ir viegli izmantot par līdzekli piekļūšanai bērnam. Tirgus uzraudzības iestādēm var būt grūti iejaukties gadījumos, kad briesmas nesaistās ar pašu ražojumu.

(37)

     AI, lietu interneta un citu ciparsignālu tehnoloģiju ietekme uz tiesību aktiem drošuma un tiesiskās atbildības jomā tiek analizēta šai baltajai grāmatai pievienotajā Komisijas ziņojumā.

(38)

ES ražojumu drošuma tiesisko regulējumu veido Produktu vispārējās drošības direktīva (Direktīva 2001/95/EK) kā drošības tīkls un daudzas nozarēm specifiskas normas, kas aptver dažādas ražojumu kategorijas no iekārtām, lidmašīnām un automobiļiem līdz rotaļlietām un medicīniskām ierīcēm, tiecoties augstā līmenī nodrošināt labu veselību un drošumu. Papildus produktatbildības tiesību aktiem pastāv dažādas civiltiesiskās atbildības sistēmas ražojumu vai pakalpojumu nodarīta kaitējuma gadījumiem.

(39)

Direktīva 2000/43/EK.

(40)

Direktīva 2000/78/EK.

(41)

Direktīva 2004/113/EK; Direktīva 2006/54/EK.

(42)

Kā Negodīgas komercprakses direktīva (Direktīva 2005/29/EK) un Patērētāju tiesību direktīva (Direktīva 2011/83/EK).

(43)

Eiropas Parlamenta un Padomes Direktīva (ES) 2016/680 (2016. gada 27. aprīlis) par fizisku personu aizsardzību attiecībā uz personas datu apstrādi, ko veic kompetentās iestādes, lai novērstu, izmeklētu, atklātu noziedzīgus nodarījumus vai sauktu pie atbildības par tiem vai izpildītu kriminālsodus, un par šādu datu brīvu apriti.

(44)

Direktīva (ES) 2019/882 (2019. gada 17. aprīlis) par produktu un pakalpojumu piekļūstamības prasībām.

(45)

Piemēram, programmatūru, ko ražotājs paredzējis izmantošanai medicīnā, uzskata par medicīnisku ierīci saskaņā ar Medicīnisko ierīču regulu (Regula (ES) 2017/745).

(46)

COM(2018) 237 final, 1. lpp. “Mākslīgais intelekts (AI) ir sistēmas, kas izrāda intelektisku uzvedību, analizējot apkārtējos apstākļus un veicot darbības, lai – zināmā mērā patstāvīgi – sasniegtu noteiktus mērķus.

Sistēmas, kuru pamatā ir AI, var būt balstītas tikai uz programmatūru un darboties virtuālajā pasaulē (piem., balss palīgi, attēlu analīzes programmatūra, meklētājprogrammas, runas un sejas pazīšanas sistēmas), bet AI var arī būt iegults datortehnikas ierīcēs (piem., modernos robotos, autonomos automobiļos, drōnos vai lietu interneta lietojumos).”

(47)

High Level Expert Group, A definition of AI, 8. lpp. “Mākslīgā intelekta (AI) sistēmas ir cilvēka izstrādāta programmatūra (un, iespējams, arī aparatūra), kas kompleksa mērķa dēļ darbojas fiziskajā vai digitālajā dimensijā, uztverdama savu vidi, iegūstot datus, interpretēdama savāktos strukturētos vai nestrukturētos datus, spriezdama no zināšanām vai apstrādādama informāciju, kas gūta no šiem datiem, un lemdama par labāko rīcību konkrētā mērķa sasniegšanai. AI sistēmas var izmantot simboliskus noteikumus vai apgūt ciparisku modeli, un tās var arī pielāgot savu uzvedību, analizējot, kā vidi ietekmējušas to agrākās darbības.”

(48)

Piemēram, pastāv atšķirīgi drošuma apsvērumi un tiesiskas sekas, kas attiecas uz AI sistēmām, kuras sniedz specializētu medicīnisko informāciju ārstam, AI sistēmām, kuras medicīnisko informāciju sniedz tieši pacientam, un AI sistēmām, kuras pašas izpilda medicīniskus uzdevumus ar pacientu. Komisija skata drošuma un atbildības problēmas, kas īpatnējas veselības aprūpei.

(49)

ES tiesību aktos bīstamības klasifikācija var atšķirties no šeit aprakstītās atkarā no jomas, piemēram, par ražojumu drošumu.

(50)

Publiskā sektora jomas varētu būt patvērums, migrācija, robežkontrole un tiesas, sociālā nodrošināšana un nodarbinātības dienesti.

(51)

Ir svarīgi uzsvērt, ka piemērojami var būt arī citi ES tiesību akti. Piemēram, patēriņa precē iestrādāta AI lietojuma drošumam var piemērot Produktu vispārējas drošības direktīvu.

(52)

Biometriskā tālidentifikācija nošķirama no biometriskās autentifikācijas (kas ir drošības darbība, kurā izmanto indivīda unikālās bioloģiskās iezīmes, lai pārbaudītu, vai viņš ir tas, par ko uzdodas). Biometriskā tālidentifikācija ir tad, ja vairāku personu identitāte tiek noteikta pēc biometriskiem identifikatoriem (pirkstu nospiedumiem, sejas attēla, varavīksnenes, asinsvadu raksta u. c.) pa gabalu, publiskā telpā, nepārtraukti vai pastāvīgi pārbaudot to atbilstību datubāzē glabātajiem datiem.

(53)

Piemēram, algoritma dokumentācija, ieskaitot ziņas par to, kādā virzienā modelis optimalizējams, kāds svars sākumposmā paredzēts noteiktiem parametriem, utt.

(54)

Tā, saskaņā ar VDAR 13. panta 2. punkta f) apakšpunktu datu pārziņiem persondatu iegūšanas brīdī ir jāsniedz datu subjektiem godprātīgai un pārredzamai apstrādei nepieciešamā papildinformācija par to, ka pastāv automatizēta lēmumu pieņemšana, un noteikta papildinformācija.

(55)

Biometriskie dati tiek definēti kā “persondati pēc specifiskas tehniskas apstrādes, kuri attiecas uz fiziskas personas fiziskajām, fizioloģiskajām vai uzvedības pazīmēm, kas ļauj veikt vai apstiprina minētās fiziskās personas unikālu [autentifikāciju vai] identifikāciju, piemēram, sejas attēli vai daktiloskopijas dati [pirkstu nospiedumi]”. (Tiesībaizsardzības direktīvas 3. p. 13. pk.; VDAR 4. p. 14. pk.; Regulas (ES) 2018/1725 3. p. 18. pk.)

(56)

Identifikācija sejas pazīšanas sakarā nozīmē, ka indivīda sejas attēla veidne tiek salīdzināta ar daudzām citām veidnēm, kas glabājas datubāzē, lai noskaidrotu, vai tur glabājas šā indivīda attēls. Turpretim autentifikāciju (jeb verifikāciju) bieži sauc par sastatīšanu “viens pret vienu”. Tā ļauj salīdzināt divas biometriskās veidnes, par kurām parasti pieņem, ka tās pieder vienai personai. Tiek salīdzinātas divas biometriskās veidnes, lai noteiktu, vai abās attēlota tā pati persona. Tādu procedūru izmanto, piemēram, automatizētās robežkontroles (ABC) ejās, veicot robežkontroli lidostā.

(57)

Piemēram, par cilvēka cieņu. Līdz ar to sejas pazīšanas tehnoloģijas izmantošanā aizsargājamo pamattiesību kodols ir tiesības uz privātās dzīves neaizskaramību un persondatu aizsardzību. Ir iespējama arī ietekme uz diskriminācijas aizliegumu un īpašu grupu tiesībām – bērnu, veco ļaužu, invalīdu. Turklāt tehnoloģijas izmantošana nedrīkst apdraudēt vārda, biedrošanās un pulcēšanās brīvību. Sk. Facial recognition technology: fundamental rights considerations in the context of law enforcement, https://fra.europa.eu/en/publication/2019/facial-recognition.

(58)

VDAR 9. pants, Tiesībaizsardzības direktīvas 10. pants. Sk. arī Regulas (ES) 2018/1725 10. pantu (attiecas uz ES iestādēm un struktūrām).

(59)

Sistēma balstītos uz ES atbilstības novērtēšanas procedūrām, sk. Lēmumu 768/2008/EK, vai Regulu (ES) 2019/881 (Kiberdrošības aktu), ņemot vērā AI specifiku. Sk. 2014. gada ““Zilo rokasgrāmatu” par ES produktu noteikumu īstenošanu”.

(60)

Par attiecīgo pārvaldes struktūru, ieskaitot iestādes, kam uzticēta atbilstības novērtēšana, sk. H iedaļu.

Top