Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Eiropas Reģionu komitejas atzinums “ES pieeja mākslīgajam intelektam – Mākslīgā intelekta akts” (pārskatīts atzinums)

    COR 2021/02682

    OV C 97, 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    LV

    Eiropas Savienības Oficiālais Vēstnesis

    C 97/60


    Eiropas Reģionu komitejas atzinums “ES pieeja mākslīgajam intelektam – Mākslīgā intelekta akts”

    (pārskatīts atzinums)

    (2022/C 97/12)

    Ziņotājs:

    Guido RINK (NL/PSE), Emmenas pašvaldības padomes loceklis

    Atsauces dokumenti:

    Komisijas Paziņojums Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Veicinot eiropisku pieeju mākslīgajam intelektam”

    COM(2021) 205

    Priekšlikums Eiropas Parlamenta un Padomes regulai, kas nosaka saskaņotas normas mākslīgā intelekta jomā (Mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus

    COM(2021) 206

    I.   IETEIKUMI GROZĪJUMIEM

    1. grozījums

    1. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Šīs regulas mērķis ir uzlabot iekšējā tirgus darbību, nosakot vienotu tiesisko regulējumu, it īpaši mākslīgā intelekta izstrādei, laišanai tirgū un izmantošanai saskaņā ar Savienības vērtībām. Šī regula kalpo virknei sevišķi svarīgu vispārības interešu, piemēram, veicina augstu veselības, drošības un pamattiesību aizsardzības līmeni, un nodrošina uz AI bāzētu preču un pakalpojumu brīvu pārvietošanos pāri robežām, tādējādi nepieļaujot dalībvalstu ierobežojumus AI sistēmu izstrādei, laišanai tirgū un izmantošanai, ja tie šajā regulā nav nepārprotami atļauti.

    Šīs regulas mērķis ir uzlabot iekšējā tirgus darbību un garantēt pilsoņu pamattiesības , nosakot vienotu tiesisko regulējumu, it īpaši mākslīgā intelekta izstrādei, laišanai tirgū un izmantošanai saskaņā ar Savienības vērtībām. Šī regula kalpo virknei sevišķi svarīgu vispārības interešu, piemēram, veicina augstu veselības, drošības un pamattiesību aizsardzības līmeni, un nodrošina uz AI bāzētu preču un pakalpojumu brīvu pārvietošanos pāri robežām, tādējādi nepieļaujot dalībvalstu ierobežojumus AI sistēmu izstrādei, laišanai tirgū un izmantošanai, ja tie šajā regulā nav nepārprotami atļauti.

    Pamatojums

    Atsauce uz pamattiesībām ir ierosināta, lai uzsvērtu saikni ar Eiropas Savienības Pamattiesību hartu.

    2. grozījums

    Pēc 6. apsvēruma iekļaut šādu jaunu apsvērumu:

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

     

    Mākslīgā intelekta sistēmu definēšana ir nepārtraukts process, kurā tiek ņemts vērā mākslīgā intelekta ieviešanas konteksts, šajā jomā sabiedrībā notiekošo pārmaiņu temps, kā arī izcilības ekosistēmas un uzticamības ekosistēmas savstarpējā saikne.

    Pamatojums

    Ņemot vērā mākslīgā intelekta un tehnoloģiju attīstību, ir vajadzīga pielāgojama un evolutīva pieeja. Šā apsvēruma mērķis ir precizēt, ka mākslīgā intelekta definīcija laika gaitā ir jāpilnveido, ņemot vērā AI sistēmu un lietojumu jomā panākto progresu.

    3. grozījums

    20. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Lai nodrošinātu, ka minētās sistēmas tiek izmantotas atbildīgi un samērīgi, ir svarīgi arī noteikt, ka katrā no trim precīzi uzskaitītajām un šauri definētajām situācijām jāņem vērā noteikti elementi, it īpaši situācijas raksturs, kurš pamato sistēmas izmantošanu, izmantošanas ietekme uz visu iesaistīto personu tiesībām un brīvībām, un izmantošanai nodrošinātie apstākļi un aizsardzības pasākumi. Turklāt reāllaika biometriskās tālidentifikācijas sistēmu izmantošanai sabiedriskās vietās tiesībaizsardzības nolūkos būtu jānosaka atbilstoši ierobežojumi laikā un telpā, galvenokārt ņemot vērā pierādījumus vai norādes par apdraudējumiem, cietušajiem vai noziedzīgo nodarījumu izdarītājiem. Personu atsauces datubāzei vajadzētu būt pielāgotai katram izmantošanas gadījumam katrā no trim iepriekš minētajām situācijām.

    Lai nodrošinātu, ka minētās sistēmas tiek izmantotas atbildīgi un samērīgi, ir svarīgi arī noteikt, ka katrā no trim precīzi uzskaitītajām un šauri definētajām situācijām jāņem vērā noteikti elementi, it īpaši situācijas raksturs, kurš pamato sistēmas izmantošanu, izmantošanas ietekme uz visu iesaistīto personu tiesībām un brīvībām, un izmantošanai nodrošinātie apstākļi un aizsardzības pasākumi. Pirms šo sistēmu ārkārtas izmantošanas būtu jāapspriežas ar attiecīgajām vietējām un reģionālajām pašvaldībām. Turklāt reāllaika biometriskās tālidentifikācijas sistēmu izmantošanai sabiedriskās vietās tiesībaizsardzības nolūkos būtu jānosaka stingri ierobežojumi laikā un telpā, galvenokārt ņemot vērā pierādījumus vai norādes par apdraudējumiem, cietušajiem vai noziedzīgo nodarījumu izdarītājiem. Personu atsauces datubāzei vajadzētu būt pielāgotai katram izmantošanas gadījumam katrā no trim iepriekš minētajām situācijām.

    Pamatojums

    Reāllaika biometriskās tālidentifikācijas sistēmas nevajadzētu izmantot bezrūpīgi.

    4. grozījums

    21. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Katram reāllaika biometriskās tālidentifikācijas sistēmas izmantošanas gadījumam sabiedriskās vietās tiesībaizsardzības nolūkos vajadzētu saņemt skaidru un precīzu atļauju no tiesu iestādes vai dalībvalsts neatkarīgas administratīvās iestādes. Šādu atļauju būtībā vajadzētu saņemt pirms izmantošanas, izņemot pienācīgi pamatotas, steidzamas situācijas, proti, situācijas, kurās nepieciešamība izmantot attiecīgās sistēmas padara atļaujas iegūšanu pirms izmantošanas sākšanas faktiski un objektīvi neiespējamu. Šādās steidzamās situācijās izmantošanai būtu jāaprobežojas ar absolūti nepieciešamo minimumu un jānodrošina atbilstoši aizsardzības pasākumi un apstākļi, kā to nosaka valstu tiesību akti un precizē pati tiesībaizsardzības iestāde katra atsevišķa steidzamas izmantošanas gadījuma kontekstā . Papildus tam tiesībaizsardzības iestādei šādās situācijās būtu jācenšas saņemt atļauju pēc iespējas ātrāk, vienlaikus norādot iemeslus, kāpēc atļauju nebija iespējams pieprasīt agrāk .

    Katram reāllaika biometriskās tālidentifikācijas sistēmas izmantošanas gadījumam sabiedriskās vietās tiesībaizsardzības nolūkos vajadzētu saņemt skaidru un precīzu atļauju no tiesu iestādes vai dalībvalsts neatkarīgas administratīvās iestādes. Šādu atļauju vajadzētu saņemt pirms izmantošanas, izņemot pienācīgi pamatotas, steidzamas situācijas, proti, situācijas, kurās nepieciešamība izmantot attiecīgās sistēmas padara atļaujas iegūšanu pirms izmantošanas sākšanas faktiski un objektīvi neiespējamu. Jebkurā gadījumā izmantošanai būtu jāaprobežojas ar absolūti nepieciešamo minimumu un jānodrošina atbilstoši aizsardzības pasākumi un apstākļi, kā to nosaka valstu tiesību akti. Papildus tam tiesībaizsardzības iestādei būtu nekavējoties jāinformē attiecīgās vietējās un reģionālās pašvaldības un jācenšas no kompetentajām iestādēm saņemt atļauju.

    Pamatojums

    Vietējās un reģionālās pašvaldības ir politiski un administratīvi atbildīgas par sabiedrisko vietu pārvaldību un uzraudzību. Tāpēc tās būtu pienācīgi jāiesaista šādu sistēmu ieviešanā sabiedriskās vietās. Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, attiecīgā vietējā vai reģionālā pašvaldība būtu nekavējoties jāinformē par biometrisko sistēmu ieviešanu publiskajā telpā.

    5. grozījums

    39. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Migrācijas un patvēruma jomā un robežkontroles pārvaldībā izmantotās AI sistēmas ietekmē cilvēkus, kuri bieži ir īpaši neaizsargātā pozīcijā un ir atkarīgi no kompetento publiskā sektora iestāžu darbības rezultāta. Tāpēc minētajos kontekstos izmantoto AI sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, proti, viņu tiesību brīvi pārvietoties, tiesību uz nediskrimināciju, privātuma un persondatu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai. Tāpēc ir lietderīgi klasificēt kā augsta riska sistēmas tās AI sistēmas, ko kompetentajās publiskā sektora iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts izmantot kā melu detektorus un līdzīgus rīkus vai nolūkā noteikt fiziskas personas emocionālo stāvokli; novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam; pārbaudīt fizisku personu attiecīgo dokumentu autentiskumu; sniegt palīdzību kompetentām publiskā sektora iestādēm patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras iesniegušas pieteikumu noteikta statusa iegūšanai, atbilstību kritērijiem. AI sistēmām migrācijas, patvēruma un robežkontroles pārvaldības jomā, uz kurām attiecas šī regula, būtu jāatbilst attiecīgajām procesuālajām prasībām, kas noteiktas Eiropas Parlamenta un Padomes Direktīvā 2013/32/ES, Eiropas Parlamenta un Padomes Regulā (EK) Nr. 810/2009 un citos attiecīgajos tiesību aktos.

    Migrācijas un patvēruma jomā un robežkontroles pārvaldībā izmantotās AI sistēmas ietekmē cilvēkus, kuri bieži ir īpaši neaizsargātā pozīcijā un ir atkarīgi no kompetento publiskā sektora iestāžu darbības rezultāta. Tāpēc minētajos kontekstos izmantoto AI sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, proti, viņu tiesību brīvi pārvietoties, tiesību uz nediskrimināciju, privātuma un persondatu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai. Tāpēc ir nepieciešams klasificēt kā augsta riska sistēmas tās AI sistēmas, ko kompetentajās publiskā sektora iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts izmantot kā melu detektorus un līdzīgus rīkus vai nolūkā noteikt fiziskas personas emocionālo stāvokli; novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam; pārbaudīt fizisku personu attiecīgo dokumentu autentiskumu; sniegt palīdzību kompetentām publiskā sektora iestādēm patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras iesniegušas pieteikumu noteikta statusa iegūšanai, atbilstību kritērijiem. AI sistēmām migrācijas, patvēruma un robežkontroles pārvaldības jomā, uz kurām attiecas šī regula, būtu jāatbilst attiecīgajām procesuālajām prasībām, kas noteiktas Eiropas Parlamenta un Padomes Direktīvā 2013/32/ES, Eiropas Parlamenta un Padomes Regulā (EK) Nr. 810/2009 un citos attiecīgajos tiesību aktos.

    Pamatojums

    Šā grozījuma mērķis ir uzsvērt, ka uz minētajām AI sistēmām ir jāattiecina pastiprinātais režīms, ko piemēro augsta riska AI sistēmām.

    6. grozījums

    43. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Prasībām būtu jāattiecas uz augsta riska AI sistēmām saistībā ar izmantoto datu kopu kvalitāti, tehnisko dokumentāciju un uzskaiti, pārredzamību un informācijas sniegšanu lietotājiem, cilvēka virsvadību un noturību, precizitāti un kiberdrošību. Minētās prasības ir nepieciešamas, lai efektīvi mazinātu riskus veselībai, drošībai un pamattiesībām, tās ir piemērojamas, ņemot vērā sistēmas paredzēto nolūku, un citi tirdzniecību mazāk ierobežojoši pasākumi nav pienācīgi pieejami, tādējādi netiek radīti nepamatoti tirdzniecības ierobežojumi.

    Prasībām būtu jāattiecas uz augsta riska AI sistēmām saistībā ar izmantoto datu kopu kvalitāti, tehnisko dokumentāciju un uzskaiti, pārredzamību un informācijas sniegšanu lietotājiem, cilvēka virsvadību un noturību, precizitāti un kiberdrošību. Minētās prasības ir nepieciešamas, lai efektīvi mazinātu riskus veselībai, drošībai , datu drošībai, patērētāju tiesībām un pamattiesībām, tās ir piemērojamas, ņemot vērā sistēmas nolūku, un citi tirdzniecību mazāk ierobežojoši pasākumi nav pienācīgi pieejami, tādējādi netiek radīti nepamatoti tirdzniecības ierobežojumi. Fiziskas personas vai fizisku personu grupas, kuras saskaras ar Savienības tirgū laistām vai citādi ekspluatācijā nodotām augsta riska AI sistēmām, būtu pienācīgā, viegli pieejamā un saprotamā veidā jāinformē par to, ka tās mijiedarbojas ar šīm sistēmām, un jānodrošina tām piekļuve nepārprotamai, izsmeļošai un publiski pieejamai informācijai, kas to paskaidro.

    Pamatojums

    Pakalpojumu sniedzējiem un lietotājiem piemērojamās pārredzamības un informēšanas prasības būtu jāattiecina arī uz personām vai personu grupām, kuras varētu saskarties ar regulas III pielikumā uzskaitīto augsta riska AI sistēmu izmantošanu. Vārds “saprotams” šajā gadījumā nozīmē lietotājam saprotamu un pieejamu valodu, tostarp arī mutvārdu un žestu valodu.

    7. grozījums

    Pēc 44. apsvēruma pievienot šādu jaunu apsvērumu:

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

     

    AI sistēmu sagādātāji neiekļauj kvalitātes pārvaldības sistēmā nekādus pasākumus, kas veicina nepamatotu diskrimināciju dzimuma, izcelsmes, reliģijas vai pārliecības, invaliditātes, vecuma, dzimumorientācijas vai jebkāda cita iemesla dēļ.

    Pamatojums

    Prettiesiskas diskriminācijas cēlonis ir cilvēka darbība. AI sistēmu sagādātāji nedrīkstētu savā kvalitātes pārvaldības sistēmā iekļaut pasākumus, kas varētu veicināt diskrimināciju.

    8. grozījums

    47. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Lai mazinātu nepārredzamību, kas dažas AI sistēmas padara fiziskām personām nesaprotamas vai pārāk sarežģītas, augsta riska AI sistēmām būtu jānosaka noteikta pārredzamības pakāpe. Lietotājiem būtu jāspēj interpretēt sistēmas iznākumus un tos atbilstoši izmantot. Tāpēc augsta riska AI sistēmām būtu jāpievieno attiecīgā dokumentācija un lietošanas instrukcijas, kā arī īsa un skaidra informācija, tostarp attiecīgā gadījumā par iespējamiem pamattiesību riskiem un diskrimināciju.

    Lai mazinātu nepārredzamību, kas dažas AI sistēmas padara fiziskām personām vai jebkura pārvaldības līmeņa publiskajām iestādēm nesaprotamas vai pārāk sarežģītas, augsta riska AI sistēmām būtu jānosaka augsta pārredzamības pakāpe. Lietotājiem būtu jāspēj interpretēt sistēmas iznākumus un tos atbilstoši izmantot. Tāpēc augsta riska AI sistēmām būtu jāpievieno attiecīgā dokumentācija un lietošanas instrukcijas, kā arī īsa un skaidra informācija, tostarp attiecīgā gadījumā par iespējamiem pamattiesību riskiem un diskrimināciju.

    Pamatojums

    Lietotais jēdziens “noteikta pārredzamības pakāpe” vājina augsta riska AI sistēmu izstrādātāju atbildību.

    9. grozījums

    48. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Augsta riska AI sistēmas būtu jāprojektē un jāizstrādā tā, lai fiziskas personas varētu pārraudzīt to funkcionēšanu. Šajā nolūkā sistēmas sagādātājam pirms sistēmas laišanas tirgū vai nodošanas ekspluatācijā būtu jānosaka piemēroti cilvēka virsvadības pasākumi. Tā, attiecīgā gadījumā šādiem pasākumiem jāgarantē, ka sistēmai ir iebūvēti ierobežojumi, kurus pati sistēma nevar neievērot, un ka tā reaģē uz cilvēka virsvadību un ka fiziskām personām, kurām uzticēta šī virsvadība, ir uzdevuma veikšanai nepieciešamā kompetence, apmācība un pilnvaras.

    Augsta riska AI sistēmas būtu jāprojektē un jāizstrādā tā, lai fiziskas personas un visu līmeņu publiskās pārvaldes iestādes varētu pārraudzīt to funkcionēšanu. Šajā nolūkā sistēmas sagādātājam pirms sistēmas laišanas tirgu vai nodošanas ekspluatācijā būtu jānosaka piemēroti cilvēka virsvadības pasākumi. Tā, attiecīgā gadījumā šādiem pasākumiem jāgarantē, ka sistēmai ir iebūvēti ierobežojumi, kurus pati sistēma nevar neievērot, un ka tā reaģē uz cilvēka virsvadību un ka fiziskām personām, kurām uzticēta šī virsvadība, ir uzdevuma veikšanai nepieciešamā kompetence, apmācība un pilnvaras.

    Pamatojums

    Izriet no teksta.

    10. grozījums

    67. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Augsta riska AI sistēmām jābūt marķētām ar zīmi CE, atspoguļojot to atbilstību šīs regulas noteikumiem, kas ļautu tām būt brīvā apritē iekšējā tirgū. Dalībvalstīm nevajadzētu radīt nepamatotus šķēršļus tādu augsta riska AI sistēmu laišanai tirgū vai nodošanai ekspluatācijā, kuras atbilst šajā regulā noteiktajām prasībām un ir marķētas ar CE zīmi.

    Augsta riska AI sistēmām jābūt marķētām ar zīmi CE, atspoguļojot to atbilstību šīs regulas noteikumiem, kas ļautu tām būt brīvā apritē iekšējā tirgū. Dalībvalstīm nevajadzētu radīt šķēršļus tādu augsta riska AI sistēmu laišanai tirgū vai nodošanai ekspluatācijā, kuras atbilst šajā regulā noteiktajām prasībām un ir marķētas ar CE zīmi. Dalībvalstis ir pilnvarotas reglamentēt augsta riska AI praksi un sistēmas vienīgi sevišķi svarīgu un pienācīgi pamatotu iemeslu dēļ saistībā ar sabiedrības un valsts drošības interesēm.

    Pamatojums

    Lai gan dalībvalstīm nevajadzētu kavēt regulas piemērošanu, tām būtu jāsaglabā tiesības reglamentēt augsta riska AI sistēmas, ja ir apdraudētas sabiedrības un valsts drošības intereses.

    11. grozījums

    70. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Dažas AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām vai satura radīšanai, var radīt īpašu uzdošanās par citu personu vai apmānīšanas risku neatkarīgi no tā, vai tās ir pieskaitāmas augsta riska sistēmām vai nav. Tāpēc noteiktos apstākļos šādu sistēmu izmantošanai būtu jānosaka īpaši pārredzamības pienākumi, neskarot augsta riska AI sistēmām noteiktās prasības un pienākumus. Īpaši – fiziskas personas būtu jāinformē, ka tās ir saskarsmē ar AI sistēmu , ja vien tas nav pats par sevi saprotams attiecīgajos apstākļos un izmantošanas kontekstā . Turklāt fiziskām personām būtu jāpaziņo, ja tās ir pakļautas emociju uztveršanas sistēmas vai biometriskās kategorizācijas sistēmas darbībai. Šāda informācija un paziņojumi būtu jāsniedz invalīdiem izmantojamā formātā. Turklāt lietotājiem, kuri izmanto AI sistēmu tāda attēla, audio vai video satura radīšanai vai manipulēšanai, kas ievērojami atgādina reālas personas, vietas vai notikumus un cilvēkam maldinoši šķistu autentisks, būtu jāizpauž tas, ka saturs ir mākslīgi radīts vai manipulēts, attiecīgi marķējot mākslīgā intelekta radīto iznākumu un atklājot tā mākslīgo izcelsmi.

    Dažas AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām vai satura radīšanai, var radīt īpašu uzdošanās par citu personu vai apmānīšanas risku neatkarīgi no tā, vai tās ir pieskaitāmas augsta riska sistēmām vai nav. Tāpēc šādu sistēmu izmantošanai būtu jānosaka īpaši pārredzamības pienākumi, neskarot augsta riska AI sistēmām noteiktās prasības un pienākumus. Īpaši – fiziskas personas būtu sistemātiski jāinformē, ka tās ir saskarsmē ar AI sistēmu. Turklāt fiziskām personām būtu jāpaziņo, ja tās ir pakļautas emociju uztveršanas sistēmas vai biometriskās kategorizācijas sistēmas darbībai. Šāda informācija un paziņojumi būtu jāsniedz invalīdiem izmantojamā formātā. Turklāt lietotājiem, kuri izmanto AI sistēmu tāda attēla, audio vai video satura radīšanai vai manipulēšanai, kas ievērojami atgādina reālas personas, vietas vai notikumus un cilvēkam maldinoši šķistu autentisks, būtu jāizpauž tas, ka saturs ir mākslīgi radīts vai manipulēts, attiecīgi marķējot mākslīgā intelekta radīto iznākumu un atklājot tā mākslīgo izcelsmi.

    Pamatojums

    Nevajadzētu pieļaut nekādus izņēmumus attiecībā uz pārredzamības un informēšanas prasību gadījumos, kad fiziskas personas nonāk saskarsmē ar AI sistēmām.

    12. grozījums

    76. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Lai sekmētu netraucētu, efektīvu un saskaņotu šīs regulas īstenošanu, būtu jāizveido Eiropas Mākslīgā intelekta padome (“AI padome”). AI padome atbildētu par vairākiem padomdošanas uzdevumiem, ieskaitot atzinumu, ieteikumu, padomu vai pamatnostādņu izdošanu jautājumos, kas saistīti ar šīs regulas īstenošanu, tostarp par tehniskajām specifikācijām vai pašreizējiem standartiem attiecībā uz šajā regulā noteiktajām prasībām, kā arī par Komisijas konsultēšanu un palīdzību tai specifiskos mākslīgā intelekta jautājumos.

    Lai sekmētu netraucētu, efektīvu un saskaņotu šīs regulas īstenošanu, būtu jāizveido Eiropas Mākslīgā intelekta padome (“AI padome”). AI padome atbildētu par vairākiem padomdošanas uzdevumiem, ieskaitot atzinumu, ieteikumu, padomu vai pamatnostādņu izdošanu jautājumos, kas saistīti ar šīs regulas īstenošanu, tostarp par tehniskajām specifikācijām vai pašreizējiem standartiem attiecībā uz šajā regulā noteiktajām prasībām, kā arī par Komisijas konsultēšanu un palīdzību tai specifiskos mākslīgā intelekta jautājumos. Eiropas Mākslīgā intelekta padomes sastāvam būtu jāatspoguļo Eiropas sabiedrības intereses un jārespektē dzimumu līdzsvars.

    Pamatojums

    Eiropas Mākslīgā intelekta padomei būtu pienācīgi jāatspoguļo Eiropas sabiedrības galvenās intereses. Tās ir galvenokārt saistītas ar cilvēktiesībām, klimatu, AI sistēmu energoefektivitāti, drošību, sociālo iekļaušanu, veselību u.c. Dzimumu līdzsvars ir pamatnosacījums daudzveidības nodrošināšanai minētās padomes darbībās, norādījumu izstrādē utt.

    13. grozījums

    77. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Dalībvalstīm ir būtiska loma šīs regulas piemērošanā un izpildē. Šajā ziņā katrai dalībvalstij būtu jānorīko viena vai vairākas valsts kompetentās iestādes šīs regulas piemērošanas un īstenošanas uzraudzībai. Lai vairotu dalībvalstu organizatorisku efektivitāti un izveidotu oficiālu kontaktpunktu saziņai ar sabiedrību un citiem partneriem dalībvalstu un Savienības līmenī, viena valsts iestāde katrā dalībvalstī būtu jāieceļ par valsts uzraudzības iestādi.

    Dalībvalstīm ir būtiska loma šīs regulas piemērošanā un izpildē. Šajā ziņā katrai dalībvalstij būtu jānorīko viena vai vairākas valsts kompetentās iestādes šīs regulas piemērošanas un īstenošanas uzraudzībai. Lai vairotu dalībvalstu organizatorisku efektivitāti un izveidotu oficiālu kontaktpunktu saziņai ar sabiedrību un citiem partneriem dalībvalstu un Savienības līmenī, viena valsts iestāde katrā dalībvalstī būtu jāieceļ par valsts uzraudzības iestādi. Vietējām un reģionālajām pašvaldībām tiek uzticēti uzraudzības vai izpildes nodrošināšanas pienākumi, ja dalībvalsts to uzskata par lietderīgu.

    Pamatojums

    Regulas piemērošanas un tās uzraudzības un izpildes nodrošināšanas nolūkā būtu jāparedz dalībvalstij pilnvaras uzticēt vietējām un reģionālajām pašvaldībām uzraudzības vai izpildes nodrošināšanas pienākumus, ja tas ir nepieciešams un iespējams.

    14. grozījums

    79. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Lai nodrošinātu šajā regulā, kas ir Savienības saskaņošanas tiesību akts, noteikto prasību un pienākumu pienācīgu un iedarbīgu izpildi, ar Regulu (ES) 2019/1020 izveidotā tirgus uzraudzības un produktu atbilstības sistēma būtu jāpiemēro pilnā mērā. Kad tas nepieciešams to pilnvaru īstenošanai, valstu publiskā sektora iestādēm vai struktūrām, tostarp līdztiesības iestādēm, kuras uzrauga Savienības tiesību aktu, kuri aizsargā pamattiesības, piemērošanu, vajadzētu būt piekļuvei jebkādai dokumentācijai, kas radīta saskaņā ar šo regulu.

    Lai nodrošinātu šajā regulā, kas ir Savienības saskaņošanas tiesību akts, noteikto prasību un pienākumu pienācīgu un iedarbīgu izpildi, ar Regulu (ES) 2019/1020 izveidotā tirgus uzraudzības un produktu atbilstības sistēma būtu jāpiemēro pilnā mērā. Kad tas nepieciešams to pilnvaru īstenošanai, valstu publiskā sektora iestādēm vai struktūrām, tostarp līdztiesības iestādēm, kuras uzrauga Savienības tiesību aktu, kuri aizsargā pamattiesības, piemērošanu, un, attiecīgā gadījumā, vietējām un reģionālajām pašvaldībām, vajadzētu būt piekļuvei jebkādai dokumentācijai, kas radīta saskaņā ar šo regulu.

    Pamatojums

    Grozījuma mērķis ir ņemt vērā atšķirīgās pārvaldības struktūras ES dalībvalstīs.

    15. grozījums

    83. apsvērums

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Lai nodrošinātu uzticēšanās pilnu un konstruktīvu sadarbību starp kompetentajām iestādēm Savienības un valstu līmenī, visām šīs regulas piemērošanā iesaistītajām personām būtu jāievēro savu uzdevumu veikšanas gaitā iegūtās informācijas un datu konfidencialitāte.

    Lai nodrošinātu uzticēšanās pilnu un konstruktīvu sadarbību starp kompetentajām iestādēm Savienības, valstu , reģionālajā un vietējā līmenī, visām šīs regulas piemērošanā iesaistītajām personām būtu jāievēro savu uzdevumu veikšanas gaitā iegūtās informācijas un datu konfidencialitāte.

    Pamatojums

    Grozījuma mērķis ir ņemt vērā atšķirīgās pārvaldības struktūras ES dalībvalstīs.

    16. grozījums

    I sadaļas 3. pants – Definīcijas, 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    “mākslīgā intelekta sistēma” (AI sistēma) ir programmatūra, kas izstrādāta, izmantojot vienu vai vairākas I pielikumā uzskaitītās metodes un pieejas, un attiecībā uz cilvēka noteiktu konkrētu mērķu kopumu var radīt tādu iznākumu kā saturs, prognozes, ieteikumi vai lēmumi, kuri ietekmē vidi, ar ko tie mijiedarbojas;

    “mākslīgā intelekta sistēma” (AI sistēma) ir programmatūra, kas izstrādāta, izmantojot vienu vai vairākas I pielikumā neizsmeļoši uzskaitītās metodes un pieejas, un kas ir saistīta ar sociālo praksi, identitāti un kultūru un attiecībā uz cilvēka noteiktu konkrētu mērķu kopumu , kura pamatā ir apkārtējās vides uztvere, kas balstīta uz datu vākšanu, strukturētu un nestrukturētu savākto datu interpretāciju, zināšanu pārvaldību vai ar šiem datiem saistītas informācijas apstrādi, var radīt tādu iznākumu kā saturs, prognozes, ieteikumi vai lēmumi, kuri ietekmē vidi, ar ko tie mijiedarbojas;

    Pamatojums

    AI sistēma ir tehnisku elementu kopums, kas datus, algoritmus un apstrādes jaudu savieno ar sociālo praksi, sabiedrību, identitāti un kultūru. Tāpēc šāda dinamiska sociāli tehniska kopuma definīcijai vajadzētu būt pielāgotai nākotnes vajadzībām, un tā regulāri jāatjaunina, lai precīzi atspoguļotu arvien pieaugošo AI ietekmi sabiedrībā, vienlaikus apzinot strauji mainīgās problēmas un iespējas, kas saistītas ar AI, tostarp saikni starp zināšanu pārvaldību un AI. Šajā kontekstā regulai būtu jāattiecas arī uz algoritmu, ko izstrādājis cits algoritms.

    17. grozījums

    5. panta 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Ir aizliegta šāda mākslīgā intelekta prakse:

    Ir aizliegta šāda mākslīgā intelekta prakse:

    (a)

    tādas AI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kura izmanto subliminālus paņēmienus, lai būtiski iespaidotu personas uzvedību tādā veidā, kas šai vai citai personai rada vai var radīt fizisku vai psiholoģisku kaitējumu;

    (a)

    tādas AI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kura izmanto subliminālus paņēmienus, lai būtiski iespaidotu personas uzvedību tādā veidā, kas šai vai citai personai rada vai var radīt fizisku vai psiholoģisku kaitējumu , apdraud vai var apdraudēt citas personas vai personu grupas pamattiesības, tostarp fizisko vai garīgo veselību un drošību, rada vai var radīt kaitīgu ietekmi uz patērētājiem, tostarp finansiālus zaudējumus vai ekonomisku diskrimināciju, vai apdraud vai var apdraudēt demokrātiju un tiesiskumu ;

    (b)

    tādas AI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kura izmanto kādu no specifiskas personu grupas neaizsargātības iezīmēm ar viņu vecuma vai fiziskās vai garīgās invaliditātes dēļ, lai būtiski iespaidotu šai grupai piederīgas personas uzvedību tā, ka šai vai citai personai tiek vai var tikt radīts fizisks vai psiholoģisks kaitējums;

    (b)

    tādas AI sistēmas laišana tirgū, nodošana ekspluatācijā vai lietošana, kura izmanto kādu no specifiskas personu grupas neaizsargātības iezīmēm ar viņu vecuma vai fiziskās vai garīgās invaliditātes dēļ, lai būtiski iespaidotu šai grupai piederīgas personas uzvedību tā, ka šai vai citai personai tiek vai var tikt radīts fizisks vai psiholoģisks kaitējums;

    (c)

    AI sistēmu laišana tirgū, nodošana ekspluatācijā vai lietošana, ko veic publiskā sektora iestādes vai to vārdā fiziskas personas, lai izvērtētu vai klasificētu fizisku personu uzticamību noteiktā laikposmā, pamatojoties uz viņu sociālo uzvedību vai zināmām vai prognozētām personas vai personības īpašībām , ja sociālais novērtējums ved pie viena vai abiem šādiem iznākumiem:

    i)

    kaitīga vai nelabvēlīga apiešanās ar noteiktām fiziskām personām vai veselām to grupām sabiedriskajā vidē, kas nav saistīta ar vidi, kurā dati sākotnēji radīti vai savākti;

    ii)

    kaitīga vai nelabvēlīga apiešanās ar noteiktām fiziskām personām vai veselām to grupām, kas nav pamatota vai nav samērīga ar viņu sociālo uzvedību vai tās smagumu;

    (c)

    AI sistēmu laišana tirgū, nodošana ekspluatācijā vai lietošana, ko veic publiskā sektora iestādes vai to vārdā fiziskas personas, lai izvērtētu vai klasificētu fizisku personu vai personu grupu uzticamību noteiktā laikposmā, pamatojoties uz viņu sociālo uzvedību vai zināmām vai prognozētām personas vai personības īpašībām , ja tas ved uz AI bāzētu sociālo novērtējumu vispārējiem mērķiem ;

    (d)

    reāllaika biometriskās tālidentifikācijas sistēmu izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos, ja tāda izmantošana nav stingri nepieciešama kādam no šiem mērķiem:

    i)

    mērķtiecīga konkrētu noziegumos potenciāli cietušo, arī pazudušu bērnu meklēšana;

    ii)

    īpaša, būtiska un nenovēršama apdraudējuma fizisku personu dzīvībai vai fiziskai drošībai vai teroristu uzbrukuma nepieļaušana;

    iii)

    vainīgā vai aizdomās turētā atklāšana, vietas noteikšana, identificēšana vai saukšana pie atbildības par noziedzīgu nodarījumu, kas minēts Padomes Pamatlēmuma 2002/584/TI ([62]) 2. panta 2. punktā un par ko attiecīgajā dalībvalstī var sodīt ar brīvības atņemšanu vai piemērot ar brīvības atņemšanu saistītu drošības līdzekli, kura maksimālais ilgums ir vismaz trīs gadi, kā noteikts attiecīgās dalībvalsts tiesību aktos.

    (d)

    publiskā sektora iestādēm vai to vārdā fiziskām personām laist tirgū, nodot ekspluatācijā vai lietot tādas AI sistēmas, kurās īpašiem mērķiem izmanto uz AI balstītu sociālo novērtējumu bez cilvēka veiktas uzraudzības, proti, sociālajā kontekstā, kas ir saistīts ar apstākļiem, kuros noteiktā laika posmā dati ir sākotnēji ģenerēti vai savākti ar mērķi novērtēt vai klasificēt fizisku personu vai personu grupu uzticamību, pamatojoties uz minēto personu sociālo uzvedību vai zināmām vai prognozētām personiskajām vai rakstura iezīmēm, un sociālais novērtējums ved pie kaitējošas vai nelabvēlīgas apiešanās ar noteiktām fiziskām personām vai veselām to grupām, kas nav pamatota vai nav samērīga ar viņu sociālo uzvedību vai tās smagumu;

     

    (e)

    reāllaika biometriskās tālidentifikācijas sistēmu izmantošana sabiedriskās vietās tiesībaizsardzības nolūkos, ja tāda izmantošana nav stingri nepieciešama kādam no šiem mērķiem:

    i)

    mērķtiecīga konkrētu noziegumos potenciāli cietušo, arī pazudušu bērnu meklēšana;

    ii)

    īpaša, būtiska un nenovēršama apdraudējuma fizisku personu dzīvībai vai fiziskai drošībai vai teroristu uzbrukuma nepieļaušana;

    iii)

    vainīgā vai aizdomās turētā atklāšana, vietas noteikšana, identificēšana vai saukšana pie atbildības par noziedzīgu nodarījumu, kas minēts Padomes Pamatlēmuma 2002/584/TI ([62]) 2. panta 2. punktā un par ko attiecīgajā dalībvalstī var sodīt ar brīvības atņemšanu vai piemērot ar brīvības atņemšanu saistītu drošības līdzekli, kura maksimālais ilgums ir vismaz trīs gadi, kā noteikts attiecīgās dalībvalsts tiesību aktos.

    Pamatojums

    Kopumā sublimināli paņēmieni var apdraudēt brīvību, cilvēktiesības un arī demokrātiska tiesiskuma darbību. Tajā pašā laikā mākslīgais intelekts var apdraudēt patērētāju tiesības. Ierosināto papildinājumu mērķis ir precizēt šo punktu.

    Attiecībā uz publisko iestāžu vai to vārdā veikto sociālo novērtējumu jānorāda, ka, ņemot vērā šādas prakses radīto apdraudējumu, kā paskaidrots 17. apsvērumā, tas būtu jāaizliedz, ja to veic vispārējiem mērķiem. Datu ģenerēšana vai vākšana konkrētiem mērķiem būtu jāatļauj tikai ar cilvēka veiktu uzraudzību un ar nosacījumu, ka tā nepārkāpj tiesības uz cieņu un nediskrimināciju, kā arī neskar vienlīdzības un tiesiskuma vērtības.

    18. grozījums

    5. panta 4. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Dalībvalsts var nolemt noteikt iespēju pilnīgi vai daļēji atļaut reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu sabiedriskās vietās tiesībaizsardzības vajadzībām, ievērojot ierobežojumus un nosacījumus, kas uzskaitīti 1. punkta d) apakšpunktā un 2. un 3. punktā. Minētā dalībvalsts savos tiesību aktos nosaka vajadzīgos sīki izstrādātos noteikumus par 3. punktā minēto atļauju pieteikšanu, izdošanu un izmantošanu, kā arī to attiecīgo uzraudzību. Minētajos noteikumos arī norāda, attiecībā uz kuriem no 1. punkta d) apakšpunktā uzskaitītajiem mērķiem – tai skaitā kuru minētā apakšpunkta iii) punktā norādīto noziedzīgo nodarījumu gadījumā – kompetentajām iestādēm var atļaut šīs sistēmas izmantot tiesībaizsardzības vajadzībām.

    Dalībvalsts var nolemt noteikt iespēju pilnīgi vai daļēji atļaut reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu sabiedriskās vietās tiesībaizsardzības vajadzībām, ievērojot ierobežojumus un nosacījumus, kas uzskaitīti 1. punkta d) apakšpunktā un 2. un 3. punktā. Minētā dalībvalsts savos tiesību aktos nosaka vajadzīgos sīki izstrādātos noteikumus par 3. punktā minēto atļauju pieteikšanu, izdošanu un izmantošanu, kā arī to attiecīgo uzraudzību. Minētajos noteikumos arī norāda, attiecībā uz kuriem no 1. punkta d) apakšpunktā uzskaitītajiem mērķiem – tai skaitā kuru minētā apakšpunkta iii) punktā norādīto noziedzīgo nodarījumu gadījumā – kompetentajām iestādēm var atļaut šīs sistēmas izmantot tiesībaizsardzības vajadzībām. Šajos noteikumos ir arī paredzēts, kā notiek attiecīgo vietējo un reģionālo pašvaldību informēšana un apspriešanās ar tām. Apspriešanās ir jāveic pirms šo sistēmu ārkārtas izmantošanas sabiedriskās vietās. Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, attiecīgā vietējā vai reģionālā pašvaldība ir nekavējoties jāinformē par attiecīgās AI sistēmas ieviešanu.

    Pamatojums

    Vietējās un reģionālās pašvaldības ir politiski un administratīvi atbildīgas par sabiedrisko vietu pārvaldību un uzraudzību. Tādēļ pirms šādas AI prakses ieviešanas ir jāuzklausa to viedoklis un tās pienācīgi jāinformē par AI sistēmu ārkārtas izmantošanu tiesībaizsardzības nolūkos.

    Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, ir nekavējoties jāinformē attiecīgā vietējā vai reģionālā pašvaldība.

    19. grozījums

    13. pants

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    13.  pants – Pārredzamība un informācijas sniegšana lietotājiem

    13.a pants – Pārredzamība un informācijas sniegšana lietotājiem

    1.   Augsta riska AI sistēmas projektē un izstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot. Ir jānodrošina atbilstošs pārredzamības veids un pakāpe, lai panāktu atbilstību attiecīgajiem lietotāja un sagādātāja pienākumiem, kas noteikti šīs sadaļas 3. nodaļā.

    1.   Augsta riska AI sistēmas projektē un izstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot. Ir jānodrošina atbilstošs pārredzamības un saprotama skaidrojuma veids un pakāpe, lai panāktu atbilstību attiecīgajiem lietotāja un sagādātāja pienākumiem, kas noteikti šīs sadaļas 3. nodaļā. Skaidrojums ir pieejams vismaz tās valsts valodā, kurā AI sistēma tiek ieviesta.

    2.   Augsta riska AI sistēmām pievieno lietošanas instrukciju piemērotā digitālā formātā vai citādi, un tajā ietver kodolīgu, pilnīgu, pareizu un skaidru informāciju, kas ir būtiska, pieejama un saprotama lietotājiem.

    2.   Augsta riska AI sistēmām pievieno publiski pieejamu un saprotamu lietošanas instrukciju piemērotā digitālā formātā vai citādi, un tajā ietver kodolīgu, pilnīgu, pareizu un skaidru informāciju, kas ir būtiska, pieejama un saprotama lietotājiem.

    3.   Šā panta 2. punktā minētā informācija ietver šādas ziņas:

    3.   Šā panta 2. punktā minētā informācija ietver šādas ziņas:

    (a)

    sagādātāja un attiecīgā gadījumā tā pilnvarotā pārstāvja identitāte un kontaktinformācija;

    (a)

    sagādātāja un attiecīgā gadījumā tā pilnvarotā pārstāvja identitāte un kontaktinformācija;

    (b)

    augsta riska AI sistēmas raksturlielumi, iespējas un veiktspējas ierobežojumi, tostarp:

    (b)

    augsta riska AI sistēmas raksturlielumi, iespējas un veiktspējas ierobežojumi, tostarp:

     

    i)

    tai paredzētais nolūks;

     

    i)

    tai paredzētais nolūks;

     

    ii)

    15. pantā minētais precizitātes, noturības un kiberdrošības līmenis, par kuru ir testēta un validēta attiecīgā augsta riska AI sistēma un kurš var būt gaidāms, un visi zināmie un paredzamie apstākļi, kas var ietekmēt sagaidāmo precizitātes, noturības un kiberdrošības līmeni;

     

    ii)

    15. pantā minētais precizitātes (kas izteikts modeļu novērtēšanai piemērotā mērvienībā) , noturības un kiberdrošības līmenis, par kuru ir testēta un validēta attiecīgā augsta riska AI sistēma un kurš var būt gaidāms, un visi zināmie un paredzamie apstākļi, kas var ietekmēt sagaidāmo precizitātes, noturības un kiberdrošības līmeni;

     

    iii)

    zināmie vai paredzamie apstākļi, kas saistīti ar augsta riska AI sistēmas lietošanu atbilstoši tās paredzētajam nolūkam vai pamatoti paredzamas nepareizas lietošanas apstākļos un kas var radīt risku veselībai un drošībai vai pamattiesībām;

     

    iii)

    zināmie vai paredzamie apstākļi, kas saistīti ar augsta riska AI sistēmas lietošanu atbilstoši tās paredzētajam nolūkam vai pamatoti paredzamas nepareizas lietošanas apstākļos un kas var radīt risku veselībai un drošībai vai pamattiesībām;

     

    iv)

    tās veiktspēja attiecībā uz personām vai personu grupām, ar kurām sistēmu paredzēts izmantot;

     

    iv)

    tās veiktspēja attiecībā uz personām vai personu grupām, ar kurām sistēmu paredzēts izmantot;

     

    v)

    attiecīgā gadījumā – ievaddatu specifikācijas vai cita būtiska informācija attiecībā uz izmantotajām apmācības, validēšanas un testēšanas datu kopām, ņemot vērā AI sistēmai paredzēto nolūku;

     

    v)

    attiecīgā gadījumā – ievaddatu specifikācijas vai cita būtiska informācija attiecībā uz izmantotajām apmācības, validēšanas un testēšanas datu kopām, ņemot vērā AI sistēmai paredzēto nolūku;

    vi)

    parametri, ko izmanto modeļa pielāgošanai, un pasākumi, ar kuriem paredzēts novērst pārmērīgu vai nepietiekamu pielāgošanu;

    (c)

    izmaiņas augsta riska AI sistēmā un tās veiktspējā, kuras sākotnējās atbilstības novērtēšanas brīdī ir noteicis sagādātājs, ja tādas ir;

    (c)

    izmaiņas augsta riska AI sistēmā un tās veiktspējā, kuras sākotnējās atbilstības novērtēšanas brīdī ir noteicis sagādātājs, ja tādas ir;

    (d)

    cilvēka virsvadības pasākumi, kas minēti 14. pantā, tostarp tehniskie pasākumi, kuri ieviesti, lai palīdzētu lietotājiem interpretēt AI sistēmu iznākumus;

    (d)

    cilvēka virsvadības pasākumi, kas minēti 14. pantā, tostarp tehniskie pasākumi, kuri ieviesti, lai palīdzētu lietotājiem interpretēt AI sistēmu iznākumus;

    (e)

    paredzamais augsta riska AI sistēmas darbmūžs un visi uzturēšanas un apkopes pasākumi, kas nepieciešami, lai nodrošinātu šīs AI sistēmas pareizu darbību, arī saistībā ar programmatūras atjauninājumiem.

    (e)

    paredzamais augsta riska AI sistēmas darbmūžs un visi uzturēšanas un apkopes pasākumi, kas nepieciešami, lai nodrošinātu šīs AI sistēmas pareizu darbību, arī saistībā ar programmatūras atjauninājumiem.

     

    13.b pants – Pārredzamība un datu subjektu informēšana

    Personas vai personu grupas, kuras varētu nonākt saskarsmē ar augsta riska AI sistēmu, tiek pienācīgā, viegli pieejamā un saprotamā veidā informētas, un tām ir piekļuve nepārprotamai, viegli piekļūstamai un publiski pieejamai informācijai par šādu lietojumu.

    Pamatojums

    Lai stiprinātu uzticēšanās ekosistēmu, instrukcijām par augsta riska AI sistēmu izmantošanu būtu jābūt publiski pieejamām. Tām jābūt saprotamām un sagatavotām tās valsts valodā, kurā AI sistēma tiek ieviesta.

    Lai nodrošinātu algoritmu pārredzamību un saprotamību, ir jāskaidro, kādi parametri ir izmantoti modeļa pielāgošanai un kādi pasākumi ir veikti, lai nepieļautu pārmērīgu vai nepietiekamu pielāgošanu.

    13.b pantā ir noteikts pienākums nodrošināt pārredzamību un informāciju personām, kuras mijiedarbojas ar AI sistēmām vai varētu nonākt saskarsmē ar AI sistēmu.

    20. grozījums

    14. panta 4. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Šā panta 3. punktā minētie pasākumi personām, kurām virsvadība uzticēta, atbilstoši apstākļiem nodrošina šādas iespējas:

    Šā panta 3. punktā minētie pasākumi personām, kurām virsvadība uzticēta, atbilstoši apstākļiem nodrošina šādas iespējas:

    (a)

    pilnībā izprast augsta riska AI sistēmas iespējas un ierobežojumus un spēt pienācīgi uzraudzīt tās darbību, lai pēc iespējas ātrāk varētu atklāt un novērst noviržu, disfunkciju un neparedzētas darbības pazīmes;

    (a)

    pilnībā izprast augsta riska AI sistēmas iespējas un ierobežojumus un spēt pienācīgi uzraudzīt tās darbību, lai pēc iespējas ātrāk varētu atklāt un novērst noviržu, disfunkciju un neparedzētas darbības pazīmes;

    (b)

    apzināties iespējamo tendenci automātiski paļauties vai pārāk paļauties uz augsta riska AI sistēmas radītajiem iznākumiem (“automatizācijas neobjektivitāte”), īpaši attiecībā uz augsta riska AI sistēmām, kuras lieto, lai sniegtu informāciju vai ieteikumus lēmumiem, kas jāpieņem fiziskām personām;

    (b)

    apzināties iespējamo tendenci automātiski paļauties vai pārāk paļauties uz augsta riska AI sistēmas radītajiem iznākumiem (“automatizācijas neobjektivitāte”) vai jebkādu citu neobjektivitāti , īpaši attiecībā uz augsta riska AI sistēmām, kuras lieto, lai sniegtu informāciju vai ieteikumus lēmumiem, kas jāpieņem fiziskām personām;

    (c)

    spēt pareizi interpretēt augsta riska AI sistēmas radīto iznākumu, galvenokārt ņemot vērā sistēmas īpašības un pieejamos interpretācijas rīkus un metodes;

    (c)

    spēt pareizi interpretēt augsta riska AI sistēmas radīto iznākumu, galvenokārt ņemot vērā sistēmas īpašības un pieejamos interpretācijas rīkus un metodes;

    (d)

    spēt katrā atsevišķā situācijā izlemt nelietot augsta riska AI sistēmu vai citādi neievērot, pārmākt vai anulēt augsta riska AI sistēmas darbības iznākumu;

    (d)

    spēt katrā atsevišķā situācijā izlemt nelietot augsta riska AI sistēmu vai citādi neievērot, pārmākt vai anulēt augsta riska AI sistēmas darbības iznākumu;

    (e)

    spēt iejaukties augsta riska AI sistēmas darbībā vai pārtraukt to, izmantojot pogu “stop” vai līdzīgu procedūru.

    (e)

    spēt iejaukties augsta riska AI sistēmas darbībā vai pārtraukt to, izmantojot pogu “stop” vai līdzīgu procedūru.

    Pamatojums

    Arī vairāki citi neobjektivitātes veidi var būt problemātiski. Piemēram, projektētāja neobjektivitāte vai paša lietotāja neobjektivitāte (“sociālā neobjektivitāte”), neobjektivitāte attiecībā uz to, vai ieviestā AI sistēma ir piemērota problēmas risinājumam (“tehnoloģiskā neobjektivitāte”), kā arī dažāda veida statistikas neobjektivitāte.

    21. grozījums

    14. pants – pēc 5. punkta pievienot šādu jaunu punktu:

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

     

    Attiecībā uz jebkuru lēmumu, ko pieņem III pielikuma 5. punkta a) un b) apakšpunktā minētās AI sistēmas, ir jānodrošina cilvēka iejaukšanās, un lēmuma pieņemšanai jābūt balstītai uz stingru lēmumu pieņemšanas procesu. Šādu lēmumu pieņemšanā ir jānodrošina saskarsme ar cilvēku.

    Pamatojums

    14. pantā paredzēts, ka cilvēks kontrolē tikai augsta riska AI sistēmas. Attiecībā uz publisko iestāžu pieņemtajiem lēmumiem ir svarīgi uzsvērt, ka ir jāgarantē cilvēka iejaukšanās, saskarsme ar cilvēku un procedūru ievērošana.

    22. grozījums

    17. panta 1. punkts – pēc (m) punkta pievienot divus šādus punktus:

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Augsta riska AI sistēmu sagādātāji izveido kvalitātes vadības sistēmu, kas nodrošina atbilstību šai regulai. Šo sistēmu sistemātiski un pienācīgi dokumentē rakstisku nostādņu, procedūru un instrukciju veidā, un tajā iekļauj vismaz šādus aspektus:

    Augsta riska AI sistēmu sagādātāji izveido kvalitātes vadības sistēmu, kas nodrošina atbilstību šai regulai. Šo sistēmu sistemātiski un pienācīgi dokumentē rakstisku nostādņu, procedūru un instrukciju veidā, un tajā iekļauj vismaz šādus aspektus:

    (a)

    normatīvās atbilstības stratēģija, tostarp atbilstības novērtēšanas procedūru un augsta riska AI sistēmas modifikāciju pārvaldības procedūru ievērošana;

    (a)

    normatīvās atbilstības stratēģija, tostarp atbilstības novērtēšanas procedūru un augsta riska AI sistēmas modifikāciju pārvaldības procedūru ievērošana;

    (b)

    metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska AI sistēmas projektēšanai, projekta kontrolei un projekta verificēšanai;

    (b)

    metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska AI sistēmas projektēšanai, projekta kontrolei un projekta verificēšanai;

    (c)

    metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska AI sistēmas izstrādei, kvalitātes kontrolei un kvalitātes nodrošināšanai;

    (c)

    metodes, procedūras un sistemātiskas darbības, kas jāizmanto augsta riska AI sistēmas izstrādei, kvalitātes kontrolei un kvalitātes nodrošināšanai;

    (d)

    pārbaudes, testēšanas un validēšanas procedūras, kas jāveic pirms augsta riska AI sistēmas izstrādes, tās laikā un pēc tās, un to biežums;

    (d)

    pārbaudes, testēšanas un validēšanas procedūras, kas jāveic pirms augsta riska AI sistēmas izstrādes, tās laikā un pēc tās, un to biežums;

    (e)

    tehniskās specifikācijas, ieskaitot standartus, kas jāpiemēro, un, ja attiecīgie saskaņotie standarti netiek piemēroti pilnībā, līdzekļi, kas jāizmanto, lai nodrošinātu, ka augsta riska AI sistēma atbilst šīs sadaļas 2. nodaļā noteiktajām prasībām;

    (e)

    tehniskās specifikācijas, ieskaitot standartus, kas jāpiemēro, un, ja attiecīgie saskaņotie standarti netiek piemēroti pilnībā, līdzekļi, kas jāizmanto, lai nodrošinātu, ka augsta riska AI sistēma atbilst šīs sadaļas 2. nodaļā noteiktajām prasībām;

    (f)

    datu pārvaldības sistēmas un procedūras, arī datu vākšana, datu analīze, datu marķēšana, datu glabāšana, datu filtrēšana, datu izrace, datu apkopošana, datu saglabāšana un jebkura cita darbība ar datiem, kas tiek veikta pirms augsta riska AI sistēmas laišanas tirgū vai nodošanas ekspluatācijā un to nolūkā;

    (f)

    datu pārvaldības sistēmas un procedūras, arī datu vākšana, datu analīze, datu marķēšana, datu glabāšana, datu filtrēšana, datu izrace, datu apkopošana, datu saglabāšana un jebkura cita darbība ar datiem, kas tiek veikta pirms augsta riska AI sistēmas laišanas tirgū vai nodošanas ekspluatācijā un to nolūkā;

    (g)

    riska pārvaldības sistēma, kas minēta 9. pantā;

    (g)

    riska pārvaldības sistēma, kas minēta 9. pantā;

    (h)

    pēctirgus uzraudzības sistēmas izveidošana, ieviešana un uzturēšana saskaņā ar 61. pantu;

    (h)

    pēctirgus uzraudzības sistēmas izveidošana, ieviešana un uzturēšana saskaņā ar 61. pantu;

    (i)

    procedūras, kas saistītas ar ziņošanu par nopietniem incidentiem un darbības traucējumiem saskaņā ar 62. pantu;

    (i)

    procedūras, kas saistītas ar ziņošanu par nopietniem incidentiem un darbības traucējumiem saskaņā ar 62. pantu;

    (j)

    komunikācijas organizēšana ar valstu kompetentajām iestādēm, kompetentajām iestādēm, ieskaitot nozaru iestādes, dodot vai atbalstot piekļuvi datiem, pieteiktajām struktūrām, citiem operatoriem, klientiem vai citām ieinteresētajām personām;

    (j)

    komunikācijas organizēšana ar valstu kompetentajām iestādēm, kompetentajām iestādēm, ieskaitot nozaru iestādes, dodot vai atbalstot piekļuvi datiem, pieteiktajām struktūrām, citiem operatoriem, klientiem vai citām ieinteresētajām personām;

    (k)

    sistēmas un procedūras visas attiecīgās dokumentācijas un informācijas uzskaitei;

    (k)

    sistēmas un procedūras visas attiecīgās dokumentācijas un informācijas uzskaitei;

    (l)

    resursu pārvaldība, ieskaitot ar piegādes drošību saistītus pasākumus;

    (l)

    resursu pārvaldība, ieskaitot ar piegādes drošību saistītus pasākumus;

    (m)

    pārskatatbildības sistēma, kurā noteikti vadības un cita personāla pienākumi, kas attiecas uz visiem šajā punktā uzskaitītajiem aspektiem.

    (m)

    pārskatatbildības sistēma, kurā noteikti vadības un cita personāla pienākumi, kas attiecas uz visiem šajā punktā uzskaitītajiem aspektiem;

     

    (n)

    pasākumi, kuru mērķis ir novērst nepamatotu diskrimināciju dzimuma, etniskās izcelsmes, reliģijas vai pārliecības, invaliditātes, vecuma, dzimumorientācijas vai jebkāda cita iemesla dēļ;

    (o)

    skaidrojums par to, kā augsta riska AI sistēmas izstrādē ir ņemti vērā ētikas jautājumi.

    Pamatojums

    Ar šo papildinājumu uzsvērts, ka iekļautībai un nepamatotas diskriminācijas novēršanai vajadzētu būt svarīgiem kvalitātes pārvaldības sistēmas elementiem.

    Sistēmas darbībā ir jāievēro ētikas vērtības, kuras AI sistēmas lietotājs vēlas ar to saistīt vai attiecībā uz kurām sagādātājs var pamatoti uzskatīt, ka tās var tikt saistītas ar augsta riska AI sistēmu. Sistēmas sagādātājam būtu jāspēj skaidrot, kā tas ir ņemts vērā.

    23. grozījums

    19. panta 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Augsta riska AI sistēmu sagādātāji gādā, lai pirms laišanas tirgū vai nodošanas ekspluatācijā to sistēmām tiktu veikta atbilstības novērtēšanas procedūra saskaņā ar 43. pantu. Ja pēc atbilstības novērtēšanas ir pierādīta AI sistēmu atbilstība šīs sadaļas 2. nodaļā noteiktajām prasībām, sagādātāji sagatavo ES atbilstības deklarāciju saskaņā ar 48. pantu un uzliek atbilstības zīmi “CE” saskaņā ar 49. pantu.

    Augsta riska AI sistēmu sagādātāji gādā, lai pirms laišanas tirgū vai nodošanas ekspluatācijā to sistēmām tiktu veikta atbilstības novērtēšanas procedūra saskaņā ar 43. pantu. Ja pēc atbilstības novērtēšanas ir pierādīta AI sistēmu atbilstība šīs sadaļas 2. nodaļā noteiktajām prasībām, sagādātāji sagatavo ES atbilstības deklarāciju saskaņā ar 48. pantu un uzliek atbilstības zīmi “CE” saskaņā ar 49. pantu. Augsta riska AI sistēmu sagādātāji publiski pieejamā vietā publicē ES atbilstības deklarāciju un atbilstības novērtējuma kopsavilkumu.

    Pamatojums

    Lai stiprinātu uzticēšanos mākslīgā intelekta sistēmām, augsta riska AI sistēmu sagādātājiem vajadzētu būt godīgiem. Turklāt sabiedrībai vajadzētu dot iespēju pārbaudīt, vai atbilstības novērtējums ir pienācīgi sagatavots saskaņā ar regulas noteikumiem.

    24. grozījums

    29. pants, pēc 6. punkta pievienots jauns punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

     

    Augsta riska AI sistēmu lietotāji pirms sistēmas darbības uzsākšanas sagatavo ētikas novērtējumu. Lietotājiem ir jābūt spējīgiem skaidrot tehnoloģijas ieviešanas iespējamo ietekmi uz cilvēkiem un sabiedrību. Lietotāji precizē, kādā nolūkā AI sistēma ir ieviesta, kādas ir pamatvērtības un kā tās ir noteiktas, un vai tās ir ņemtas vērā sistēmā. Lietotāji izvērtē sistēmas faktisko ietekmi uz cilvēku un sabiedrību visā AI sistēmas aprites ciklā.

    Pamatojums

    Ētika ir plašs jēdziens. Tehnoloģiju jomā ētikas prakse ir daudzveidīga – gan attiecībā uz teorētisko pamatojumu, gan konkrētām projektēšanas metodēm, rīkiem un vērtībām. Atsevišķas personas vai cilvēku grupas uzskata, ka vērtības ir svarīgi elementi; tās var būt diezgan konkrētas vai vairāk konceptuālas. Ir svarīgi aizsargāt visas morālās vērtības, kuras var tikt izmantotas, un pastāvīgi izvērtēt AI sistēmas aprites ciklu.

    25. grozījums

    52. panta 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Sagādātāji nodrošina, ka AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām, projektē un izstrādā tā, lai fiziskās personas tiktu informētas par to, ka tās ir saskarsmē ar AI sistēmu , ja vien tas nav pats par sevi saprotams attiecīgajos apstākļos un izmantošanas kontekstā . Šis pienākums neattiecas uz AI sistēmām, kuras ir likumiski atļautas noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai un vainīgo saukšanai pie atbildības, ja šīs sistēmas nav pieejamas sabiedrībai ziņošanai par noziedzīgu nodarījumu.

    Sagādātāji nodrošina, ka AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām, projektē un izstrādā tā, lai fiziskās personas tiktu informētas par to, ka tās ir saskarsmē ar AI sistēmu. Šis pienākums neattiecas uz AI sistēmām, kuras ir likumiski atļautas noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai un vainīgo saukšanai pie atbildības, ja šīs sistēmas nav pieejamas sabiedrībai ziņošanai par noziedzīgu nodarījumu. Šī saskarsme nedrīkst ierobežot fizisko personu, kas mijiedarbojas ar AI sistēmām, iespēju apjomu un juridisko statusu.

    Pamatojums

    Ja tehnoloģiskos artefaktus izmanto kā līdzekli mijiedarbībai ar fiziskām personām, var rasties risks, ka tiks ierobežota saskarsmē ar šiem artefaktiem esošo fizisko personu izvēle. Fiziskas personas būtu pienācīgi jāinformē ikreiz, kad tās saskaras ar AI sistēmām, un tas nedrīkst būt atkarīgs no konkrētas situācijas interpretācijas. Kad fiziskas personas atrodas mijiedarbībā ar AI sistēmām, viņu tiesības ir jāgarantē vienmēr.

    26. grozījums

    57. panta 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    AI padomi veido valstu uzraudzības iestādes, kuras pārstāv attiecīgās iestādes vadītājs vai līdzvērtīga augsta līmeņa amatpersona, un Eiropas Datu aizsardzības uzraudzītājs. Citas valstu iestādes var uzaicināt uz sanāksmēm, ja tajās apspriestie jautājumi tām ir svarīgi.

    AI padomi veido valstu uzraudzības iestādes, kuras pārstāv attiecīgās iestādes vadītājs vai līdzvērtīga augsta līmeņa amatpersona, un Eiropas Datu aizsardzības uzraudzītājs. Citas valstu , reģionālās un vietējās iestādes var uzaicināt uz sanāksmēm, ja tajās apspriestie jautājumi tām ir svarīgi.

    Pamatojums

    Būtu jānodrošina iespēja vietējām un reģionālajām pašvaldībām piedalīties mākslīgā intelekta sistēmu uzraudzībā un ziņot par to ieviešanu vietējā līmenī.

    27. grozījums

    58. pants

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Sniedzot konsultācijas un palīdzību Komisijai 56. panta 2. punkta kontekstā, AI padome galvenokārt:

    Sniedzot konsultācijas un palīdzību Komisijai 56. panta 2. punkta kontekstā, AI padome galvenokārt:

    (a)

    apkopo un kopīgo zinātību un paraugpraksi dalībvalstu starpā;

    (a)

    apkopo un kopīgo zinātību un paraugpraksi dalībvalstu , reģionālo un vietējo pašvaldību starpā;

    (b)

    veicina vienotu administratīvo praksi dalībvalstīs, tostarp attiecībā uz 53. pantā minēto “regulatīvo smilškastu” darbību;

    (b)

    veicina vienotu administratīvo praksi dalībvalstīs, tostarp attiecībā uz 53. pantā minēto “regulatīvo smilškastu” darbību;

    (c)

    sniedz atzinumus, ieteikumus vai rakstiskas piezīmes par jautājumiem, kas saistīti ar šīs regulas īstenošanu, it īpaši:

    (c)

    sniedz atzinumus, ieteikumus vai rakstiskas piezīmes par jautājumiem, kas saistīti ar šīs regulas īstenošanu, it īpaši:

     

    i)

    par tehniskajām specifikācijām vai esošajiem standartiem attiecībā uz III sadaļas 2. nodaļā noteiktajām prasībām;

    ii)

    par 40. un 41. pantā minēto saskaņoto standartu vai kopīgo specifikāciju izmantošanu;

    iii)

    par norādījumu dokumentu sagatavošanu, ietverot pamatnostādnes par 71. pantā minēto administratīvo naudas sodu noteikšanu.

     

    i)

    par tehniskajām specifikācijām vai esošajiem standartiem attiecībā uz III sadaļas 2. nodaļā noteiktajām prasībām;

    ii)

    par 40. un 41. pantā minēto saskaņoto standartu vai kopīgo specifikāciju izmantošanu;

    iii)

    par norādījumu dokumentu sagatavošanu, ietverot pamatnostādnes par 71. pantā minēto administratīvo naudas sodu noteikšanu.

    Pamatojums

    Vietējās un reģionālās pašvaldības ir vietējiem iedzīvotājiem un vietējai ekonomikai tuvākais līmenis. Būtu skaidri jānorāda to nozīmīgā loma zināšanu apmaiņā.

    28. grozījums

    59. panta 1. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Katra dalībvalsts izveido vai norīko valsts kompetentās iestādes, lai nodrošinātu šīs regulas piemērošanu un īstenošanu. Valsts kompetentās iestādes organizē tā, lai to darbību un uzdevumu veikšanā nodrošinātu objektivitāti un neitralitāti.

    Katra dalībvalsts izveido vai norīko valsts kompetentās iestādes, lai nodrošinātu šīs regulas piemērošanu un īstenošanu. Valsts kompetentās iestādes organizē tā, lai to darbību un uzdevumu veikšanā nodrošinātu objektivitāti un neitralitāti. Vietējās un reģionālās pašvaldības tiek pilnvarotas veikt uzraudzības vai izpildes nodrošināšanas pienākumus, ja dalībvalsts to uzskata par lietderīgu.

    Pamatojums

    Regulas piemērošanas un tās uzraudzības un izpildes nodrošināšanas nolūkā dalībvalstij jābūt spējīgai uzticēt vietējām un reģionālajām pašvaldībām uzraudzības vai izpildes nodrošināšanas pienākumus, ja tas ir nepieciešams un iespējams. Šajā saistībā vietējām un reģionālajām pašvaldībām ir jāsaņem atbalsts un apmācība, lai tās spētu pilnvērtīgi veikt uzraudzības un izpildes nodrošināšanas pienākumus.

    29. grozījums

    69. panta 3. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    Rīcības kodeksus var izstrādāt atsevišķi AI sistēmu sagādātāji vai organizācijas, kas tos pārstāv, vai abēji, arī – iesaistot lietotājus un ieinteresētās personas un organizācijas, kas tās pārstāv. Rīcības kodeksi var aptvert vienu vai vairākas AI sistēmas, ņemot vērā attiecīgajām sistēmām paredzētā nolūka līdzību.

    Rīcības kodeksus var izstrādāt valstu, reģionālās vai vietējās iestādes, atsevišķi AI sistēmu sagādātāji vai organizācijas, kas tos pārstāv, vai abēji, arī – iesaistot lietotājus un ieinteresētās personas un organizācijas, kas tās pārstāv. Rīcības kodeksi var aptvert vienu vai vairākas AI sistēmas, ņemot vērā attiecīgajām sistēmām paredzētā nolūka līdzību.

    Pamatojums

    Valsts, vietējām un reģionālajām iestādēm būtu jāpiešķir juridiskas pilnvaras izstrādāt rīcības kodeksus tām AI sistēmām, ko tās izstrādā vai izmanto.

    30. grozījums

    I pielikums – 3. panta 1. punktā minētās mākslīgā intelekta metodes un pieejas

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

     

    Ņemot vērā pašreizējās zinātnes atziņas, mākslīgais intelekts ietver šādas metodes un pieejas:

    (a)

    Mašīnu mācīšanās pieejas, tostarp pārraudzītā, nepārraudzītā un stimulētā mācīšanās, kam izmanto dažādas metodes, ieskaitot dziļo mācīšanos.

    (a)

    Mašīnu mācīšanās pieejas, tostarp pārraudzītā, nepārraudzītā un stimulētā mācīšanās, kam izmanto dažādas metodes, ieskaitot dziļo mācīšanos.

    (b)

    Uz loģiku un zināšanām balstītas pieejas, tostarp zināšanu reprezentācija, induktīvā (loģiskā) programmēšana, zināšanu bāzes, izvedummašīnas un dedukcijas mašīnas, (simboliskās) spriešanas sistēmas un ekspertsistēmas.

    (b)

    Uz loģiku un zināšanām balstītas pieejas, tostarp zināšanu reprezentācija, induktīvā (loģiskā) programmēšana, zināšanu bāzes, izvedummašīnas un dedukcijas mašīnas, (simboliskās) spriešanas sistēmas un ekspertsistēmas.

    (c)

    Statistiskas pieejas, Beijesa novērtējums, meklēšanas un optimizēšanas metodes.

    (c)

    Statistiskas pieejas, Beijesa novērtējums, meklēšanas un optimizēšanas metodes.

    Pamatojums

    Mākslīgā intelekta definīcijai un metožu uzskaitījumam ir jābūt pielāgotam nākotnes vajadzībām. Mākslīgā intelekta sistēmu izstrādē izmantoto īpašo metožu un pieeju saraksts nedrīkst būt izsmeļošs, un tā pamatā jābūt aktuālajām zinātnes atziņām.

    31. grozījums

    III pielikuma 1.-5. punkts

    Eiropas Komisijas ierosinātais teksts

    RK grozījums

    6. panta 2. punktā minētās augsta riska AI sistēmas ir norādītās AI sistēmas, ko izmanto kādā no tālāk uzskaitītajām jomām.

    6. panta 2. punktā minētās augsta riska AI sistēmas ir norādītās AI sistēmas, ko izmanto kādā no tālāk uzskaitītajām jomām.

    1.

    Fizisku personu biometriskā identifikācija un kategorizācija:

    1.

    Fizisku personu biometriskā identifikācija un kategorizācija:

    (a)

    AI sistēmas, ko paredzēts izmantot fizisku personu tālidentifikācijai reāllaikā un vēlāklaikā.

    (a)

    AI sistēmas, ko paredzēts izmantot fizisku personu tālidentifikācijai reāllaikā un vēlāklaikā.

    2.

    Kritiskās infrastruktūras pārvaldība un darbība:

    2.

    Kritiskās infrastruktūras pārvaldība un darbība:

    (a)

    AI sistēmas, ko paredzēts izmantot kā drošības sastāvdaļas ceļu satiksmes pārvaldībā un darbībā, kā arī ūdens, gāzes un elektroenerģijas piegādē un apkures nodrošināšanā.

    (a)

    AI sistēmas, ko paredzēts izmantot kā drošības sastāvdaļas ceļu satiksmes pārvaldībā un darbībā, kā arī ūdens, gāzes un elektroenerģijas piegādē un apkures nodrošināšanā, kā arī telekomunikāciju, ūdensapgādes un interneta infrastruktūrā .

    3.

    Izglītība un arodmācības:

    3.

    Izglītība un arodmācības:

    (a)

    AI sistēmas, ko paredzēts izmantot, lai noteiktu fizisku personu piekļuvi izglītības un arodmācību iestādēm vai uzņemtu fiziskas personas tajās;

    (a)

    AI sistēmas, ko paredzēts izmantot, lai noteiktu fizisku personu piekļuvi izglītības un arodmācību iestādēm vai uzņemtu fiziskas personas tajās;

    (b)

    AI sistēmas, ko paredzēts izmantot izglītības un arodmācības iestāžu audzēkņu novērtēšanai un tādu pārbaudījumu dalībnieku novērtēšanai, kurus parasti tiek prasīts nokārtot, lai iestātos izglītības iestādē.

    (b)

    AI sistēmas, ko paredzēts izmantot izglītības un arodmācības iestāžu audzēkņu novērtēšanai un tādu pārbaudījumu dalībnieku novērtēšanai, kurus parasti tiek prasīts nokārtot, lai iestātos izglītības iestādē.

    4.

    Nodarbinātība, darba ņēmēju pārvaldība un piekļuve pašnodarbinātībai:

    4.

    Nodarbinātība, darba ņēmēju pārvaldība un piekļuve pašnodarbinātībai:

    (a)

    AI sistēmas, ko paredzēts izmantot fizisku personu līgšanai darbā vai darbinieku atlasei, sevišķi vakanču izsludināšanai, pieteikumu atlasei vai atsijāšanai, kandidātu izvērtēšanai pārrunās vai pārbaudījumos;

    (a)

    AI sistēmas, ko paredzēts izmantot fizisku personu līgšanai darbā vai darbinieku atlasei, sevišķi vakanču izsludināšanai, pieteikumu atlasei vai atsijāšanai, kandidātu izvērtēšanai pārrunās vai pārbaudījumos;

    (b)

    AI risinājumi, ko paredzēts izmantot lēmumu pieņemšanai par paaugstināšanu amatā vai darba līgumattiecību izbeigšanu, kā arī uzdevumu sadalei un darba līgumattiecībās esošo personu snieguma un uzvedības pārraudzībai un izvērtēšanai.

    (b)

    AI risinājumi, ko paredzēts izmantot lēmumu pieņemšanai par paaugstināšanu amatā vai darba līgumattiecību izbeigšanu, kā arī uzdevumu sadalei un darba līgumattiecībās esošo personu snieguma un uzvedības pārraudzībai un izvērtēšanai.

    5.

    Piekļuve privātiem pamatpakalpojumiem un sabiedriskajiem pakalpojumiem un pabalstiem un to izmantošana:

    5.

    Piekļuve privātiem pamatpakalpojumiem un sabiedriskajiem pakalpojumiem un pabalstiem un to izmantošana:

    (a)

    AI sistēmas, ko paredzēts izmantot publiskā sektora iestādēs vai to vārdā, lai izvērtētu fizisku personu tiesības saņemt publiskās palīdzības pabalstus un pakalpojumus, kā arī lai piešķirtu, samazinātu, atsauktu vai atgūtu šādus pabalstus un pakalpojumus;

    (a)

    AI sistēmas, ko paredzēts izmantot publiskā sektora iestādēs vai to vārdā, lai izvērtētu un noteiktu fizisku personu tiesības saņemt publiskās palīdzības pabalstus un pakalpojumus, kā arī lai piešķirtu, samazinātu, atsauktu vai atgūtu šādus pabalstus un pakalpojumus;

    (b)

    AI sistēmas, ko paredzēts izmantot fizisku personu kredītspējas izvērtēšanai vai to kredītnovērtējuma noteikšanai, izņemot tādas AI sistēmas, kuras savā darbā izmanto mazapjoma sagādātāji savām vajadzībām;

    (b)

    AI sistēmas, ko paredzēts izmantot fizisku personu kredītspējas vai to kredītnovērtējuma noteikšanai, izņemot tādas AI sistēmas, kuras savā darbā izmanto mazapjoma sagādātāji savām vajadzībām;

    (c)

    AI sistēmas, ko paredzēts izmantot ārkārtas pirmās reaģēšanas dienestu, tostarp ugunsdzēsēju un medicīniskās palīdzības sniedzēju, nosūtīšanai vai nosūtīšanas prioritāšu noteikšanai.

    (c)

    AI sistēmas, ko paredzēts izmantot ārkārtas pirmās reaģēšanas dienestu, tostarp ugunsdzēsēju un medicīniskās palīdzības sniedzēju, nosūtīšanai vai nosūtīšanas prioritāšu noteikšanai.

    Pamatojums

    Telekomunikāciju, ūdensapgādes un interneta infrastruktūra ir kritiskās infrastruktūras neatņemama sastāvdaļa.

    Mākslīgā intelekta sistēmas klasificēšana augsta riska sistēmā nozīmē noteikt, ka šāda sistēma varētu radīt reālu risku iedzīvotājiem. Analītisks un teorētisks novērtējums par personu tiesībām saņemt sabiedriskos pakalpojumus pats par sevi nerada augstu risku. Darbības vārdu “izvērtēt” papildinot ar “noteikt”, tiek uzsvērts, ka šāds risks faktiski rodas lēmuma pieņemšanas brīdī, it īpaši attiecībā uz iesaistītajām personām.

    II.   IETEIKUMI POLITIKAS JOMĀ

    EIROPAS REĢIONU KOMITEJA

    Izcilības ekosistēma

    1.

    uzsver, ka Komisijas ieceri – panākt, lai Eiropas Savienība kļūtu par pasaules līderi antropocentriska mākslīgā intelekta (AI) atbildīgas attīstīšanas jomā –, varēs īstenot tikai tad, ja vietējām un reģionālajām pašvaldībām šajā procesā būs spēcīga loma. Vietējām un reģionālajām pašvaldībām ir vislabākās iespējas palīdzēt radīt vidi, kas turpmākajos gados varētu veicināt lielākus ieguldījumus mākslīgajā intelektā un lielāku uzticēšanos tam;

    2.

    uzsver, ka līdztekus vietējo un reģionālo pašvaldību iesaistīšanai ir svarīgi nodrošināt atbalstu un apmācību, lai uzlabotu to kompetenci šajā jomā, it īpaši tāpēc, ka tām, iespējams, tiks uzticētas uzraudzības un izpildes funkcijas;

    3.

    norāda, ka mākslīgā intelekta attīstīšanai būs pieejami ES līdzekļi, taču programmu daudzveidības dēļ pieeja ir fragmentāra, un tas palielina sadrumstalotības un pārklāšanās risku;

    4.

    tādēļ aicina Komisiju izveidot un savienot spēcīgas un plurālistiskas kopīgas datu telpas, kas dotu iespēju atrisināt jautājumu par publisko un privāto datu izmantošanu sabiedrībā. Šajā nolūkā ir nepieciešama saskaņošana ar likumdošanas iniciatīvām, kas saistītas ar Eiropas Datu stratēģiju;

    Uzticēšanās ekosistēma

    5.

    pauž nožēlu, ka regulas priekšlikumā nav minētas vietējās un reģionālās pašvaldības, lai gan tiesiskais regulējums tiks piemērots gan publiskā, gan privātā sektora dalībniekiem.

    6.

    norāda, ka mākslīgā intelekta sistēmas var ievērojami palīdzēt vietējo un reģionālo pašvaldību saskarsmē ar iedzīvotājiem un pakalpojumu sniegšanā. Turklāt šīm sistēmām cita starpā piemīt potenciāls paaugstināt publiskā sektora efektivitāti un palīdzēt vietējām un reģionālajām pašvaldībām veikt pielāgojumus, kas zaļās un digitālās pārkārtošanās kontekstā ir vajadzīgi vietējā un reģionālajā līmenī. Tāpēc šobrīd notiekošajā regulas pārskatīšanā būtu aktīvi jāizmanto vietējo un reģionālo pašvaldību gūtā pieredze;

    7.

    aicina precīzāk definēt jēdzienus “sagādātājs” un “lietotājs”, it īpaši situācijās, kad uzņēmumi, pētniecības iestādes, publiskās iestādes un iedzīvotāji kopīgi izstrādā un testē mākslīgā intelekta sistēmas “dzīvajās laboratorijās”. Pienācīga uzmanība būtu jāvelta arī iedzīvotājiem un patērētājiem, kurus ietekmē profesionālo lietotāju izmantoto mākslīgā intelekta sistēmu lēmumi;

    8.

    uzsver, ka gadījumos, kad tiesībaizsardzības nolūkos mākslīgā intelekta sistēmas ir paredzēts izmantot fizisku personu biometriskai identifikācijai reāllaikā un attālināti sabiedrībai pieejamās vietās, ir iepriekš jāapspriežas ar attiecīgajām vietējām un reģionālajām pašvaldībām;

    9.

    atzinīgi vērtē Eiropas Komisijas rīkoto sabiedrisko apspriešanu saistībā ar civiltiesiskās atbildības noteikumu pielāgošanu specifiskajām digitālā laikmeta un mākslīgā intelekta problēmām (1) un pauž cerību, ka pēc tās tiks izveidots atjaunināts satvars ar mērķi patērētājiem nodrošināt kompensāciju par mākslīgā intelekta lietotņu radīto kaitējumu;

    10.

    vēlas noskaidrot, kāpēc augsta riska mākslīgā intelekta sistēmu sarakstā nav iekļautas demokrātiskajos procesos, piemēram, vēlēšanās, izmantotās mākslīgā intelekta sistēmas;

    11.

    mudina augsta riska mākslīgā intelekta sistēmām piemērot tādas pašas fiziskām personām paredzētas pārredzamības un informēšanas prasības, kādas pašlaik tiek piemērotas lietotājiem;

    12.

    norāda, ka sociālā novērtējuma izmantošana ietver būtiskus riskus un sekas cilvēktiesību jomā;

    13.

    šajā sakarā ļoti skeptiski vērtē abas regulā (2) izklāstītās situācijas, lai noteiktu, kad sociālā novērtējuma rezultāts var izraisīt kaitējošu vai nelabvēlīgu attieksmi pret personām vai personu grupām, jo ir ārkārtīgi grūti noteikt šādu situāciju esamību. Šajā saistībā Komiteja mudina skaidri formulēt stingras garantijas, lai nebūtu iespējams apiet sociālā novērtējuma prakses aizliegumu;

    14.

    pieņem zināšanai, ka regulas apsvērumos ir sīki izklāstīti riski, ar ko saskaras fiziskas personas, ja tās mijiedarbojas ar augsta riska mākslīgā intelekta sistēmām, piemēram, saistībā ar izglītību, apmācību, nodarbinātību, cilvēkresursu pārvaldību, pašnodarbinātības pieejamību vai piekļuvi atsevišķiem sabiedriskiem un privātiem pamatpakalpojumiem un tiesībām saņemt šādus pakalpojumus;

    15.

    aicina Komisiju sīkāk izpētīt, vai mākslīgā intelekta sistēmas, kuras paredzēts izmantot publiskajās iestādēs, ir uzskatāmas par augsta riska mākslīgā intelekta sistēmām (3);

    16.

    vēlas, lai kāda iestāde ex ante sniegtu nopietnu atzinumu par regulas noteikumu interpretāciju, tostarp attiecībā uz Vispārīgo datu aizsardzības regulu. Tas palielinātu juridisko noteiktību un palīdzētu samazināt mākslīgā intelekta sistēmu izstrādes un ieviešanas izmaksas;

    17.

    tāpēc uzsver, ka, formulējot regulu, kurai ir izšķiroša nozīme uzticēšanās ekosistēmas veidošanā un juridiskās nenoteiktības novēršanā saistībā ar mākslīgā intelekta sistēmu izstrādi un izmantošanu, ļoti svarīga ir skaidrība. Tā palīdzētu izvairīties no ierosināto prasību nepareizas interpretācijas un līdz minimumam samazinātu mākslīgā intelekta lietojumu vēlākas nepareizas pārvaldības riskus, tādējādi maksimāli palielinot regulējuma efektivitāti un sankciju ticamību. Vienlaikus un saskaņā ar Eiropas Komisijas labāka regulējuma programmu ļoti svarīgi ir savlaicīgi atklāt un novērst iespējamu pārklāšanos un/vai konfliktus ar spēkā esošajiem noteikumiem;

    18.

    konstatē, ka daudzas vietējās un reģionālās pašvaldības līdzīgu uzdevumu veikšanai izmanto vienas un tās pašas mākslīgā intelekta sistēmas. Šīs sistēmas lielākoties ir izstrādājuši privāti uzņēmumi;

    19.

    norāda, ka no pilsoņu tiesību garantēšanas viedokļa priekšlikums regulai nav izolēts, bet uz to ir jāraugās saistībā ar spēkā esošajiem tiesību aktiem. Tāpēc Komiteja aicina dalībvalstis pastāvīgi nodrošināt vajadzīgos administratīvos pasākumus, lai tiktu ņemtas vērā iespējas un riski, kas saistīti ar mākslīgā intelekta izmantošanu publiskajā sektorā;

    20.

    secina, ka uzņēmumi un pilnvarotās iestādes atbilstības novērtēšanas nolūkā interpretē Eiropas un valstu noteikumus, un tādēļ šāda interpretācija atspoguļojas to vietējo un reģionālo pašvaldību praksē, kuras izmanto šādas mākslīgā intelekta sistēmas. Līdz ar to ir grūti noteikt, cik lielā mērā šajās mākslīgā intelekta sistēmās ir iespējams ņemt vērā vietējo un reģionālo politiku. Tāpēc Komiteja vērš uzmanību uz vietējo un reģionālo pašvaldību specifiskajām vajadzībām un uz to, ka “viena pieeja visiem” var apdraudēt to, cik efektīvi mākslīgā intelekta sistēmas reaģē uz šīm vajadzībām. Turklāt Komiteja ierosina piešķirt dalībvalstīm pilnvaras reglamentēt augsta riska mākslīgā intelekta sistēmas, ja pastāv sevišķi svarīgi un pamatoti iemesli, kas saistīti ar sabiedrības interesēm;

    21.

    šajā sakarā prasa, lai atbilstības novērtējumi būtu pārredzami un publiski pieejami. Turklāt vietējām un reģionālajām pašvaldībām vajadzētu būt iespējai piedalīties mākslīgā intelekta sistēmu uzraudzībā, ziņot par to ieviešanu vietējā līmenī un sniegt oficiālu ieguldījumu Eiropas Komisijas veiktajā novērtējumā par regulas piemērošanu;

    22.

    uzsver, ka “regulatīvās smilškastes” piemērošanā ir jāparedz atbilstīgi juridiskie, metodiskie un ētikas nosacījumi, kas veicinātu tehnoloģijas attīstību, tiesību aktu izstrādi un to novērtēšanu. Turklāt ir jāizstrādā skaidri kritēriji uzņēmumu uzņemšanai “regulatīvajā smilškastē”. Lai nodrošinātu patērētāju organizāciju spēju panākt Mākslīgā intelekta akta noteikumu ievērošanu, tas ir jāiekļauj Eiropas Direktīvas par pārstāvības prasībām patērētāju kolektīvo interešu aizsardzībai ((ES) 2020/1828) I pielikumā;

    Informācijas kampaņas

    23.

    uzsver, cik svarīgas ir publiskas kampaņas, lai sabiedrību informētu un izglītotu par AI sistēmu esamību un lietderību, kā arī par iespējamiem riskiem; uzsver arī, ka ir steidzami jānodrošina patērētājiem visaptveroša informācija par mākslīgā intelekta/mašīnu virzītu lēmumu pieņemšanu; šajā saistībā aicina Eiropas Komisiju nodrošināt finansējumu šādām kampaņām;

    Administratīvais slogs

    24.

    raizējas par administratīvo slogu, ko varētu radīt ierosinātā regula. Administratīvais slogs var atturēt mazos un vidējos uzņēmumus un vietējās un reģionālās pašvaldības no inovācijas veicināšanas un mākslīgā intelekta sistēmu ieviešanas (4);

    Proporcionalitāte un subsidiaritāte

    25.

    uzskata, ka regulas priekšlikumā ir ievēroti proporcionalitātes un subsidiaritātes principi. ES rīcības pievienotā vērtība šajā jomā un Komisijas izraudzītie attiecīgie juridiskie pamati ir skaidri un konsekventi. Ietekmes novērtējumā ir iekļauta atsevišķa sadaļa par subsidiaritāti. Turklāt nevienas valsts parlaments līdz noteiktā iesniegšanas termiņa beigām, t. i., līdz 2021. gada 2. septembrim, nebija iesniedzis argumentētu atzinumu par subsidiaritātes principa neievērošanu.

    Briselē, 2021. gada 2. decembrī

    Eiropas Reģionu komitejas priekšsēdētājs

    Apostolos TZITZIKOSTAS


    ([62])  Padomes Pamatlēmums 2002/584/TI (2002. gada 13. jūnijs) par Eiropas apcietināšanas orderi un par nodošanas procedūrām starp dalībvalstīm (OV L 190, 18.7.2002., 1. lpp.).

    ([62])  Padomes Pamatlēmums 2002/584/TI (2002. gada 13. jūnijs) par Eiropas apcietināšanas orderi un par nodošanas procedūrām starp dalībvalstīm (OV L 190, 18.7.2002., 1. lpp.).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_lv

    (2)  5. panta 1. punkta c) apakšpunkts.

    (3)  III pielikuma 5. punkta (a) apakšpunkts.

    (4)  Kādā no Eiropas Komisijas nesen pasūtītajiem pētījumiem (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, 12. lpp.) aprēķināts, ka saskaņā ar pamatotiem pieņēmumiem mākslīgā intelekta sistēmas sertifikācijas iegūšana varētu izmaksāt vidēji no 16 800 EUR līdz 23 000 EUR jeb aptuveni 10–14 % no izstrādes izmaksām.


    Top