This document is an excerpt from the EUR-Lex website
Document 52021AR2682
Opinion of the European Committee of the Regions — European approach to artificial intelligence — Artificial Intelligence Act (revised opinion)
Eiropas Reģionu komitejas atzinums “ES pieeja mākslīgajam intelektam – Mākslīgā intelekta akts” (pārskatīts atzinums)
Eiropas Reģionu komitejas atzinums “ES pieeja mākslīgajam intelektam – Mākslīgā intelekta akts” (pārskatīts atzinums)
COR 2021/02682
OV C 97, 28.2.2022, p. 60–85
(BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
28.2.2022 |
LV |
Eiropas Savienības Oficiālais Vēstnesis |
C 97/60 |
Eiropas Reģionu komitejas atzinums “ES pieeja mākslīgajam intelektam – Mākslīgā intelekta akts”
(pārskatīts atzinums)
(2022/C 97/12)
|
I. IETEIKUMI GROZĪJUMIEM
1. grozījums
1. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Šīs regulas mērķis ir uzlabot iekšējā tirgus darbību, nosakot vienotu tiesisko regulējumu, it īpaši mākslīgā intelekta izstrādei, laišanai tirgū un izmantošanai saskaņā ar Savienības vērtībām. Šī regula kalpo virknei sevišķi svarīgu vispārības interešu, piemēram, veicina augstu veselības, drošības un pamattiesību aizsardzības līmeni, un nodrošina uz AI bāzētu preču un pakalpojumu brīvu pārvietošanos pāri robežām, tādējādi nepieļaujot dalībvalstu ierobežojumus AI sistēmu izstrādei, laišanai tirgū un izmantošanai, ja tie šajā regulā nav nepārprotami atļauti. |
Šīs regulas mērķis ir uzlabot iekšējā tirgus darbību un garantēt pilsoņu pamattiesības , nosakot vienotu tiesisko regulējumu, it īpaši mākslīgā intelekta izstrādei, laišanai tirgū un izmantošanai saskaņā ar Savienības vērtībām. Šī regula kalpo virknei sevišķi svarīgu vispārības interešu, piemēram, veicina augstu veselības, drošības un pamattiesību aizsardzības līmeni, un nodrošina uz AI bāzētu preču un pakalpojumu brīvu pārvietošanos pāri robežām, tādējādi nepieļaujot dalībvalstu ierobežojumus AI sistēmu izstrādei, laišanai tirgū un izmantošanai, ja tie šajā regulā nav nepārprotami atļauti. |
Pamatojums
Atsauce uz pamattiesībām ir ierosināta, lai uzsvērtu saikni ar Eiropas Savienības Pamattiesību hartu.
2. grozījums
Pēc 6. apsvēruma iekļaut šādu jaunu apsvērumu:
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
|
Mākslīgā intelekta sistēmu definēšana ir nepārtraukts process, kurā tiek ņemts vērā mākslīgā intelekta ieviešanas konteksts, šajā jomā sabiedrībā notiekošo pārmaiņu temps, kā arī izcilības ekosistēmas un uzticamības ekosistēmas savstarpējā saikne. |
Pamatojums
Ņemot vērā mākslīgā intelekta un tehnoloģiju attīstību, ir vajadzīga pielāgojama un evolutīva pieeja. Šā apsvēruma mērķis ir precizēt, ka mākslīgā intelekta definīcija laika gaitā ir jāpilnveido, ņemot vērā AI sistēmu un lietojumu jomā panākto progresu.
3. grozījums
20. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Lai nodrošinātu, ka minētās sistēmas tiek izmantotas atbildīgi un samērīgi, ir svarīgi arī noteikt, ka katrā no trim precīzi uzskaitītajām un šauri definētajām situācijām jāņem vērā noteikti elementi, it īpaši situācijas raksturs, kurš pamato sistēmas izmantošanu, izmantošanas ietekme uz visu iesaistīto personu tiesībām un brīvībām, un izmantošanai nodrošinātie apstākļi un aizsardzības pasākumi. Turklāt reāllaika biometriskās tālidentifikācijas sistēmu izmantošanai sabiedriskās vietās tiesībaizsardzības nolūkos būtu jānosaka atbilstoši ierobežojumi laikā un telpā, galvenokārt ņemot vērā pierādījumus vai norādes par apdraudējumiem, cietušajiem vai noziedzīgo nodarījumu izdarītājiem. Personu atsauces datubāzei vajadzētu būt pielāgotai katram izmantošanas gadījumam katrā no trim iepriekš minētajām situācijām. |
Lai nodrošinātu, ka minētās sistēmas tiek izmantotas atbildīgi un samērīgi, ir svarīgi arī noteikt, ka katrā no trim precīzi uzskaitītajām un šauri definētajām situācijām jāņem vērā noteikti elementi, it īpaši situācijas raksturs, kurš pamato sistēmas izmantošanu, izmantošanas ietekme uz visu iesaistīto personu tiesībām un brīvībām, un izmantošanai nodrošinātie apstākļi un aizsardzības pasākumi. Pirms šo sistēmu ārkārtas izmantošanas būtu jāapspriežas ar attiecīgajām vietējām un reģionālajām pašvaldībām. Turklāt reāllaika biometriskās tālidentifikācijas sistēmu izmantošanai sabiedriskās vietās tiesībaizsardzības nolūkos būtu jānosaka stingri ierobežojumi laikā un telpā, galvenokārt ņemot vērā pierādījumus vai norādes par apdraudējumiem, cietušajiem vai noziedzīgo nodarījumu izdarītājiem. Personu atsauces datubāzei vajadzētu būt pielāgotai katram izmantošanas gadījumam katrā no trim iepriekš minētajām situācijām. |
Pamatojums
Reāllaika biometriskās tālidentifikācijas sistēmas nevajadzētu izmantot bezrūpīgi.
4. grozījums
21. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Katram reāllaika biometriskās tālidentifikācijas sistēmas izmantošanas gadījumam sabiedriskās vietās tiesībaizsardzības nolūkos vajadzētu saņemt skaidru un precīzu atļauju no tiesu iestādes vai dalībvalsts neatkarīgas administratīvās iestādes. Šādu atļauju būtībā vajadzētu saņemt pirms izmantošanas, izņemot pienācīgi pamatotas, steidzamas situācijas, proti, situācijas, kurās nepieciešamība izmantot attiecīgās sistēmas padara atļaujas iegūšanu pirms izmantošanas sākšanas faktiski un objektīvi neiespējamu. Šādās steidzamās situācijās izmantošanai būtu jāaprobežojas ar absolūti nepieciešamo minimumu un jānodrošina atbilstoši aizsardzības pasākumi un apstākļi, kā to nosaka valstu tiesību akti un precizē pati tiesībaizsardzības iestāde katra atsevišķa steidzamas izmantošanas gadījuma kontekstā . Papildus tam tiesībaizsardzības iestādei šādās situācijās būtu jācenšas saņemt atļauju pēc iespējas ātrāk, vienlaikus norādot iemeslus, kāpēc atļauju nebija iespējams pieprasīt agrāk . |
Katram reāllaika biometriskās tālidentifikācijas sistēmas izmantošanas gadījumam sabiedriskās vietās tiesībaizsardzības nolūkos vajadzētu saņemt skaidru un precīzu atļauju no tiesu iestādes vai dalībvalsts neatkarīgas administratīvās iestādes. Šādu atļauju vajadzētu saņemt pirms izmantošanas, izņemot pienācīgi pamatotas, steidzamas situācijas, proti, situācijas, kurās nepieciešamība izmantot attiecīgās sistēmas padara atļaujas iegūšanu pirms izmantošanas sākšanas faktiski un objektīvi neiespējamu. Jebkurā gadījumā izmantošanai būtu jāaprobežojas ar absolūti nepieciešamo minimumu un jānodrošina atbilstoši aizsardzības pasākumi un apstākļi, kā to nosaka valstu tiesību akti. Papildus tam tiesībaizsardzības iestādei būtu nekavējoties jāinformē attiecīgās vietējās un reģionālās pašvaldības un jācenšas no kompetentajām iestādēm saņemt atļauju. |
Pamatojums
Vietējās un reģionālās pašvaldības ir politiski un administratīvi atbildīgas par sabiedrisko vietu pārvaldību un uzraudzību. Tāpēc tās būtu pienācīgi jāiesaista šādu sistēmu ieviešanā sabiedriskās vietās. Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, attiecīgā vietējā vai reģionālā pašvaldība būtu nekavējoties jāinformē par biometrisko sistēmu ieviešanu publiskajā telpā.
5. grozījums
39. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Migrācijas un patvēruma jomā un robežkontroles pārvaldībā izmantotās AI sistēmas ietekmē cilvēkus, kuri bieži ir īpaši neaizsargātā pozīcijā un ir atkarīgi no kompetento publiskā sektora iestāžu darbības rezultāta. Tāpēc minētajos kontekstos izmantoto AI sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, proti, viņu tiesību brīvi pārvietoties, tiesību uz nediskrimināciju, privātuma un persondatu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai. Tāpēc ir lietderīgi klasificēt kā augsta riska sistēmas tās AI sistēmas, ko kompetentajās publiskā sektora iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts izmantot kā melu detektorus un līdzīgus rīkus vai nolūkā noteikt fiziskas personas emocionālo stāvokli; novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam; pārbaudīt fizisku personu attiecīgo dokumentu autentiskumu; sniegt palīdzību kompetentām publiskā sektora iestādēm patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras iesniegušas pieteikumu noteikta statusa iegūšanai, atbilstību kritērijiem. AI sistēmām migrācijas, patvēruma un robežkontroles pārvaldības jomā, uz kurām attiecas šī regula, būtu jāatbilst attiecīgajām procesuālajām prasībām, kas noteiktas Eiropas Parlamenta un Padomes Direktīvā 2013/32/ES, Eiropas Parlamenta un Padomes Regulā (EK) Nr. 810/2009 un citos attiecīgajos tiesību aktos. |
Migrācijas un patvēruma jomā un robežkontroles pārvaldībā izmantotās AI sistēmas ietekmē cilvēkus, kuri bieži ir īpaši neaizsargātā pozīcijā un ir atkarīgi no kompetento publiskā sektora iestāžu darbības rezultāta. Tāpēc minētajos kontekstos izmantoto AI sistēmu precizitāte, nediskriminējošais raksturs un pārredzamība ir īpaši svarīga skarto personu pamattiesību ievērošanas garantēšanai, proti, viņu tiesību brīvi pārvietoties, tiesību uz nediskrimināciju, privātuma un persondatu aizsardzību, starptautisko aizsardzību un labu pārvaldību īstenošanai. Tāpēc ir nepieciešams klasificēt kā augsta riska sistēmas tās AI sistēmas, ko kompetentajās publiskā sektora iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, paredzēts izmantot kā melu detektorus un līdzīgus rīkus vai nolūkā noteikt fiziskas personas emocionālo stāvokli; novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam; pārbaudīt fizisku personu attiecīgo dokumentu autentiskumu; sniegt palīdzību kompetentām publiskā sektora iestādēm patvēruma, vīzu un uzturēšanās atļauju pieteikumu un saistīto sūdzību izskatīšanā ar mērķi noteikt fizisku personu, kuras iesniegušas pieteikumu noteikta statusa iegūšanai, atbilstību kritērijiem. AI sistēmām migrācijas, patvēruma un robežkontroles pārvaldības jomā, uz kurām attiecas šī regula, būtu jāatbilst attiecīgajām procesuālajām prasībām, kas noteiktas Eiropas Parlamenta un Padomes Direktīvā 2013/32/ES, Eiropas Parlamenta un Padomes Regulā (EK) Nr. 810/2009 un citos attiecīgajos tiesību aktos. |
Pamatojums
Šā grozījuma mērķis ir uzsvērt, ka uz minētajām AI sistēmām ir jāattiecina pastiprinātais režīms, ko piemēro augsta riska AI sistēmām.
6. grozījums
43. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Prasībām būtu jāattiecas uz augsta riska AI sistēmām saistībā ar izmantoto datu kopu kvalitāti, tehnisko dokumentāciju un uzskaiti, pārredzamību un informācijas sniegšanu lietotājiem, cilvēka virsvadību un noturību, precizitāti un kiberdrošību. Minētās prasības ir nepieciešamas, lai efektīvi mazinātu riskus veselībai, drošībai un pamattiesībām, tās ir piemērojamas, ņemot vērā sistēmas paredzēto nolūku, un citi tirdzniecību mazāk ierobežojoši pasākumi nav pienācīgi pieejami, tādējādi netiek radīti nepamatoti tirdzniecības ierobežojumi. |
Prasībām būtu jāattiecas uz augsta riska AI sistēmām saistībā ar izmantoto datu kopu kvalitāti, tehnisko dokumentāciju un uzskaiti, pārredzamību un informācijas sniegšanu lietotājiem, cilvēka virsvadību un noturību, precizitāti un kiberdrošību. Minētās prasības ir nepieciešamas, lai efektīvi mazinātu riskus veselībai, drošībai , datu drošībai, patērētāju tiesībām un pamattiesībām, tās ir piemērojamas, ņemot vērā sistēmas nolūku, un citi tirdzniecību mazāk ierobežojoši pasākumi nav pienācīgi pieejami, tādējādi netiek radīti nepamatoti tirdzniecības ierobežojumi. Fiziskas personas vai fizisku personu grupas, kuras saskaras ar Savienības tirgū laistām vai citādi ekspluatācijā nodotām augsta riska AI sistēmām, būtu pienācīgā, viegli pieejamā un saprotamā veidā jāinformē par to, ka tās mijiedarbojas ar šīm sistēmām, un jānodrošina tām piekļuve nepārprotamai, izsmeļošai un publiski pieejamai informācijai, kas to paskaidro. |
Pamatojums
Pakalpojumu sniedzējiem un lietotājiem piemērojamās pārredzamības un informēšanas prasības būtu jāattiecina arī uz personām vai personu grupām, kuras varētu saskarties ar regulas III pielikumā uzskaitīto augsta riska AI sistēmu izmantošanu. Vārds “saprotams” šajā gadījumā nozīmē lietotājam saprotamu un pieejamu valodu, tostarp arī mutvārdu un žestu valodu.
7. grozījums
Pēc 44. apsvēruma pievienot šādu jaunu apsvērumu:
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
|
AI sistēmu sagādātāji neiekļauj kvalitātes pārvaldības sistēmā nekādus pasākumus, kas veicina nepamatotu diskrimināciju dzimuma, izcelsmes, reliģijas vai pārliecības, invaliditātes, vecuma, dzimumorientācijas vai jebkāda cita iemesla dēļ. |
Pamatojums
Prettiesiskas diskriminācijas cēlonis ir cilvēka darbība. AI sistēmu sagādātāji nedrīkstētu savā kvalitātes pārvaldības sistēmā iekļaut pasākumus, kas varētu veicināt diskrimināciju.
8. grozījums
47. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Lai mazinātu nepārredzamību, kas dažas AI sistēmas padara fiziskām personām nesaprotamas vai pārāk sarežģītas, augsta riska AI sistēmām būtu jānosaka noteikta pārredzamības pakāpe. Lietotājiem būtu jāspēj interpretēt sistēmas iznākumus un tos atbilstoši izmantot. Tāpēc augsta riska AI sistēmām būtu jāpievieno attiecīgā dokumentācija un lietošanas instrukcijas, kā arī īsa un skaidra informācija, tostarp attiecīgā gadījumā par iespējamiem pamattiesību riskiem un diskrimināciju. |
Lai mazinātu nepārredzamību, kas dažas AI sistēmas padara fiziskām personām vai jebkura pārvaldības līmeņa publiskajām iestādēm nesaprotamas vai pārāk sarežģītas, augsta riska AI sistēmām būtu jānosaka augsta pārredzamības pakāpe. Lietotājiem būtu jāspēj interpretēt sistēmas iznākumus un tos atbilstoši izmantot. Tāpēc augsta riska AI sistēmām būtu jāpievieno attiecīgā dokumentācija un lietošanas instrukcijas, kā arī īsa un skaidra informācija, tostarp attiecīgā gadījumā par iespējamiem pamattiesību riskiem un diskrimināciju. |
Pamatojums
Lietotais jēdziens “noteikta pārredzamības pakāpe” vājina augsta riska AI sistēmu izstrādātāju atbildību.
9. grozījums
48. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Augsta riska AI sistēmas būtu jāprojektē un jāizstrādā tā, lai fiziskas personas varētu pārraudzīt to funkcionēšanu. Šajā nolūkā sistēmas sagādātājam pirms sistēmas laišanas tirgū vai nodošanas ekspluatācijā būtu jānosaka piemēroti cilvēka virsvadības pasākumi. Tā, attiecīgā gadījumā šādiem pasākumiem jāgarantē, ka sistēmai ir iebūvēti ierobežojumi, kurus pati sistēma nevar neievērot, un ka tā reaģē uz cilvēka virsvadību un ka fiziskām personām, kurām uzticēta šī virsvadība, ir uzdevuma veikšanai nepieciešamā kompetence, apmācība un pilnvaras. |
Augsta riska AI sistēmas būtu jāprojektē un jāizstrādā tā, lai fiziskas personas un visu līmeņu publiskās pārvaldes iestādes varētu pārraudzīt to funkcionēšanu. Šajā nolūkā sistēmas sagādātājam pirms sistēmas laišanas tirgu vai nodošanas ekspluatācijā būtu jānosaka piemēroti cilvēka virsvadības pasākumi. Tā, attiecīgā gadījumā šādiem pasākumiem jāgarantē, ka sistēmai ir iebūvēti ierobežojumi, kurus pati sistēma nevar neievērot, un ka tā reaģē uz cilvēka virsvadību un ka fiziskām personām, kurām uzticēta šī virsvadība, ir uzdevuma veikšanai nepieciešamā kompetence, apmācība un pilnvaras. |
Pamatojums
Izriet no teksta.
10. grozījums
67. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Augsta riska AI sistēmām jābūt marķētām ar zīmi CE, atspoguļojot to atbilstību šīs regulas noteikumiem, kas ļautu tām būt brīvā apritē iekšējā tirgū. Dalībvalstīm nevajadzētu radīt nepamatotus šķēršļus tādu augsta riska AI sistēmu laišanai tirgū vai nodošanai ekspluatācijā, kuras atbilst šajā regulā noteiktajām prasībām un ir marķētas ar CE zīmi. |
Augsta riska AI sistēmām jābūt marķētām ar zīmi CE, atspoguļojot to atbilstību šīs regulas noteikumiem, kas ļautu tām būt brīvā apritē iekšējā tirgū. Dalībvalstīm nevajadzētu radīt šķēršļus tādu augsta riska AI sistēmu laišanai tirgū vai nodošanai ekspluatācijā, kuras atbilst šajā regulā noteiktajām prasībām un ir marķētas ar CE zīmi. Dalībvalstis ir pilnvarotas reglamentēt augsta riska AI praksi un sistēmas vienīgi sevišķi svarīgu un pienācīgi pamatotu iemeslu dēļ saistībā ar sabiedrības un valsts drošības interesēm. |
Pamatojums
Lai gan dalībvalstīm nevajadzētu kavēt regulas piemērošanu, tām būtu jāsaglabā tiesības reglamentēt augsta riska AI sistēmas, ja ir apdraudētas sabiedrības un valsts drošības intereses.
11. grozījums
70. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Dažas AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām vai satura radīšanai, var radīt īpašu uzdošanās par citu personu vai apmānīšanas risku neatkarīgi no tā, vai tās ir pieskaitāmas augsta riska sistēmām vai nav. Tāpēc noteiktos apstākļos šādu sistēmu izmantošanai būtu jānosaka īpaši pārredzamības pienākumi, neskarot augsta riska AI sistēmām noteiktās prasības un pienākumus. Īpaši – fiziskas personas būtu jāinformē, ka tās ir saskarsmē ar AI sistēmu , ja vien tas nav pats par sevi saprotams attiecīgajos apstākļos un izmantošanas kontekstā . Turklāt fiziskām personām būtu jāpaziņo, ja tās ir pakļautas emociju uztveršanas sistēmas vai biometriskās kategorizācijas sistēmas darbībai. Šāda informācija un paziņojumi būtu jāsniedz invalīdiem izmantojamā formātā. Turklāt lietotājiem, kuri izmanto AI sistēmu tāda attēla, audio vai video satura radīšanai vai manipulēšanai, kas ievērojami atgādina reālas personas, vietas vai notikumus un cilvēkam maldinoši šķistu autentisks, būtu jāizpauž tas, ka saturs ir mākslīgi radīts vai manipulēts, attiecīgi marķējot mākslīgā intelekta radīto iznākumu un atklājot tā mākslīgo izcelsmi. |
Dažas AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām vai satura radīšanai, var radīt īpašu uzdošanās par citu personu vai apmānīšanas risku neatkarīgi no tā, vai tās ir pieskaitāmas augsta riska sistēmām vai nav. Tāpēc šādu sistēmu izmantošanai būtu jānosaka īpaši pārredzamības pienākumi, neskarot augsta riska AI sistēmām noteiktās prasības un pienākumus. Īpaši – fiziskas personas būtu sistemātiski jāinformē, ka tās ir saskarsmē ar AI sistēmu. Turklāt fiziskām personām būtu jāpaziņo, ja tās ir pakļautas emociju uztveršanas sistēmas vai biometriskās kategorizācijas sistēmas darbībai. Šāda informācija un paziņojumi būtu jāsniedz invalīdiem izmantojamā formātā. Turklāt lietotājiem, kuri izmanto AI sistēmu tāda attēla, audio vai video satura radīšanai vai manipulēšanai, kas ievērojami atgādina reālas personas, vietas vai notikumus un cilvēkam maldinoši šķistu autentisks, būtu jāizpauž tas, ka saturs ir mākslīgi radīts vai manipulēts, attiecīgi marķējot mākslīgā intelekta radīto iznākumu un atklājot tā mākslīgo izcelsmi. |
Pamatojums
Nevajadzētu pieļaut nekādus izņēmumus attiecībā uz pārredzamības un informēšanas prasību gadījumos, kad fiziskas personas nonāk saskarsmē ar AI sistēmām.
12. grozījums
76. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Lai sekmētu netraucētu, efektīvu un saskaņotu šīs regulas īstenošanu, būtu jāizveido Eiropas Mākslīgā intelekta padome (“AI padome”). AI padome atbildētu par vairākiem padomdošanas uzdevumiem, ieskaitot atzinumu, ieteikumu, padomu vai pamatnostādņu izdošanu jautājumos, kas saistīti ar šīs regulas īstenošanu, tostarp par tehniskajām specifikācijām vai pašreizējiem standartiem attiecībā uz šajā regulā noteiktajām prasībām, kā arī par Komisijas konsultēšanu un palīdzību tai specifiskos mākslīgā intelekta jautājumos. |
Lai sekmētu netraucētu, efektīvu un saskaņotu šīs regulas īstenošanu, būtu jāizveido Eiropas Mākslīgā intelekta padome (“AI padome”). AI padome atbildētu par vairākiem padomdošanas uzdevumiem, ieskaitot atzinumu, ieteikumu, padomu vai pamatnostādņu izdošanu jautājumos, kas saistīti ar šīs regulas īstenošanu, tostarp par tehniskajām specifikācijām vai pašreizējiem standartiem attiecībā uz šajā regulā noteiktajām prasībām, kā arī par Komisijas konsultēšanu un palīdzību tai specifiskos mākslīgā intelekta jautājumos. Eiropas Mākslīgā intelekta padomes sastāvam būtu jāatspoguļo Eiropas sabiedrības intereses un jārespektē dzimumu līdzsvars. |
Pamatojums
Eiropas Mākslīgā intelekta padomei būtu pienācīgi jāatspoguļo Eiropas sabiedrības galvenās intereses. Tās ir galvenokārt saistītas ar cilvēktiesībām, klimatu, AI sistēmu energoefektivitāti, drošību, sociālo iekļaušanu, veselību u.c. Dzimumu līdzsvars ir pamatnosacījums daudzveidības nodrošināšanai minētās padomes darbībās, norādījumu izstrādē utt.
13. grozījums
77. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Dalībvalstīm ir būtiska loma šīs regulas piemērošanā un izpildē. Šajā ziņā katrai dalībvalstij būtu jānorīko viena vai vairākas valsts kompetentās iestādes šīs regulas piemērošanas un īstenošanas uzraudzībai. Lai vairotu dalībvalstu organizatorisku efektivitāti un izveidotu oficiālu kontaktpunktu saziņai ar sabiedrību un citiem partneriem dalībvalstu un Savienības līmenī, viena valsts iestāde katrā dalībvalstī būtu jāieceļ par valsts uzraudzības iestādi. |
Dalībvalstīm ir būtiska loma šīs regulas piemērošanā un izpildē. Šajā ziņā katrai dalībvalstij būtu jānorīko viena vai vairākas valsts kompetentās iestādes šīs regulas piemērošanas un īstenošanas uzraudzībai. Lai vairotu dalībvalstu organizatorisku efektivitāti un izveidotu oficiālu kontaktpunktu saziņai ar sabiedrību un citiem partneriem dalībvalstu un Savienības līmenī, viena valsts iestāde katrā dalībvalstī būtu jāieceļ par valsts uzraudzības iestādi. Vietējām un reģionālajām pašvaldībām tiek uzticēti uzraudzības vai izpildes nodrošināšanas pienākumi, ja dalībvalsts to uzskata par lietderīgu. |
Pamatojums
Regulas piemērošanas un tās uzraudzības un izpildes nodrošināšanas nolūkā būtu jāparedz dalībvalstij pilnvaras uzticēt vietējām un reģionālajām pašvaldībām uzraudzības vai izpildes nodrošināšanas pienākumus, ja tas ir nepieciešams un iespējams.
14. grozījums
79. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Lai nodrošinātu šajā regulā, kas ir Savienības saskaņošanas tiesību akts, noteikto prasību un pienākumu pienācīgu un iedarbīgu izpildi, ar Regulu (ES) 2019/1020 izveidotā tirgus uzraudzības un produktu atbilstības sistēma būtu jāpiemēro pilnā mērā. Kad tas nepieciešams to pilnvaru īstenošanai, valstu publiskā sektora iestādēm vai struktūrām, tostarp līdztiesības iestādēm, kuras uzrauga Savienības tiesību aktu, kuri aizsargā pamattiesības, piemērošanu, vajadzētu būt piekļuvei jebkādai dokumentācijai, kas radīta saskaņā ar šo regulu. |
Lai nodrošinātu šajā regulā, kas ir Savienības saskaņošanas tiesību akts, noteikto prasību un pienākumu pienācīgu un iedarbīgu izpildi, ar Regulu (ES) 2019/1020 izveidotā tirgus uzraudzības un produktu atbilstības sistēma būtu jāpiemēro pilnā mērā. Kad tas nepieciešams to pilnvaru īstenošanai, valstu publiskā sektora iestādēm vai struktūrām, tostarp līdztiesības iestādēm, kuras uzrauga Savienības tiesību aktu, kuri aizsargā pamattiesības, piemērošanu, un, attiecīgā gadījumā, vietējām un reģionālajām pašvaldībām, vajadzētu būt piekļuvei jebkādai dokumentācijai, kas radīta saskaņā ar šo regulu. |
Pamatojums
Grozījuma mērķis ir ņemt vērā atšķirīgās pārvaldības struktūras ES dalībvalstīs.
15. grozījums
83. apsvērums
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Lai nodrošinātu uzticēšanās pilnu un konstruktīvu sadarbību starp kompetentajām iestādēm Savienības un valstu līmenī, visām šīs regulas piemērošanā iesaistītajām personām būtu jāievēro savu uzdevumu veikšanas gaitā iegūtās informācijas un datu konfidencialitāte. |
Lai nodrošinātu uzticēšanās pilnu un konstruktīvu sadarbību starp kompetentajām iestādēm Savienības, valstu , reģionālajā un vietējā līmenī, visām šīs regulas piemērošanā iesaistītajām personām būtu jāievēro savu uzdevumu veikšanas gaitā iegūtās informācijas un datu konfidencialitāte. |
Pamatojums
Grozījuma mērķis ir ņemt vērā atšķirīgās pārvaldības struktūras ES dalībvalstīs.
16. grozījums
I sadaļas 3. pants – Definīcijas, 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
“mākslīgā intelekta sistēma” (AI sistēma) ir programmatūra, kas izstrādāta, izmantojot vienu vai vairākas I pielikumā uzskaitītās metodes un pieejas, un attiecībā uz cilvēka noteiktu konkrētu mērķu kopumu var radīt tādu iznākumu kā saturs, prognozes, ieteikumi vai lēmumi, kuri ietekmē vidi, ar ko tie mijiedarbojas; |
“mākslīgā intelekta sistēma” (AI sistēma) ir programmatūra, kas izstrādāta, izmantojot vienu vai vairākas I pielikumā neizsmeļoši uzskaitītās metodes un pieejas, un kas ir saistīta ar sociālo praksi, identitāti un kultūru un attiecībā uz cilvēka noteiktu konkrētu mērķu kopumu , kura pamatā ir apkārtējās vides uztvere, kas balstīta uz datu vākšanu, strukturētu un nestrukturētu savākto datu interpretāciju, zināšanu pārvaldību vai ar šiem datiem saistītas informācijas apstrādi, var radīt tādu iznākumu kā saturs, prognozes, ieteikumi vai lēmumi, kuri ietekmē vidi, ar ko tie mijiedarbojas; |
Pamatojums
AI sistēma ir tehnisku elementu kopums, kas datus, algoritmus un apstrādes jaudu savieno ar sociālo praksi, sabiedrību, identitāti un kultūru. Tāpēc šāda dinamiska sociāli tehniska kopuma definīcijai vajadzētu būt pielāgotai nākotnes vajadzībām, un tā regulāri jāatjaunina, lai precīzi atspoguļotu arvien pieaugošo AI ietekmi sabiedrībā, vienlaikus apzinot strauji mainīgās problēmas un iespējas, kas saistītas ar AI, tostarp saikni starp zināšanu pārvaldību un AI. Šajā kontekstā regulai būtu jāattiecas arī uz algoritmu, ko izstrādājis cits algoritms.
17. grozījums
5. panta 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||||||||
Ir aizliegta šāda mākslīgā intelekta prakse: |
Ir aizliegta šāda mākslīgā intelekta prakse: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
Pamatojums
Kopumā sublimināli paņēmieni var apdraudēt brīvību, cilvēktiesības un arī demokrātiska tiesiskuma darbību. Tajā pašā laikā mākslīgais intelekts var apdraudēt patērētāju tiesības. Ierosināto papildinājumu mērķis ir precizēt šo punktu.
Attiecībā uz publisko iestāžu vai to vārdā veikto sociālo novērtējumu jānorāda, ka, ņemot vērā šādas prakses radīto apdraudējumu, kā paskaidrots 17. apsvērumā, tas būtu jāaizliedz, ja to veic vispārējiem mērķiem. Datu ģenerēšana vai vākšana konkrētiem mērķiem būtu jāatļauj tikai ar cilvēka veiktu uzraudzību un ar nosacījumu, ka tā nepārkāpj tiesības uz cieņu un nediskrimināciju, kā arī neskar vienlīdzības un tiesiskuma vērtības.
18. grozījums
5. panta 4. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Dalībvalsts var nolemt noteikt iespēju pilnīgi vai daļēji atļaut reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu sabiedriskās vietās tiesībaizsardzības vajadzībām, ievērojot ierobežojumus un nosacījumus, kas uzskaitīti 1. punkta d) apakšpunktā un 2. un 3. punktā. Minētā dalībvalsts savos tiesību aktos nosaka vajadzīgos sīki izstrādātos noteikumus par 3. punktā minēto atļauju pieteikšanu, izdošanu un izmantošanu, kā arī to attiecīgo uzraudzību. Minētajos noteikumos arī norāda, attiecībā uz kuriem no 1. punkta d) apakšpunktā uzskaitītajiem mērķiem – tai skaitā kuru minētā apakšpunkta iii) punktā norādīto noziedzīgo nodarījumu gadījumā – kompetentajām iestādēm var atļaut šīs sistēmas izmantot tiesībaizsardzības vajadzībām. |
Dalībvalsts var nolemt noteikt iespēju pilnīgi vai daļēji atļaut reāllaika biometriskās tālidentifikācijas sistēmu izmantošanu sabiedriskās vietās tiesībaizsardzības vajadzībām, ievērojot ierobežojumus un nosacījumus, kas uzskaitīti 1. punkta d) apakšpunktā un 2. un 3. punktā. Minētā dalībvalsts savos tiesību aktos nosaka vajadzīgos sīki izstrādātos noteikumus par 3. punktā minēto atļauju pieteikšanu, izdošanu un izmantošanu, kā arī to attiecīgo uzraudzību. Minētajos noteikumos arī norāda, attiecībā uz kuriem no 1. punkta d) apakšpunktā uzskaitītajiem mērķiem – tai skaitā kuru minētā apakšpunkta iii) punktā norādīto noziedzīgo nodarījumu gadījumā – kompetentajām iestādēm var atļaut šīs sistēmas izmantot tiesībaizsardzības vajadzībām. Šajos noteikumos ir arī paredzēts, kā notiek attiecīgo vietējo un reģionālo pašvaldību informēšana un apspriešanās ar tām. Apspriešanās ir jāveic pirms šo sistēmu ārkārtas izmantošanas sabiedriskās vietās. Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, attiecīgā vietējā vai reģionālā pašvaldība ir nekavējoties jāinformē par attiecīgās AI sistēmas ieviešanu. |
Pamatojums
Vietējās un reģionālās pašvaldības ir politiski un administratīvi atbildīgas par sabiedrisko vietu pārvaldību un uzraudzību. Tādēļ pirms šādas AI prakses ieviešanas ir jāuzklausa to viedoklis un tās pienācīgi jāinformē par AI sistēmu ārkārtas izmantošanu tiesībaizsardzības nolūkos.
Ārkārtas situācijās, kad nav iespējams rīkot iepriekšēju apspriešanos, ir nekavējoties jāinformē attiecīgā vietējā vai reģionālā pašvaldība.
19. grozījums
13. pants
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||||||||
13. pants – Pārredzamība un informācijas sniegšana lietotājiem |
13.a pants – Pārredzamība un informācijas sniegšana lietotājiem |
||||||||||
1. Augsta riska AI sistēmas projektē un izstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot. Ir jānodrošina atbilstošs pārredzamības veids un pakāpe, lai panāktu atbilstību attiecīgajiem lietotāja un sagādātāja pienākumiem, kas noteikti šīs sadaļas 3. nodaļā. |
1. Augsta riska AI sistēmas projektē un izstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot. Ir jānodrošina atbilstošs pārredzamības un saprotama skaidrojuma veids un pakāpe, lai panāktu atbilstību attiecīgajiem lietotāja un sagādātāja pienākumiem, kas noteikti šīs sadaļas 3. nodaļā. Skaidrojums ir pieejams vismaz tās valsts valodā, kurā AI sistēma tiek ieviesta. |
||||||||||
2. Augsta riska AI sistēmām pievieno lietošanas instrukciju piemērotā digitālā formātā vai citādi, un tajā ietver kodolīgu, pilnīgu, pareizu un skaidru informāciju, kas ir būtiska, pieejama un saprotama lietotājiem. |
2. Augsta riska AI sistēmām pievieno publiski pieejamu un saprotamu lietošanas instrukciju piemērotā digitālā formātā vai citādi, un tajā ietver kodolīgu, pilnīgu, pareizu un skaidru informāciju, kas ir būtiska, pieejama un saprotama lietotājiem. |
||||||||||
3. Šā panta 2. punktā minētā informācija ietver šādas ziņas: |
3. Šā panta 2. punktā minētā informācija ietver šādas ziņas: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
13.b pants – Pārredzamība un datu subjektu informēšana Personas vai personu grupas, kuras varētu nonākt saskarsmē ar augsta riska AI sistēmu, tiek pienācīgā, viegli pieejamā un saprotamā veidā informētas, un tām ir piekļuve nepārprotamai, viegli piekļūstamai un publiski pieejamai informācijai par šādu lietojumu. |
Pamatojums
Lai stiprinātu uzticēšanās ekosistēmu, instrukcijām par augsta riska AI sistēmu izmantošanu būtu jābūt publiski pieejamām. Tām jābūt saprotamām un sagatavotām tās valsts valodā, kurā AI sistēma tiek ieviesta.
Lai nodrošinātu algoritmu pārredzamību un saprotamību, ir jāskaidro, kādi parametri ir izmantoti modeļa pielāgošanai un kādi pasākumi ir veikti, lai nepieļautu pārmērīgu vai nepietiekamu pielāgošanu.
13.b pantā ir noteikts pienākums nodrošināt pārredzamību un informāciju personām, kuras mijiedarbojas ar AI sistēmām vai varētu nonākt saskarsmē ar AI sistēmu.
20. grozījums
14. panta 4. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||
Šā panta 3. punktā minētie pasākumi personām, kurām virsvadība uzticēta, atbilstoši apstākļiem nodrošina šādas iespējas: |
Šā panta 3. punktā minētie pasākumi personām, kurām virsvadība uzticēta, atbilstoši apstākļiem nodrošina šādas iespējas: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Pamatojums
Arī vairāki citi neobjektivitātes veidi var būt problemātiski. Piemēram, projektētāja neobjektivitāte vai paša lietotāja neobjektivitāte (“sociālā neobjektivitāte”), neobjektivitāte attiecībā uz to, vai ieviestā AI sistēma ir piemērota problēmas risinājumam (“tehnoloģiskā neobjektivitāte”), kā arī dažāda veida statistikas neobjektivitāte.
21. grozījums
14. pants – pēc 5. punkta pievienot šādu jaunu punktu:
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
|
Attiecībā uz jebkuru lēmumu, ko pieņem III pielikuma 5. punkta a) un b) apakšpunktā minētās AI sistēmas, ir jānodrošina cilvēka iejaukšanās, un lēmuma pieņemšanai jābūt balstītai uz stingru lēmumu pieņemšanas procesu. Šādu lēmumu pieņemšanā ir jānodrošina saskarsme ar cilvēku. |
Pamatojums
14. pantā paredzēts, ka cilvēks kontrolē tikai augsta riska AI sistēmas. Attiecībā uz publisko iestāžu pieņemtajiem lēmumiem ir svarīgi uzsvērt, ka ir jāgarantē cilvēka iejaukšanās, saskarsme ar cilvēku un procedūru ievērošana.
22. grozījums
17. panta 1. punkts – pēc (m) punkta pievienot divus šādus punktus:
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||
Augsta riska AI sistēmu sagādātāji izveido kvalitātes vadības sistēmu, kas nodrošina atbilstību šai regulai. Šo sistēmu sistemātiski un pienācīgi dokumentē rakstisku nostādņu, procedūru un instrukciju veidā, un tajā iekļauj vismaz šādus aspektus: |
Augsta riska AI sistēmu sagādātāji izveido kvalitātes vadības sistēmu, kas nodrošina atbilstību šai regulai. Šo sistēmu sistemātiski un pienācīgi dokumentē rakstisku nostādņu, procedūru un instrukciju veidā, un tajā iekļauj vismaz šādus aspektus: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Pamatojums
Ar šo papildinājumu uzsvērts, ka iekļautībai un nepamatotas diskriminācijas novēršanai vajadzētu būt svarīgiem kvalitātes pārvaldības sistēmas elementiem.
Sistēmas darbībā ir jāievēro ētikas vērtības, kuras AI sistēmas lietotājs vēlas ar to saistīt vai attiecībā uz kurām sagādātājs var pamatoti uzskatīt, ka tās var tikt saistītas ar augsta riska AI sistēmu. Sistēmas sagādātājam būtu jāspēj skaidrot, kā tas ir ņemts vērā.
23. grozījums
19. panta 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Augsta riska AI sistēmu sagādātāji gādā, lai pirms laišanas tirgū vai nodošanas ekspluatācijā to sistēmām tiktu veikta atbilstības novērtēšanas procedūra saskaņā ar 43. pantu. Ja pēc atbilstības novērtēšanas ir pierādīta AI sistēmu atbilstība šīs sadaļas 2. nodaļā noteiktajām prasībām, sagādātāji sagatavo ES atbilstības deklarāciju saskaņā ar 48. pantu un uzliek atbilstības zīmi “CE” saskaņā ar 49. pantu. |
Augsta riska AI sistēmu sagādātāji gādā, lai pirms laišanas tirgū vai nodošanas ekspluatācijā to sistēmām tiktu veikta atbilstības novērtēšanas procedūra saskaņā ar 43. pantu. Ja pēc atbilstības novērtēšanas ir pierādīta AI sistēmu atbilstība šīs sadaļas 2. nodaļā noteiktajām prasībām, sagādātāji sagatavo ES atbilstības deklarāciju saskaņā ar 48. pantu un uzliek atbilstības zīmi “CE” saskaņā ar 49. pantu. Augsta riska AI sistēmu sagādātāji publiski pieejamā vietā publicē ES atbilstības deklarāciju un atbilstības novērtējuma kopsavilkumu. |
Pamatojums
Lai stiprinātu uzticēšanos mākslīgā intelekta sistēmām, augsta riska AI sistēmu sagādātājiem vajadzētu būt godīgiem. Turklāt sabiedrībai vajadzētu dot iespēju pārbaudīt, vai atbilstības novērtējums ir pienācīgi sagatavots saskaņā ar regulas noteikumiem.
24. grozījums
29. pants, pēc 6. punkta pievienots jauns punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
|
Augsta riska AI sistēmu lietotāji pirms sistēmas darbības uzsākšanas sagatavo ētikas novērtējumu. Lietotājiem ir jābūt spējīgiem skaidrot tehnoloģijas ieviešanas iespējamo ietekmi uz cilvēkiem un sabiedrību. Lietotāji precizē, kādā nolūkā AI sistēma ir ieviesta, kādas ir pamatvērtības un kā tās ir noteiktas, un vai tās ir ņemtas vērā sistēmā. Lietotāji izvērtē sistēmas faktisko ietekmi uz cilvēku un sabiedrību visā AI sistēmas aprites ciklā. |
Pamatojums
Ētika ir plašs jēdziens. Tehnoloģiju jomā ētikas prakse ir daudzveidīga – gan attiecībā uz teorētisko pamatojumu, gan konkrētām projektēšanas metodēm, rīkiem un vērtībām. Atsevišķas personas vai cilvēku grupas uzskata, ka vērtības ir svarīgi elementi; tās var būt diezgan konkrētas vai vairāk konceptuālas. Ir svarīgi aizsargāt visas morālās vērtības, kuras var tikt izmantotas, un pastāvīgi izvērtēt AI sistēmas aprites ciklu.
25. grozījums
52. panta 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Sagādātāji nodrošina, ka AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām, projektē un izstrādā tā, lai fiziskās personas tiktu informētas par to, ka tās ir saskarsmē ar AI sistēmu , ja vien tas nav pats par sevi saprotams attiecīgajos apstākļos un izmantošanas kontekstā . Šis pienākums neattiecas uz AI sistēmām, kuras ir likumiski atļautas noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai un vainīgo saukšanai pie atbildības, ja šīs sistēmas nav pieejamas sabiedrībai ziņošanai par noziedzīgu nodarījumu. |
Sagādātāji nodrošina, ka AI sistēmas, kas paredzētas saskarsmei ar fiziskām personām, projektē un izstrādā tā, lai fiziskās personas tiktu informētas par to, ka tās ir saskarsmē ar AI sistēmu. Šis pienākums neattiecas uz AI sistēmām, kuras ir likumiski atļautas noziedzīgu nodarījumu atklāšanai, novēršanai, izmeklēšanai un vainīgo saukšanai pie atbildības, ja šīs sistēmas nav pieejamas sabiedrībai ziņošanai par noziedzīgu nodarījumu. Šī saskarsme nedrīkst ierobežot fizisko personu, kas mijiedarbojas ar AI sistēmām, iespēju apjomu un juridisko statusu. |
Pamatojums
Ja tehnoloģiskos artefaktus izmanto kā līdzekli mijiedarbībai ar fiziskām personām, var rasties risks, ka tiks ierobežota saskarsmē ar šiem artefaktiem esošo fizisko personu izvēle. Fiziskas personas būtu pienācīgi jāinformē ikreiz, kad tās saskaras ar AI sistēmām, un tas nedrīkst būt atkarīgs no konkrētas situācijas interpretācijas. Kad fiziskas personas atrodas mijiedarbībā ar AI sistēmām, viņu tiesības ir jāgarantē vienmēr.
26. grozījums
57. panta 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
AI padomi veido valstu uzraudzības iestādes, kuras pārstāv attiecīgās iestādes vadītājs vai līdzvērtīga augsta līmeņa amatpersona, un Eiropas Datu aizsardzības uzraudzītājs. Citas valstu iestādes var uzaicināt uz sanāksmēm, ja tajās apspriestie jautājumi tām ir svarīgi. |
AI padomi veido valstu uzraudzības iestādes, kuras pārstāv attiecīgās iestādes vadītājs vai līdzvērtīga augsta līmeņa amatpersona, un Eiropas Datu aizsardzības uzraudzītājs. Citas valstu , reģionālās un vietējās iestādes var uzaicināt uz sanāksmēm, ja tajās apspriestie jautājumi tām ir svarīgi. |
Pamatojums
Būtu jānodrošina iespēja vietējām un reģionālajām pašvaldībām piedalīties mākslīgā intelekta sistēmu uzraudzībā un ziņot par to ieviešanu vietējā līmenī.
27. grozījums
58. pants
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||||||||||||||
Sniedzot konsultācijas un palīdzību Komisijai 56. panta 2. punkta kontekstā, AI padome galvenokārt: |
Sniedzot konsultācijas un palīdzību Komisijai 56. panta 2. punkta kontekstā, AI padome galvenokārt: |
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
Pamatojums
Vietējās un reģionālās pašvaldības ir vietējiem iedzīvotājiem un vietējai ekonomikai tuvākais līmenis. Būtu skaidri jānorāda to nozīmīgā loma zināšanu apmaiņā.
28. grozījums
59. panta 1. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Katra dalībvalsts izveido vai norīko valsts kompetentās iestādes, lai nodrošinātu šīs regulas piemērošanu un īstenošanu. Valsts kompetentās iestādes organizē tā, lai to darbību un uzdevumu veikšanā nodrošinātu objektivitāti un neitralitāti. |
Katra dalībvalsts izveido vai norīko valsts kompetentās iestādes, lai nodrošinātu šīs regulas piemērošanu un īstenošanu. Valsts kompetentās iestādes organizē tā, lai to darbību un uzdevumu veikšanā nodrošinātu objektivitāti un neitralitāti. Vietējās un reģionālās pašvaldības tiek pilnvarotas veikt uzraudzības vai izpildes nodrošināšanas pienākumus, ja dalībvalsts to uzskata par lietderīgu. |
Pamatojums
Regulas piemērošanas un tās uzraudzības un izpildes nodrošināšanas nolūkā dalībvalstij jābūt spējīgai uzticēt vietējām un reģionālajām pašvaldībām uzraudzības vai izpildes nodrošināšanas pienākumus, ja tas ir nepieciešams un iespējams. Šajā saistībā vietējām un reģionālajām pašvaldībām ir jāsaņem atbalsts un apmācība, lai tās spētu pilnvērtīgi veikt uzraudzības un izpildes nodrošināšanas pienākumus.
29. grozījums
69. panta 3. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
Rīcības kodeksus var izstrādāt atsevišķi AI sistēmu sagādātāji vai organizācijas, kas tos pārstāv, vai abēji, arī – iesaistot lietotājus un ieinteresētās personas un organizācijas, kas tās pārstāv. Rīcības kodeksi var aptvert vienu vai vairākas AI sistēmas, ņemot vērā attiecīgajām sistēmām paredzētā nolūka līdzību. |
Rīcības kodeksus var izstrādāt valstu, reģionālās vai vietējās iestādes, atsevišķi AI sistēmu sagādātāji vai organizācijas, kas tos pārstāv, vai abēji, arī – iesaistot lietotājus un ieinteresētās personas un organizācijas, kas tās pārstāv. Rīcības kodeksi var aptvert vienu vai vairākas AI sistēmas, ņemot vērā attiecīgajām sistēmām paredzētā nolūka līdzību. |
Pamatojums
Valsts, vietējām un reģionālajām iestādēm būtu jāpiešķir juridiskas pilnvaras izstrādāt rīcības kodeksus tām AI sistēmām, ko tās izstrādā vai izmanto.
30. grozījums
I pielikums – 3. panta 1. punktā minētās mākslīgā intelekta metodes un pieejas
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||
|
Ņemot vērā pašreizējās zinātnes atziņas, mākslīgais intelekts ietver šādas metodes un pieejas: |
||||
|
|
||||
|
|
||||
|
|
Pamatojums
Mākslīgā intelekta definīcijai un metožu uzskaitījumam ir jābūt pielāgotam nākotnes vajadzībām. Mākslīgā intelekta sistēmu izstrādē izmantoto īpašo metožu un pieeju saraksts nedrīkst būt izsmeļošs, un tā pamatā jābūt aktuālajām zinātnes atziņām.
31. grozījums
III pielikuma 1.-5. punkts
Eiropas Komisijas ierosinātais teksts |
RK grozījums |
||||
6. panta 2. punktā minētās augsta riska AI sistēmas ir norādītās AI sistēmas, ko izmanto kādā no tālāk uzskaitītajām jomām. |
6. panta 2. punktā minētās augsta riska AI sistēmas ir norādītās AI sistēmas, ko izmanto kādā no tālāk uzskaitītajām jomām. |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Pamatojums
Telekomunikāciju, ūdensapgādes un interneta infrastruktūra ir kritiskās infrastruktūras neatņemama sastāvdaļa.
Mākslīgā intelekta sistēmas klasificēšana augsta riska sistēmā nozīmē noteikt, ka šāda sistēma varētu radīt reālu risku iedzīvotājiem. Analītisks un teorētisks novērtējums par personu tiesībām saņemt sabiedriskos pakalpojumus pats par sevi nerada augstu risku. Darbības vārdu “izvērtēt” papildinot ar “noteikt”, tiek uzsvērts, ka šāds risks faktiski rodas lēmuma pieņemšanas brīdī, it īpaši attiecībā uz iesaistītajām personām.
II. IETEIKUMI POLITIKAS JOMĀ
EIROPAS REĢIONU KOMITEJA
Izcilības ekosistēma
1. |
uzsver, ka Komisijas ieceri – panākt, lai Eiropas Savienība kļūtu par pasaules līderi antropocentriska mākslīgā intelekta (AI) atbildīgas attīstīšanas jomā –, varēs īstenot tikai tad, ja vietējām un reģionālajām pašvaldībām šajā procesā būs spēcīga loma. Vietējām un reģionālajām pašvaldībām ir vislabākās iespējas palīdzēt radīt vidi, kas turpmākajos gados varētu veicināt lielākus ieguldījumus mākslīgajā intelektā un lielāku uzticēšanos tam; |
2. |
uzsver, ka līdztekus vietējo un reģionālo pašvaldību iesaistīšanai ir svarīgi nodrošināt atbalstu un apmācību, lai uzlabotu to kompetenci šajā jomā, it īpaši tāpēc, ka tām, iespējams, tiks uzticētas uzraudzības un izpildes funkcijas; |
3. |
norāda, ka mākslīgā intelekta attīstīšanai būs pieejami ES līdzekļi, taču programmu daudzveidības dēļ pieeja ir fragmentāra, un tas palielina sadrumstalotības un pārklāšanās risku; |
4. |
tādēļ aicina Komisiju izveidot un savienot spēcīgas un plurālistiskas kopīgas datu telpas, kas dotu iespēju atrisināt jautājumu par publisko un privāto datu izmantošanu sabiedrībā. Šajā nolūkā ir nepieciešama saskaņošana ar likumdošanas iniciatīvām, kas saistītas ar Eiropas Datu stratēģiju; |
Uzticēšanās ekosistēma
5. |
pauž nožēlu, ka regulas priekšlikumā nav minētas vietējās un reģionālās pašvaldības, lai gan tiesiskais regulējums tiks piemērots gan publiskā, gan privātā sektora dalībniekiem. |
6. |
norāda, ka mākslīgā intelekta sistēmas var ievērojami palīdzēt vietējo un reģionālo pašvaldību saskarsmē ar iedzīvotājiem un pakalpojumu sniegšanā. Turklāt šīm sistēmām cita starpā piemīt potenciāls paaugstināt publiskā sektora efektivitāti un palīdzēt vietējām un reģionālajām pašvaldībām veikt pielāgojumus, kas zaļās un digitālās pārkārtošanās kontekstā ir vajadzīgi vietējā un reģionālajā līmenī. Tāpēc šobrīd notiekošajā regulas pārskatīšanā būtu aktīvi jāizmanto vietējo un reģionālo pašvaldību gūtā pieredze; |
7. |
aicina precīzāk definēt jēdzienus “sagādātājs” un “lietotājs”, it īpaši situācijās, kad uzņēmumi, pētniecības iestādes, publiskās iestādes un iedzīvotāji kopīgi izstrādā un testē mākslīgā intelekta sistēmas “dzīvajās laboratorijās”. Pienācīga uzmanība būtu jāvelta arī iedzīvotājiem un patērētājiem, kurus ietekmē profesionālo lietotāju izmantoto mākslīgā intelekta sistēmu lēmumi; |
8. |
uzsver, ka gadījumos, kad tiesībaizsardzības nolūkos mākslīgā intelekta sistēmas ir paredzēts izmantot fizisku personu biometriskai identifikācijai reāllaikā un attālināti sabiedrībai pieejamās vietās, ir iepriekš jāapspriežas ar attiecīgajām vietējām un reģionālajām pašvaldībām; |
9. |
atzinīgi vērtē Eiropas Komisijas rīkoto sabiedrisko apspriešanu saistībā ar civiltiesiskās atbildības noteikumu pielāgošanu specifiskajām digitālā laikmeta un mākslīgā intelekta problēmām (1) un pauž cerību, ka pēc tās tiks izveidots atjaunināts satvars ar mērķi patērētājiem nodrošināt kompensāciju par mākslīgā intelekta lietotņu radīto kaitējumu; |
10. |
vēlas noskaidrot, kāpēc augsta riska mākslīgā intelekta sistēmu sarakstā nav iekļautas demokrātiskajos procesos, piemēram, vēlēšanās, izmantotās mākslīgā intelekta sistēmas; |
11. |
mudina augsta riska mākslīgā intelekta sistēmām piemērot tādas pašas fiziskām personām paredzētas pārredzamības un informēšanas prasības, kādas pašlaik tiek piemērotas lietotājiem; |
12. |
norāda, ka sociālā novērtējuma izmantošana ietver būtiskus riskus un sekas cilvēktiesību jomā; |
13. |
šajā sakarā ļoti skeptiski vērtē abas regulā (2) izklāstītās situācijas, lai noteiktu, kad sociālā novērtējuma rezultāts var izraisīt kaitējošu vai nelabvēlīgu attieksmi pret personām vai personu grupām, jo ir ārkārtīgi grūti noteikt šādu situāciju esamību. Šajā saistībā Komiteja mudina skaidri formulēt stingras garantijas, lai nebūtu iespējams apiet sociālā novērtējuma prakses aizliegumu; |
14. |
pieņem zināšanai, ka regulas apsvērumos ir sīki izklāstīti riski, ar ko saskaras fiziskas personas, ja tās mijiedarbojas ar augsta riska mākslīgā intelekta sistēmām, piemēram, saistībā ar izglītību, apmācību, nodarbinātību, cilvēkresursu pārvaldību, pašnodarbinātības pieejamību vai piekļuvi atsevišķiem sabiedriskiem un privātiem pamatpakalpojumiem un tiesībām saņemt šādus pakalpojumus; |
15. |
aicina Komisiju sīkāk izpētīt, vai mākslīgā intelekta sistēmas, kuras paredzēts izmantot publiskajās iestādēs, ir uzskatāmas par augsta riska mākslīgā intelekta sistēmām (3); |
16. |
vēlas, lai kāda iestāde ex ante sniegtu nopietnu atzinumu par regulas noteikumu interpretāciju, tostarp attiecībā uz Vispārīgo datu aizsardzības regulu. Tas palielinātu juridisko noteiktību un palīdzētu samazināt mākslīgā intelekta sistēmu izstrādes un ieviešanas izmaksas; |
17. |
tāpēc uzsver, ka, formulējot regulu, kurai ir izšķiroša nozīme uzticēšanās ekosistēmas veidošanā un juridiskās nenoteiktības novēršanā saistībā ar mākslīgā intelekta sistēmu izstrādi un izmantošanu, ļoti svarīga ir skaidrība. Tā palīdzētu izvairīties no ierosināto prasību nepareizas interpretācijas un līdz minimumam samazinātu mākslīgā intelekta lietojumu vēlākas nepareizas pārvaldības riskus, tādējādi maksimāli palielinot regulējuma efektivitāti un sankciju ticamību. Vienlaikus un saskaņā ar Eiropas Komisijas labāka regulējuma programmu ļoti svarīgi ir savlaicīgi atklāt un novērst iespējamu pārklāšanos un/vai konfliktus ar spēkā esošajiem noteikumiem; |
18. |
konstatē, ka daudzas vietējās un reģionālās pašvaldības līdzīgu uzdevumu veikšanai izmanto vienas un tās pašas mākslīgā intelekta sistēmas. Šīs sistēmas lielākoties ir izstrādājuši privāti uzņēmumi; |
19. |
norāda, ka no pilsoņu tiesību garantēšanas viedokļa priekšlikums regulai nav izolēts, bet uz to ir jāraugās saistībā ar spēkā esošajiem tiesību aktiem. Tāpēc Komiteja aicina dalībvalstis pastāvīgi nodrošināt vajadzīgos administratīvos pasākumus, lai tiktu ņemtas vērā iespējas un riski, kas saistīti ar mākslīgā intelekta izmantošanu publiskajā sektorā; |
20. |
secina, ka uzņēmumi un pilnvarotās iestādes atbilstības novērtēšanas nolūkā interpretē Eiropas un valstu noteikumus, un tādēļ šāda interpretācija atspoguļojas to vietējo un reģionālo pašvaldību praksē, kuras izmanto šādas mākslīgā intelekta sistēmas. Līdz ar to ir grūti noteikt, cik lielā mērā šajās mākslīgā intelekta sistēmās ir iespējams ņemt vērā vietējo un reģionālo politiku. Tāpēc Komiteja vērš uzmanību uz vietējo un reģionālo pašvaldību specifiskajām vajadzībām un uz to, ka “viena pieeja visiem” var apdraudēt to, cik efektīvi mākslīgā intelekta sistēmas reaģē uz šīm vajadzībām. Turklāt Komiteja ierosina piešķirt dalībvalstīm pilnvaras reglamentēt augsta riska mākslīgā intelekta sistēmas, ja pastāv sevišķi svarīgi un pamatoti iemesli, kas saistīti ar sabiedrības interesēm; |
21. |
šajā sakarā prasa, lai atbilstības novērtējumi būtu pārredzami un publiski pieejami. Turklāt vietējām un reģionālajām pašvaldībām vajadzētu būt iespējai piedalīties mākslīgā intelekta sistēmu uzraudzībā, ziņot par to ieviešanu vietējā līmenī un sniegt oficiālu ieguldījumu Eiropas Komisijas veiktajā novērtējumā par regulas piemērošanu; |
22. |
uzsver, ka “regulatīvās smilškastes” piemērošanā ir jāparedz atbilstīgi juridiskie, metodiskie un ētikas nosacījumi, kas veicinātu tehnoloģijas attīstību, tiesību aktu izstrādi un to novērtēšanu. Turklāt ir jāizstrādā skaidri kritēriji uzņēmumu uzņemšanai “regulatīvajā smilškastē”. Lai nodrošinātu patērētāju organizāciju spēju panākt Mākslīgā intelekta akta noteikumu ievērošanu, tas ir jāiekļauj Eiropas Direktīvas par pārstāvības prasībām patērētāju kolektīvo interešu aizsardzībai ((ES) 2020/1828) I pielikumā; |
Informācijas kampaņas
23. |
uzsver, cik svarīgas ir publiskas kampaņas, lai sabiedrību informētu un izglītotu par AI sistēmu esamību un lietderību, kā arī par iespējamiem riskiem; uzsver arī, ka ir steidzami jānodrošina patērētājiem visaptveroša informācija par mākslīgā intelekta/mašīnu virzītu lēmumu pieņemšanu; šajā saistībā aicina Eiropas Komisiju nodrošināt finansējumu šādām kampaņām; |
Administratīvais slogs
24. |
raizējas par administratīvo slogu, ko varētu radīt ierosinātā regula. Administratīvais slogs var atturēt mazos un vidējos uzņēmumus un vietējās un reģionālās pašvaldības no inovācijas veicināšanas un mākslīgā intelekta sistēmu ieviešanas (4); |
Proporcionalitāte un subsidiaritāte
25. |
uzskata, ka regulas priekšlikumā ir ievēroti proporcionalitātes un subsidiaritātes principi. ES rīcības pievienotā vērtība šajā jomā un Komisijas izraudzītie attiecīgie juridiskie pamati ir skaidri un konsekventi. Ietekmes novērtējumā ir iekļauta atsevišķa sadaļa par subsidiaritāti. Turklāt nevienas valsts parlaments līdz noteiktā iesniegšanas termiņa beigām, t. i., līdz 2021. gada 2. septembrim, nebija iesniedzis argumentētu atzinumu par subsidiaritātes principa neievērošanu. |
Briselē, 2021. gada 2. decembrī
Eiropas Reģionu komitejas priekšsēdētājs
Apostolos TZITZIKOSTAS
([62]) Padomes Pamatlēmums 2002/584/TI (2002. gada 13. jūnijs) par Eiropas apcietināšanas orderi un par nodošanas procedūrām starp dalībvalstīm (OV L 190, 18.7.2002., 1. lpp.).
([62]) Padomes Pamatlēmums 2002/584/TI (2002. gada 13. jūnijs) par Eiropas apcietināšanas orderi un par nodošanas procedūrām starp dalībvalstīm (OV L 190, 18.7.2002., 1. lpp.).
(1) https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_lv
(2) 5. panta 1. punkta c) apakšpunkts.
(3) III pielikuma 5. punkta (a) apakšpunkts.
(4) Kādā no Eiropas Komisijas nesen pasūtītajiem pētījumiem (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, 12. lpp.) aprēķināts, ka saskaņā ar pamatotiem pieņēmumiem mākslīgā intelekta sistēmas sertifikācijas iegūšana varētu izmaksāt vidēji no 16 800 EUR līdz 23 000 EUR jeb aptuveni 10–14 % no izstrādes izmaksām.