EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52023AP0236

Spremembe Evropskega parlamenta, sprejete 14. junija 2023, o predlogu uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije (COM(2021)0206) – C9-0146/2021 – 2021/0106(COD))

UL C, C/2024/506, 23.1.2024, ELI: http://data.europa.eu/eli/C/2024/506/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

ELI: http://data.europa.eu/eli/C/2024/506/oj

European flag

Uradni list
Evropske unije

SL

Serija C


C/2024/506

23.1.2024

P9_TA(2023)0236

Akt o umetni inteligenci

Spremembe Evropskega parlamenta, sprejete 14. junija 2023, o predlogu uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije (COM(2021)0206) – C9-0146/2021 – 2021/0106(COD)) (1)

(Redni zakonodajni postopek: prva obravnava)

(C/2024/506)

Sprememba 1

Predlog uredbe

Navedba sklicevanja 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

ob upoštevanju mnenja Evropske centralne banke,

Sprememba 2

Predlog uredbe

Navedba sklicevanja 4 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

ob upoštevanju skupnega mnenja Evropskega odbora za varstvo podatkov in Evropskega nadzornika za varstvo podatkov,

Sprememba 3

Predlog uredbe

Uvodna izjava 1

Besedilo, ki ga predlaga Komisija

Sprememba

(1)

Namen te uredbe je izboljšati delovanje notranjega trga z določitvijo enotnega pravnega okvira , zlasti za razvoj , trženje in uporabo umetne inteligence v  skladu z vrednotami Unije . Ta uredba uresničuje številne nujne razloge javnega interesa , kot so visoka raven varovanja zdravja, varnosti in temeljnih pravic , ter zagotavlja prosti čezmejni pretok blaga in storitev, ki temeljijo na umetni inteligenci, s čimer državam članicam preprečuje, da bi uvedle omejitve za razvoj, trženje in uporabo umetnointeligenčnih sistemov, razen če je to izrecno dovoljeno s to uredbo.

(1)

Namen te uredbe je spodbujati uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence ter zagotoviti visoko raven varovanja zdravja , varnosti, temeljnih pravic , demokracije in pravne države ter okolja pred škodljivimi učinki umetnointeligenčnih sistemov umetne inteligence v  Uniji, obenem pa izboljšati delovanje notranjega trga . Ta uredba določa enoten pravni okvir, zlasti za razvoj , dajanje na trg ali v storitev in za uporabo umetne inteligence v skladu z vrednotami Unije , s čimer zagotavlja prosti čezmejni pretok blaga in storitev, ki temeljijo na umetni inteligenci, s čimer državam članicam preprečuje, da bi uvedle omejitve za razvoj, trženje in uporabo umetnointeligenčnih sistemov, razen če je to izrecno dovoljeno s to uredbo. Nekateri umetnointeligenčni sistemi lahko vplivajo tudi na demokracijo, pravno državo in okolje. Ti pomisleki so posebej obravnavani v kritičnih sektorjih in primerih uporabe iz prilog k tej uredbi.

Sprememba 4

Predlog uredbe

Uvodna izjava 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1a)

Ta uredba bi morala ohranjati vrednote Unije, prispevati k temu, da bo umetna inteligenca koristila vsej družbi, zaščititi posameznike, podjetja, demokracijo, pravno državo in okolje pred tveganji, hkrati pa spodbujati inovacije in zaposlovanje ter zagotoviti, da Evropa postane vodilna na tem področju.

Sprememba 5

Predlog uredbe

Uvodna izjava 2

Besedilo, ki ga predlaga Komisija

Sprememba

(2)

Umetnointeligenčne sisteme je mogoče zlahka uporabljati v več gospodarskih in družbenih sektorjih, tudi čezmejno, in lahko krožijo po vsej Uniji. Nekatere države članice so že preučile možnost sprejetja nacionalnih predpisov, s katerimi bi zagotovile, da je umetna inteligenca varna ter da se razvija in uporablja v skladu z obveznostmi glede temeljnih pravic. Različna nacionalna pravila lahko povzročijo razdrobljenost notranjega trga in zmanjšajo pravno varnost za operaterje, ki razvijajo ali uporabljajo umetnointeligenčne sisteme. Zato bi bilo treba zagotoviti dosledno in visoko raven varstva po vsej Uniji, hkrati pa preprečiti razlike, ki ovirajo prost pretok umetnointeligenčnih sistemov ter z njimi povezanih proizvodov in storitev na notranjem trgu, in sicer z določitvijo enotnih obveznosti za operaterje ter zagotovitvijo enotnega varstva prevladujočih razlogov javnega interesa in pravic oseb na notranjem trgu na podlagi člena 114 Pogodbe o delovanju Evropske unije (v nadaljnjem besedilu: PDEU). Ker ta uredba vsebuje nekatera posebna pravila o varstvu posameznikov pri obdelavi osebnih podatkov v zvezi z omejitvami uporabe umetnointeligenčnih sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, je primerno, da se ta uredba, kar zadeva navedena posebna pravila, opira na člen 16 PDEU. Glede na ta posebna pravila in uporabo člena 16 PDEU se je primerno posvetovati z Evropskim odborom za varstvo podatkov.

(2)

Umetnointeligenčne sisteme je mogoče zlahka uporabljati v več gospodarskih in družbenih sektorjih, tudi čezmejno, in lahko krožijo po vsej Uniji. Nekatere države članice so že preučile možnost sprejetja nacionalnih predpisov, s katerimi bi zagotovile, da je umetna inteligenca zaupanja vredna in varna ter da se razvija in uporablja v skladu z obveznostmi glede temeljnih pravic. Različna nacionalna pravila lahko povzročijo razdrobljenost notranjega trga in zmanjšajo pravno varnost za operaterje, ki razvijajo ali uporabljajo umetnointeligenčne sisteme. Zato bi bilo treba zagotoviti dosledno in visoko raven varstva po vsej Uniji, da bi dosegli zaupanja vredno umetno inteligenco, hkrati pa preprečiti razlike, ki ovirajo prost pretok , inovacije, uvajanje in uporabo umetnointeligenčnih sistemov ter z njimi povezanih proizvodov in storitev na notranjem trgu, in sicer z določitvijo enotnih obveznosti za operaterje ter zagotovitvijo enotnega varstva prevladujočih razlogov javnega interesa in pravic oseb na notranjem trgu na podlagi člena 114 Pogodbe o delovanju Evropske unije (v nadaljnjem besedilu: PDEU).

Sprememba 6

Predlog uredbe

Uvodna izjava 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2a)

Ker je umetna inteligenca pogosto odvisna od obdelave velikih količin podatkov, številni umetnointeligenčni sistemi in aplikacije pa tudi od obdelave osebnih podatkov, je primerno, da ta uredba temelji na členu 16 PDEU, ki določa varstvo za fizične osebe pri obdelavi osebnih podatkov, in predpisuje sprejetje pravil o varstvu posameznikov pri obdelavi osebnih podatkov.

Sprememba 7

Predlog uredbe

Uvodna izjava 2 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2b)

Temeljna pravica do varstva osebnih podatkov je zaščitena zlasti z uredbama (EU) 2016/679 in (EU) 2018/1725 ter Direktivo 2016/680. Direktiva 2002/58/ES poleg tega varuje zasebno življenje in zaupnost komunikacij, vključno z zagotavljanjem pogojev za shranjevanje osebnih in neosebnih podatkov na terminalski opremi in dostop z njih. Navedeni pravni akti so podlaga za vzdržno in odgovorno obdelavo podatkov, tudi kadar nabori podatkov vključujejo kombinacijo osebnih in neosebnih podatkov. Namen te uredbe ni vplivati na uporabo veljavnega prava Unije, ki ureja obdelavo osebnih podatkov, vključno z nalogami in pooblastili neodvisnih nadzornih organov, pristojnih za spremljanje skladnosti s temi instrumenti. Ta uredba ne vpliva na temeljni pravici do zasebnega življenja in varstva podatkov, kot sta določeni v pravu Unije o varstvu podatkov in zasebnosti ter zapisani v Listini Evropske unije o temeljnih pravicah (v nadaljnjem besedilu: Listina).

Sprememba 8

Predlog uredbe

Uvodna izjava 2 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2c)

Za sisteme umetne inteligence v Uniji velja ustrezna zakonodaja o varnosti proizvodov, ki zagotavlja okvir za zaščito potrošnikov pred nevarnimi proizvodi na splošno in bi se morala še naprej uporabljati. Ta uredba prav tako ne posega v določbe drugih pravnih aktov Unije, ki urejajo varstvo potrošnikov in varnost proizvodov, vključno z Uredbo (EU) 2017/2394, Uredbo (EU) 2019/1020, Direktivo 2001/95/ES o splošni varnosti proizvodov in Direktivo 2013/11/EU.

Sprememba 9

Predlog uredbe

Uvodna izjava 2 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2d)

V skladu s členom 114(2) PDEU ta uredba dopolnjuje in nikakor ne ogroža pravic in interesov zaposlenih oseb. Ta uredba torej ne bi smela vplivati na zakonodajo Unije o socialni politiki ter nacionalno delovno pravo in prakso, to je na nobeno pravno ali pogodbeno določbo v zvezi s pogoji zaposlovanja, delovnimi pogoji, vključno z zdravjem in varnostjo pri delu, ter razmerje med delodajalci in delavci, vključno z obveščanjem, posvetovanjem in udeležbo. Ne bi smela vplivati niti na uveljavljanje temeljnih pravic, ki so priznane v državah članicah in na ravni Unije, vključno s pravico do stavke ali drugih ukrepov, zajetih v specifičnih sistemih odnosov med delodajalci in delojemalci v posameznih državah članicah v skladu z nacionalnim pravom in/ali prakso. Prav tako ne bi smela vplivati na prakse usklajevanja, pravico do pogajanja o kolektivnih pogodbah, njihovega sklepanja in izvrševanja ali na pravico do sprejemanja kolektivnih ukrepov v skladu z nacionalnim pravom in/ali prakso. V nobenem primeru ne bi smela preprečiti Komisiji, da predlaga posebno zakonodajo o pravicah in svoboščinah delavcev, na katere vplivajo umetnointeligenčni sistemi.

Sprememba 10

Predlog uredbe

Uvodna izjava 2 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2e)

Ta uredba ne bi smela posegati v določbe, katerih namen je izboljšanje delovnih pogojev za platformno delo, iz Direktive… [COD 2021/414/ES].

Sprememba 11

Predlog uredbe

Uvodna izjava 2 f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(2f)

Ta uredba bi morala pomagati pri podpiranju raziskav in inovacij ter ne bi smela ogrožati raziskovalnih in razvojnih dejavnosti, hkrati pa bi morala spoštovati svobodo znanstvenih raziskav. Zato je treba iz njenega področja uporabe izključiti vse umetnointeligenčne sisteme, ki se razvijajo izključno za namene znanstvenih raziskav in razvoja, ter poskrbeti, da uredba ne bo kakor koli drugače vplivala na dejavnost znanstvenih raziskav in razvoja umetnointeligenčnih sistemov. V vsakem primeru je treba vsakršno raziskovalno in razvojno dejavnost izvajati v skladu z Listino, pravom Unije in nacionalnim pravom.

Sprememba 12

Predlog uredbe

Uvodna izjava 3

Besedilo, ki ga predlaga Komisija

Sprememba

(3)

Umetna inteligenca je hitro razvijajoča se skupina tehnologij, ki lahko prispevajo k številnim gospodarskim in družbenim koristim v celotnem spektru panog in družbenih dejavnosti. Uporaba umetne inteligence lahko z izboljšanjem napovedi, optimizacijo delovanja in dodeljevanja virov ter po meri prilagojenimi digitalnimi rešitvami, ki so na voljo za posameznike in organizacije, zagotavlja ključne konkurenčne prednosti za podjetja ter podpira družbeno in okoljsko koristne rezultate, na primer na področju zdravstvenega varstva, kmetijstva, izobraževanja in usposabljanja, upravljanja infrastrukture, energije, prometa in logistike, javnih storitev, varnosti, pravosodja, učinkovite rabe virov in energije ter ublažitve podnebnih sprememb in prilagajanja nanje.

(3)

Umetna inteligenca je hitro razvijajoča se skupina tehnologij, ki lahko prispevajo oziroma že prispevajo k številnim gospodarskim , okoljskim in družbenim koristim v celotnem spektru panog in družbenih dejavnosti , če se razvijajo v skladu z ustreznimi splošnimi načeli, z Listino in z vrednotami, na katerih temelji Unija . Uporaba umetne inteligence lahko z izboljšanjem napovedi, optimizacijo delovanja in dodeljevanja virov ter po meri prilagojenimi digitalnimi rešitvami, ki so na voljo za posameznike in organizacije, zagotavlja ključne konkurenčne prednosti za podjetja ter podpira družbeno in okoljsko koristne rezultate, na primer na področju zdravstvenega varstva, kmetijstva, varnosti hrane, izobraževanja in usposabljanja, medijev, športa in kulture, upravljanja infrastrukture, energije, prometa in logistike , kriznega upravljanja , javnih storitev, varnosti, pravosodja, učinkovite rabe virov in energije , okoljskega spremljanja, ohranjanja in obnovitve biotske raznovrstnosti in ekosistemov ter ublažitve podnebnih sprememb in prilagajanja nanje.

Sprememba 13

Predlog uredbe

Uvodna izjava 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(3a)

Da bi dosegla cilje ogljične nevtralnosti, bi si morala evropska podjetja prizadevati, da bi izkoristila vse razpoložljive napredne tehnološke rešitve, ki jim pri tem lahko pomagajo. Umetna inteligenca je tehnologija, ki ima zmogljivosti za obdelavo vedno večje količine podatkov, ki nastajajo med industrijskimi, okoljskimi, zdravstvenimi in drugimi postopki. Za lažje naložbe v rešitve za analizo in orodja za optimizacijo na podlagi umetne inteligence bi morala uredba zagotoviti predvidljivo in sorazmerno okolje za industrijske rešitve z majhnim tveganjem.

Sprememba 14

Predlog uredbe

Uvodna izjava 4

Besedilo, ki ga predlaga Komisija

Sprememba

(4)

Hkrati lahko umetna inteligenca glede na okoliščine v zvezi z njenim posebnim namenom uporabe povzroča tveganja ter škoduje javnim interesom in pravicam, ki jih varuje pravo Unije. Ta škoda je lahko materialna ali nematerialna.

(4)

Hkrati lahko umetna inteligenca glede na okoliščine v zvezi z njenim posebnim namenom uporabe , kot tudi stopnjo tehnološkega razvoja, povzroča tveganja ter škoduje javnim ali zasebnim interesom in temeljnim pravicam fizičnih oseb , ki jih varuje pravo Unije. Ta škoda je lahko materialna ali nematerialna , vključno s fizično, psihično, družbeno ali ekonomsko škodo .

Sprememba 15

Predlog uredbe

Uvodna izjava 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(4a)

Glede na velik vpliv umetne inteligence na družbo in potrebo po vzpostavitvi zaupanja je bistveno, da se umetna inteligenca in njen regulativni okvir razvijata v skladu z vrednotami Unije iz člena 2 PEU, temeljnimi pravicami in svoboščinami, ki so zapisane v Pogodbah, Listini in mednarodnem pravu o človekovih pravicah. Osnovni pogoj za umetno inteligenco bi moral biti, da je to tehnologija, osredotočena na človeka. Ne bi smela nadomestiti človekove avtonomije ali pomeniti izgubo osebne svobode in bi morala služiti predvsem potrebam družbe in skupnemu dobremu. Uvesti bi bilo treba zaščitne ukrepe, s katerimi bi zagotovili razvoj in uporabo umetne inteligence z vgrajeno etičnostjo, ki bi spoštovala vrednote Unije in Listino.

Sprememba 16

Predlog uredbe

Uvodna izjava 5

Besedilo, ki ga predlaga Komisija

Sprememba

(5)

Zato je potreben pravni okvir Unije, ki bo določal harmonizirana pravila o umetni inteligenci, da bi spodbudil razvoj, uporabo in uvajanje umetne inteligence na notranjem trgu, ki bo hkrati zagotavljal visoko raven zaščite javnih interesov, kot so zdravje in varnost ter varstvo temeljnih pravic, kot jih priznava in varuje pravo Unije. Za dosego tega cilja bi bilo treba določiti pravila, ki urejajo dajanje na trg in v uporabo nekaterih umetnointeligenčnih sistemov, s čimer bi zagotovili nemoteno delovanje notranjega trga in omogočili, da ti sistemi izkoristijo načelo prostega pretoka blaga in storitev. Z določitvijo teh pravil ta uredba podpira cilj, da Unija postane vodilna v svetu pri razvoju varne, zaupanja vredne in etične umetne inteligence, kot je navedel Evropski svet (33), ter zagotavlja zaščito etičnih načel, kot je izrecno zahteval Evropski parlament (34) .

(5)

Zato je potreben pravni okvir Unije, ki bo določal harmonizirana pravila o umetni inteligenci, da bi spodbudil razvoj, uporabo in uvajanje umetne inteligence na notranjem trgu, ki bo hkrati zagotavljal visoko raven zaščite javnih interesov, kot so zdravje in varnost, varstvo temeljnih pravic , demokracija in pravna država ter okolje , kot jih priznava in varuje pravo Unije. Za dosego tega cilja bi bilo treba določiti pravila, ki urejajo dajanje na trg in v  obratovanje ter uporabo nekaterih umetnointeligenčnih sistemov, s čimer bi zagotovili nemoteno delovanje notranjega trga in omogočili, da ti sistemi izkoristijo načelo prostega pretoka blaga in storitev. Ta pravila bi morala biti jasna in dosledna pri varstvu temeljnih pravic, podpori novim inovativnim rešitvam in omogočanju delovanja evropskega ekosistema javnih in zasebnih akterjev, ki ustvarjajo umetnointeligenčne sisteme v skladu z vrednotami Unije. Z določitvijo teh pravil , pa tudi ukrepov v podporo inovacijam s posebnim poudarkom na malih in srednjih ter zagonskih podjetjih, ta uredba podpira cilj, da podpira umetno inteligenco, pridobljeno v Uniji, da Unija postane vodilna v svetu pri razvoju varne, zaupanja vredne in etične umetne inteligence, kot je navedel Evropski svet (33), ter zagotavlja zaščito etičnih načel, kot je izrecno zahteval Evropski parlament (34).

Sprememba 17

Predlog uredbe

Uvodna izjava 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(5a)

Poleg tega mora EU, da bi spodbujala razvoj umetne inteligence v skladu z vrednotami Unije, obravnavati glavne vrzeli in prepreke, ki ovirajo potencial za digitalno preobrazbo, vključno s pomanjkanjem digitalno usposobljenih delavcev, pomisleki glede kibernetske varnosti, pomanjkanjem naložb in slabim dostopom do njih ter obstoječimi in potencialnimi razlikami med velikimi podjetji, malimi in srednjimi podjetji ter zagonskimi podjetji. Posebno pozornost bi bilo treba nameniti zagotavljanju, da bodo umetna inteligenca in inovacije pri novih tehnologijah koristile vsem regijam Unije ter da se bodo ustrezne naložbe in viri namenili zlasti regijam, ki pri nekaterih digitalnih kazalnikih morda zaostajajo.

Sprememba 18

Predlog uredbe

Uvodna izjava 6

Besedilo, ki ga predlaga Komisija

Sprememba

(6)

Pojem umetnointeligenčnega sistema bi moral biti jasno opredeljen, da se zagotovita pravna varnost in hkrati prožnost, ki bo omogočala prilagajanje prihodnjemu tehnološkemu razvoju. Opredelitev bi morala temeljiti na ključnih funkcionalnih značilnostih programske opreme , zlasti na zmožnosti , da za določen sklop ciljev, ki jih opredeli človek, ustvarja izhodne podatke, kot so vsebine, napovedi , priporočila ali odločitve, ki vplivajo na okolje , s katerim je sistem v interakciji, bodisi v fizični bodisi v digitalni razsežnosti . Umetnointeligenčni sistemi so lahko zasnovani tako , da delujejo z različnimi stopnjami avtonomije in se uporabljajo samostojno ali kot komponenta proizvoda , ne glede na to , ali je sistem fizično integriran proizvod (vgrajen) ali služi funkcionalnosti proizvoda , ne da bi bil vanj integriran (nevgrajen). Opredelitev umetnointeligenčnega sistema bi bilo treba dopolniti s seznamom posebnih tehnik in pristopov , ki se uporabljajo za njegov razvoj , ta seznam pa bi bilo treba posodabljati glede na tržni in tehnološki razvoj , tako da Komisija sprejme delegirane akte za spremembo tega seznama .

(6)

Pojem umetnointeligenčnega sistema v tej uredbi bi moral biti jasno opredeljen in tesno usklajen z delom mednarodnih organizacij, ki se ukvarjajo z umetno inteligenco , da se zagotovijo pravna varnost , harmonizacija in široko sprejemanje, ter hkrati prožnost, ki bo omogočala prilagajanje hitremu tehnološkemu razvoju na tem področju . Poleg tega bi morala predelitev temeljiti na ključnih funkcionalnih značilnostih umetne inteligence, kot so njene zmogljivosti učenja , sklepanja ali modeliranja , da bi jo lahko razlikovali od enostavnejših sistemov programske opreme in programskih pristopov. Umetnointeligenčni sistemi so zasnovani tako , da delujejo z različnimi stopnjami avtonomije, kar pomeni , da so vsaj do neke mere neodvisni od človeškega nadzora in zmogljivosti za delovanje brez človeškega posredovanja . Izraz „na strojni podlagi“ se nanaša na dejstvo, da sistemi umetne inteligence delujejo na strojih. Sklicevanje na eksplicitne ali implicitne cilje poudarja, da lahko umetnointeligenčni sistemi delujejo v skladu z eksplicitnimi cilji, ki so jih določili ljudje, ali implicitnimi cilji. Cilji umetnointeligenčnega sistema se lahko posebnih okoliščinah razlikujejo od predvidenega namena umetnointeligenčnega sistema. Sklicevanje na napovedi vključuje vsebino , ki se v tej uredbi šteje za obliko napovedi kot enega od možnih proizvodov umetnointeligenčnega sistema . Za namene te uredbe bi bilo treba okolja razumeti kot kontekste, v katerih delujejo umetnointeligenčni sistemi, medtem ko izhodni podatki , ki jih ustvari umetnointeligenčni sistem, tj. napovedi, priporočila ali odločitve , ustrezajo ciljem sistema na podlagi vhodnih podatkov iz navedenega okolja. Ti rezultati dodatno vplivajo na navedeno okolje, tudi tako, da vanj zgolj uvajajo nove informacije.

Sprememba 19

Predlog uredbe

Uvodna izjava 6 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(6a)

Umetnointeligenčni sistemi imajo pogosto sposobnost strojnega učenja, zaradi česar se lahko prilagajajo novim nalogam in jih samostojno izvajajo. Strojno učenje se nanaša na računalniški proces, pri katerem se na podlagi podatkov optimizirajo parametri modela, ki je matematični konstrukt in ustvarja izhodne podatke na podlagi vhodnih podatkov. Pristopi k strojnemu učenju, vključno z nadzorovanim, nenadzorovanim in spodbujevanim učenjem, pri katerih se uporabljajo najrazličnejše metode, vključno z globokim učenjem; Namen te uredbe je obravnavati nova morebitna tveganja, ki bi se lahko pojavila zaradi prenosa nadzora na umetnointeligenčne sisteme, zlasti na tiste umetnointeligenčne sisteme, ki se lahko razvijejo po uvedbi. Delovanje in rezultati številnih od teh umetnointeligenčnih sistemov temeljijo na abstraktnih matematičnih razmerjih, ki jih ljudje težko razumejo, spremljajo in sledijo posameznim vložkom. Te zapletene in nepregledne značilnosti (element črne skrinjice) vplivajo na odgovornost in razložljivost. Primerljivo preprostejše tehnologije, kot so pristopi, ki temeljijo na znanju, Bayesovo ocenjevanje ali drevesa odločanja, lahko prav tako povzročijo pravne vrzeli, ki jih je treba obravnavati s to uredbo, zlasti kadar se uporabljajo v kombinaciji s pristopi strojnega učenja v hibridnih sistemih.

Sprememba 20

Predlog uredbe

Uvodna izjava 6 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(6b)

Umetnointeligenčni sistemi se uporabljajo v samostojnem programskem sistemu, so integrirani v fizični izdelek (vgrajeni), se uporabljajo za funkcionalnost fizičnega proizvoda, ne da bi bili vanj integrirani (nevgrajeni) ali se uporabljajo kot umetnointeligenčne komponente večjega sistema. Če ta večji sistem ne bi deloval brez zadevne komponente umetne inteligence, bi bilo treba celoten večji sistem v skladu s to uredbo šteti za en sam umetnointeligenčni sistem.

Sprememba 21

Predlog uredbe

Uvodna izjava 7

Besedilo, ki ga predlaga Komisija

Sprememba

(7)

Pojem biometričnih podatkov, uporabljen v tej uredbi, je skladen s pojmom biometričnih podatkov, kot je opredeljen v členu 4(14) Uredbe (EU) 2016/679 Evropskega parlamenta in Sveta (35), členu 3(18) Uredbe (EU) 2018/1725 Evropskega parlamenta in Sveta  (36) ter členu 3(13) Direktive (EU) 2016/680 Evropskega parlamenta in Sveta  (37) , ter bi ga bilo treba razlagati dosledno .

(7)

Pojem biometričnih podatkov, uporabljen v tej uredbi, je skladen s pojmom biometričnih podatkov, kot je opredeljen v členu 4(14) Uredbe (EU) 2016/679 Evropskega parlamenta in Sveta (35) . Podatki , ki temeljijo na biometriji so dodatni podatki, ki so rezultat posebne tehnične obdelave v zvezi s fizičnimi , fiziološkimi ali vedenjskimi znaki fizične osebe, kot so obrazni izrazi, gibi, frekvenca srčnega utripa, glas, način tipkanja ali hoje, ki omogočajo ali potrjujejo edinstveno identifikacijo fizične osebe oziroma je ne omogočajo ali je ne potrjujejo .

Sprememba 22

Predlog uredbe

Uvodna izjava 7 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(7a)

Pojem biometrične identifikacije, kot se uporablja v tej uredbi, je treba opredeliti kot avtomatizirano prepoznavanje fizičnih, fizioloških, vedenjskih in psiholoških človeških značilnosti, kot so obraz, gibanje oči, izrazi obraza, oblika telesa, glas, govor, hoja, drža, srčni utrip, krvni tlak, vonj, tipkanje, psihološke reakcije (jeza, stiska, žalost itd.), za namene preverjanja identitete posameznika s primerjavo biometričnih podatkov tega posameznika s shranjenimi biometričnimi podatki posameznikov v podatkovni zbirki (identifikacija z več vzorci) ne glede na to, ali je posameznik v to privolil ali ne;

Sprememba 23

Predlog uredbe

Uvodna izjava 7 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(7b)

Pojem biometrične identifikacije, kot se uporablja v tej uredbi, je treba opredeliti kot umetnointeligenčni sistem za razvrščanje fizičnih oseb v posebne kategorije ali sklepanje o njihovih značilnostih in lastnostih, kot so družbeni in biološki spol, starost, barva las, barva oči, tetovaže, etnično ali socialno poreklo, zdravstveno stanje, umske ali fizične sposobnosti, vedenjske ali osebnostne lastnosti, jezik, vera ali pripadnost narodnostni manjšini ali spolna ali politična usmerjenost, na podlagi njihovih biometričnih podatkov ali podatkov, ki temeljijo na biometriji, ali o katerih je mogoče sklepati iz teh podatkov.

Sprememba 24

Predlog uredbe

Uvodna izjava 8

Besedilo, ki ga predlaga Komisija

Sprememba

(8)

Pojem sistema za biometrično identifikacijo na daljavo, kot se uporablja v tej uredbi, bi bilo treba opredeliti funkcionalno kot umetnointeligenčni sistem, namenjen identifikaciji fizičnih oseb na daljavo s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke in ne da bi bilo vnaprej znano, ali bo ciljna oseba prisotna in ali jo bo mogoče identificirati, ne glede na uporabljeno tehnologijo, procese ali vrste biometričnih podatkov. Glede na različne značilnosti in načine uporabe ter različna tveganja je treba razlikovati med sistemi za biometrično identifikacijo na daljavo v realnem času in sistemi za naknadno biometrično identifikacijo na daljavo. Pri sistemih „v realnem času“ se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo takoj, skoraj trenutno ali v vsakem primeru brez večje zamude. V zvezi s tem ne bi smelo biti prostora za izogibanje pravilom te uredbe o uporabi zadevnih umetnointeligenčnih sistemov v realnem času s tem, da bi poskrbeli za manjše zamude. Sistemi „v realnem času“ vključujejo uporabo gradiva „v živo“ ali „skoraj v živo“, kot je videoposnetek, ki ga ustvari kamera ali druga naprava s podobno funkcionalnostjo. Pri „naknadnih“ sistemih so bili biometrični podatki že zajeti, primerjava in identifikacija pa se izvedeta šele po daljšem času. To vključuje gradivo, kot so slike ali videoposnetki, ki jih ustvarjajo kamere televizije zaprtega kroga ali zasebne naprave, ki je bilo ustvarjeno pred uporabo sistema v zvezi z zadevnimi fizičnimi osebami.

(8)

Pojem sistema za biometrično identifikacijo na daljavo, kot se uporablja v tej uredbi, bi bilo treba opredeliti funkcionalno kot umetnointeligenčni sistem, namenjen identifikaciji fizičnih oseb na daljavo s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke in ne da bi bilo vnaprej znano, ali bo ciljna oseba prisotna in ali jo bo mogoče identificirati, ne glede na uporabljeno tehnologijo, procese ali vrste biometričnih podatkov , pri čemer je treba izključiti sistemov preverjanja, ki samo primerjajo biometrične podatke posameznika z njegovimi predhodno zbranimi podatki ((preverjanje „ena proti ena“) . Glede na različne značilnosti in načine uporabe ter različna tveganja je treba razlikovati med sistemi za biometrično identifikacijo na daljavo v realnem času in sistemi za naknadno biometrično identifikacijo na daljavo. Pri sistemih „v realnem času“ se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo takoj, skoraj trenutno ali v vsakem primeru brez večje zamude. V zvezi s tem ne bi smelo biti prostora za izogibanje pravilom te uredbe o uporabi zadevnih umetnointeligenčnih sistemov v realnem času s tem, da bi poskrbeli za manjše zamude. Sistemi „v realnem času“ vključujejo uporabo gradiva „v živo“ ali „skoraj v živo“, kot je videoposnetek, ki ga ustvari kamera ali druga naprava s podobno funkcionalnostjo. Pri „naknadnih“ sistemih so bili biometrični podatki že zajeti, primerjava in identifikacija pa se izvedeta šele po daljšem času. To vključuje gradivo, kot so slike ali videoposnetki, ki jih ustvarjajo kamere televizije zaprtega kroga ali zasebne naprave, ki je bilo ustvarjeno pred uporabo sistema v zvezi z zadevnimi fizičnimi osebami. Ker biometrična identifikacija ni odvisna od tega, ali je posameznik privolil vanjo, se ta opredelitev uporablja tudi, kadar so na lokaciji, ki je pod nadzorom sistema za biometrično identifikacijo na daljavo, nameščena opozorila, in predhodni vpis ne pomeni, da dejansko ne velja.

Sprememba 25

Predlog uredbe

Uvodna izjava 8 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(8a)

Identifikacija fizičnih oseb na daljavo se razume tako, da se sistemi za biometrično identifikacijo na daljavo razlikujejo od individualnih sistemov preverjanja v neposredni bližini, ki uporabljajo sredstva za biometrično identifikacijo, katerih edini namen je potrditi, ali ima določena fizična oseba, ki se prijavi za identifikacijo, dovoljenje ali ne, na primer za pridobitev dostopa do storitve, naprave ali prostorov.

Sprememba 26

Predlog uredbe

Uvodna izjava 9

Besedilo, ki ga predlaga Komisija

Sprememba

(9)

V tej uredbi je treba pojem javno dostopnega prostora razumeti tako, da se nanaša na vsak fizični prostor, dostopen javnosti, ne glede na to, ali je ta prostor v zasebni ali javni lasti. Zato pojem ne zajema prostorov, ki so zasebne narave in običajno niso prosto dostopni tretjim osebam, vključno z organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, razen če so bile te osebe posebej povabljene ali pooblaščene, kot so domovi, zasebni klubi, pisarne, skladišča in tovarne. Spletni prostori prav tako niso zajeti, saj niso fizični prostori. Vendar pa zgolj dejstvo, da lahko za dostop do določenega prostora veljajo določeni pogoji, kot so vstopnice ali starostne omejitve, ne pomeni, da prostor ni javno dostopen v smislu te uredbe. Zato so poleg javnih prostorov, kot so ulice, ustrezni deli vladnih stavb in večina prometne infrastrukture, običajno javno dostopni tudi prostori, kot so kinodvorane, gledališča, trgovine in nakupovalna središča. Vendar je za vsak primer posebej treba ugotoviti, ali je določen prostor dostopen javnosti, ob upoštevanju posebnosti posamezne situacije.

(9)

V tej uredbi je treba pojem javno dostopnega prostora razumeti tako, da se nanaša na vsak fizični prostor, dostopen javnosti, ne glede na to, ali je ta prostor v zasebni ali javni lasti in ne glede na morebitne omejitve kapacitet . Zato pojem ne zajema prostorov, ki so zasebne narave in običajno niso prosto dostopni tretjim osebam, vključno z organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, razen če so bile te osebe posebej povabljene ali pooblaščene, kot so domovi, zasebni klubi, pisarne, skladišča in tovarne. Spletni prostori prav tako niso zajeti, saj niso fizični prostori. Vendar pa zgolj dejstvo, da lahko za dostop do določenega prostora veljajo določeni pogoji, kot so vstopnice ali starostne omejitve, ne pomeni, da prostor ni javno dostopen v smislu te uredbe. Zato so poleg javnih prostorov, kot so ulice, ustrezni deli vladnih stavb in večina prometne infrastrukture, običajno javno dostopni tudi prostori, kot so kinodvorane, gledališča, športna igrišča, šole, univerze, ustrezni deli bolnišnic in bank, zabaviščni parki, festivali, trgovine in nakupovalna središča. Vendar je za vsak primer posebej treba ugotoviti, ali je določen prostor dostopen javnosti, ob upoštevanju posebnosti posamezne situacije.

Sprememba 27

Predlog uredbe

Uvodna izjava 9 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(9a)

Treba je opozoriti, da bi morali sistemi umetne inteligence spoštovati splošna načela, ki vzpostavljajo okvir na visoki ravni, ki spodbuja skladen in na človeka osredotočen pristop k etični in zaupanja vredni umetni inteligenci v skladu z Listino Evropske unije o temeljnih pravicah in vrednotami, na katerih temelji Unija, vključno z varstvom temeljnih pravic, človekovega delovanja in nadzora, tehnične odpornosti in varnosti, zasebnosti in upravljanja podatkov, preglednosti, nediskriminacije in pravičnosti ter družbene in okoljske blaginje.

Sprememba 28

Predlog uredbe

Uvodna izjava 9 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(9b)

Pismenost na področju umetne inteligence se navezuje na spretnosti, znanje in razumevanje, ki operaterjem, uporabnikom in zadevnim osebam, ob upoštevanju njihovih pravic in obveznosti v okviru obveznosti iz te uredbe, da omogočajo informirano uvajanje umetnointeligenčnih sistemov, hkrati pa se seznanijo s priložnostmi in tveganji na področju umetne inteligence, s čimer se spodbudi njen demokratični nadzor. Pismenost na področju umetne inteligence ne bi smela biti omejena na učenje o orodjih in tehnologijah, ampak bi morala zagotoviti, da bodo ponudniki in uporabniki poznali pojme in imeli znanje za zagotavljanje skladnosti s to uredbo in njenega izvrševanja. Zato morajo Komisija, države članice ter ponudniki in uporabniki umetnointeligenčnih sistemov, v sodelovanju z vsemi zadevnimi deležniki, spodbujajo razvoj zadostne stopnje pismenosti v zvezi z umetno inteligenco v vseh segmentih družbe, za osebe vseh starosti, tudi ženske in dekleta, poleg tega pa je treba pozorno spremljati napredek v zvezi s tem.

Sprememba 29

Predlog uredbe

Uvodna izjava 10

Besedilo, ki ga predlaga Komisija

Sprememba

(10)

Za zagotovitev enakih konkurenčnih pogojev ter učinkovitega varstva pravic in svoboščin posameznikov po vsej Uniji bi se morala pravila iz te uredbe uporabljati za ponudnike umetnointeligenčnih sistemov na nediskriminatoren način, ne glede na to, ali imajo sedež v Uniji ali v tretji državi, in za uporabnike umetnointeligenčnih sistemov s sedežem v Uniji.

(10)

Za zagotovitev enakih konkurenčnih pogojev ter učinkovitega varstva pravic in svoboščin posameznikov po vsej Uniji in na mednarodni ravni bi se morala pravila iz te uredbe uporabljati za ponudnike umetnointeligenčnih sistemov na nediskriminatoren način, ne glede na to, ali imajo sedež v Uniji ali v tretji državi, in za uvajalce umetnointeligenčnih sistemov s sedežem v Uniji. Da bi Unija lahko spoštovala svoje temeljne vrednote, bi bilo treba umetnointeligenčne sisteme, namenjene za prakse, ki se v tej uredbi štejejo za nesprejemljive, prav tako šteti za nesprejemljive zunaj Unije zaradi njihovega posebno škodljivega učinka na temeljne pravice, kot so določene v Listini. Zato je primerno ponudnikom, ki prebivajo v Uniji, prepovedati izvoz takih umetnointeligenčnih sistemov v tretje države.

Sprememba 30

Predlog uredbe

Uvodna izjava 11

Besedilo, ki ga predlaga Komisija

Sprememba

(11)

Zaradi svoje digitalne narave bi morali nekateri umetnointeligenčni sistemi spadati na področje uporabe te uredbe, tudi če niso dani na trg, v obratovanje ali uporabo v Uniji. To velja na primer za operaterja s sedežem v Uniji, ki določene storitve naroča pri operaterju s sedežem zunaj Unije v zvezi z dejavnostjo, ki jo bo izvajal umetnointeligenčni sistem, ki bi bil opredeljen kot sistem velikega tveganja in katerega učinki vplivajo na fizične osebe s sedežem v Uniji. V teh okoliščinah bi lahko umetnointeligenčni sistem, ki ga uporablja operater zunaj Unije, obdeloval podatke, ki se zakonito zbirajo v Uniji in prenašajo iz nje, ter naročniku v Uniji zagotovil izhodne podatke navedenega umetnointeligenčnega sistema, ki izhajajo iz te obdelave, ne da bi bil ta umetnointeligenčni sistem dan na trg, v obratovanje ali uporabo v Uniji. Da bi preprečili izogibanje določbam te uredbe in zagotovili učinkovito varstvo fizičnih oseb v Uniji, bi se morala ta uredba uporabljati tudi za ponudnike in uporabnike umetnointeligenčnih sistemov s sedežem v tretji državi, če se izhodni podatki, ki jih ti sistemi ustvarijo, uporabljajo v Uniji. Kljub temu se zaradi upoštevanja obstoječih ureditev in posebnih potreb po sodelovanju s tujimi partnerji, s katerimi se izmenjujejo informacije in dokazi, ta uredba ne bi smela uporabljati za javne organe tretje države in mednarodne organizacije, kadar delujejo v okviru mednarodnih sporazumov, sklenjenih na nacionalni ali evropski ravni za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja z Unijo ali njenimi državami članicami. Taki sporazumi so bili sklenjeni dvostransko med državami članicami in tretjimi državami ali med Evropsko unijo, Europolom in drugimi agencijami EU ter tretjimi državami in mednarodnimi organizacijami.

(11)

Zaradi svoje digitalne narave bi morali nekateri umetnointeligenčni sistemi spadati na področje uporabe te uredbe, tudi če niso dani na trg, v obratovanje ali uporabo v Uniji. To velja na primer za operaterja s sedežem v Uniji, ki določene storitve naroča pri operaterju s sedežem zunaj Unije v zvezi z dejavnostjo, ki jo bo izvajal umetnointeligenčni sistem, ki bi bil opredeljen kot sistem velikega tveganja in katerega učinki vplivajo na fizične osebe s sedežem v Uniji. V teh okoliščinah bi lahko umetnointeligenčni sistem, ki ga uporablja operater zunaj Unije, obdeloval podatke, ki se zakonito zbirajo v Uniji in prenašajo iz nje, ter naročniku v Uniji zagotovil izhodne podatke navedenega umetnointeligenčnega sistema, ki izhajajo iz te obdelave, ne da bi bil ta umetnointeligenčni sistem dan na trg, v obratovanje ali uporabo v Uniji. Da bi preprečili izogibanje določbam te uredbe in zagotovili učinkovito varstvo fizičnih oseb v Uniji, bi se morala ta uredba uporabljati tudi za ponudnike in uporabnike uvajalce umetnointeligenčnih sistemov s sedežem v tretji državi, če so izhodni podatki, ki jih ti sistemi ustvarijo, namenjeni uporabi v Uniji. Kljub temu se zaradi upoštevanja obstoječih ureditev in posebnih potreb po sodelovanju s tujimi partnerji, s katerimi se izmenjujejo informacije in dokazi, ta uredba ne bi smela uporabljati za javne organe tretje države in mednarodne organizacije, kadar delujejo v okviru mednarodnih sporazumov, sklenjenih na nacionalni ali evropski ravni za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja z Unijo ali njenimi državami članicami. Taki sporazumi so bili sklenjeni dvostransko med državami članicami in tretjimi državami ali med Evropsko unijo, Europolom in drugimi agencijami EU ter tretjimi državami in mednarodnimi organizacijami. Kljub temu bi morala ta izjema biti omejena na zaupanja vredne države in mednarodne organizacije, ki gojijo enake vrednote kot Unija.

Sprememba 31

Predlog uredbe

Uvodna izjava 12

Besedilo, ki ga predlaga Komisija

Sprememba

(12)

Ta uredba bi se morala uporabljati tudi za institucije, urade, organe in agencije Unije, kadar delujejo kot ponudniki ali uporabniki umetnointeligenčnega sistema. Umetnointeligenčne sisteme, ki se razvijajo ali uporabljajo izključno v vojaške namene, bi bilo treba izključiti iz področja uporabe te uredbe, če ta uporaba spada v izključno pristojnost skupne zunanje in varnostne politike, ki jo ureja naslov V Pogodbe o Evropski uniji (v nadaljnjem besedilu: PEU). Ta uredba ne bi smela posegati v določbe o odgovornosti posrednih ponudnikov storitev iz Direktive 2000/31/ES Evropskega parlamenta in Sveta [kakor je bila spremenjena z aktom o digitalnih storitvah].

(12)

Ta uredba bi se morala uporabljati tudi za institucije, urade, organe in agencije Unije, kadar delujejo kot ponudniki ali uvajalci umetnointeligenčnega sistema. Umetnointeligenčne sisteme, ki se razvijajo ali uporabljajo izključno v vojaške namene, bi bilo treba izključiti iz področja uporabe te uredbe, če ta uporaba spada v izključno pristojnost skupne zunanje in varnostne politike, ki jo ureja naslov V Pogodbe o Evropski uniji (v nadaljnjem besedilu: PEU). Ta uredba ne bi smela posegati v določbe o odgovornosti posrednih ponudnikov storitev iz Direktive 2000/31/ES Evropskega parlamenta in Sveta [kakor je bila spremenjena z aktom o digitalnih storitvah].

Sprememba 32

Predlog uredbe

Uvodna izjava 12 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(12a)

Programska oprema in podatki, ki se prosto izmenjujejo in pri katerih lahko uporabniki prosto dostopajo do njih ali njihovih spremenjenih različic, jih uporabljajo, spreminjajo in ponovno distribuirajo, lahko prispevajo k raziskavam in inovacijam na trgu. Raziskava Komisije tudi kaže, da lahko brezplačna in odprtokodna programska oprema prispeva med 65 in 95 milijard EUR k BDP Evropske unije in da lahko zagotovi pomembne priložnosti za rast evropskega gospodarstva. Uporabnikom je z brezplačnimi in odprtokodnimi licencami dovoljeno uporabljati, kopirati, distribuirati, preučevati, spreminjati in izboljševati programsko opremo in podatke, vključno z modeli. Da bi spodbudili razvoj in uvajanje umetne inteligence, zlasti pri srednjih in malih podjetjih, zagonskih podjetjih, akademskih raziskavah, pa tudi posameznikih, se ta uredba ne uporablja za brezplačne in odprtokodne komponente umetne inteligence, razen če jih ponudnik da na trg ali v uporabo kot del umetnointeligenčnega sistema velikega tveganja ali umetnointeligenčnega sistema, ki spada pod naslov II ali IV.

Sprememba 33

Predlog uredbe

Uvodna izjava 12 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(12b)

Niti skupen razvoj brezplačnih in odprtokodnih umetnointeligenčnih komponent niti njihova dostopnost v odprtih repozitorijih ne bi smela pomeniti dajanja na trg ali v uporabo. Za gospodarsko dejavnost v smislu omogočanja dostopnosti na trgu pa je lahko značilno zaračunavanje cene, razen pri prenosih med mikro podjetji, za sestavne dele proste in odprtokodne umetnointeligenčne komponente, pa tudi za tehnično podporo, zagotavljanje platforme programske opreme, prek katere ponudnik monetizira druge storitve, ali za uporabo osebnih podatkov za druge namene kot izključno za izboljšanje varnosti, združljivosti ali interoperabilnosti programske opreme.

Sprememba 34

Predlog uredbe

Uvodna izjava 12 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(12c)

Razvijalci prostih in odprtokodnih umetnointeligenčnih komponent v skladu s to uredbo ne bi smeli imeti obveznosti, da izpolnjujejo zahteve, ki so usmerjene v vrednostno verigo umetne inteligence, in zlasti ne v odnosu do proizvajalca, ki je to umetnointeligenčno komponento uporabil. Razvijalce brezplačnih in odprtokodnih umetnointeligenčnih komponent umetne inteligence pa bi bilo treba spodbujati k izvajanju splošno sprejetih dokumentacijskih praks, kot so modeli in podatkovne kartice, da bi pospešili izmenjavo informacij v vrednostni verigi umetne inteligence, kar bi omogočilo spodbujanje zaupanja vrednih umetnointeligenčnih sistemov v Uniji.

Sprememba 35

Predlog uredbe

Uvodna izjava 13

Besedilo, ki ga predlaga Komisija

Sprememba

(13)

Da bi zagotovili dosledno in visoko raven zaščite javnih interesov v zvezi z zdravjem, varnostjo in temeljnimi pravicami, bi bilo treba določiti skupne normativne standarde za vse umetnointeligenčne sisteme velikega tveganja. Ti standardi bi morali biti skladni z Listino Evropske unije temeljnih pravicah (v nadaljnjem besedilu: Listina) ter nediskriminatorni in v skladu z mednarodnimi trgovinskimi zavezami Unije.

(13)

Da bi zagotovili dosledno in visoko raven zaščite javnih interesov v zvezi z zdravjem, varnostjo in temeljnimi pravicami, pa tudi demokracijo, pravno državo in okoljem, bi bilo treba določiti skupne normativne standarde za vse umetnointeligenčne sisteme velikega tveganja. Ti standardi bi morali biti skladni z Listino , evropskim zelenim dogovorom, skupno izjavo digitalnih pravicah Unije in etičnimi smernicami strokovne skupine na visoki ravni za umetno inteligenco o zaupanja vredni umetni inteligenci,  ter nediskriminatorni in v skladu z mednarodnimi zavezami Unije.

Sprememba 36

Predlog uredbe

Uvodna izjava 14

Besedilo, ki ga predlaga Komisija

Sprememba

(14)

Za uvedbo sorazmernega in učinkovitega sklopa zavezujočih pravil za umetnointeligenčne sisteme bi bilo treba uporabiti jasno opredeljen pristop, ki temelji na tveganju. Ta pristop bi moral vrsto in vsebino takih pravil prilagoditi intenzivnosti in obsegu tveganj, ki jih lahko ustvarijo umetnointeligenčni sistemi. Zato je treba prepovedati nekatere prakse umetne inteligence, določiti zahteve za umetnointeligenčne sisteme velikega tveganja in obveznosti za zadevne operaterje ter določiti obveznosti glede preglednosti za nekatere umetnointeligenčne sisteme.

(14)

Za uvedbo sorazmernega in učinkovitega sklopa zavezujočih pravil za umetnointeligenčne sisteme bi bilo treba uporabiti jasno opredeljen pristop, ki temelji na tveganju. Ta pristop bi moral vrsto in vsebino takih pravil prilagoditi intenzivnosti in obsegu tveganj, ki jih lahko ustvarijo umetnointeligenčni sistemi. Zato je treba prepovedati nekatere nesprejemljive prakse umetne inteligence, določiti zahteve za umetnointeligenčne sisteme velikega tveganja in obveznosti za zadevne operaterje ter določiti obveznosti glede preglednosti za nekatere umetnointeligenčne sisteme.

Sprememba 37

Predlog uredbe

Uvodna izjava 15

Besedilo, ki ga predlaga Komisija

Sprememba

(15)

Poleg številnih koristnih uporab umetne inteligence je mogoče to tehnologijo tudi zlorabiti, tako da bi nastala nova in močna orodja za prakse manipulacije, izkoriščanja in družbenega nadzora. Take prakse so še posebej škodljive in bi jih bilo treba prepovedati, ker so v nasprotju z vrednotami Unije glede spoštovanja človekovega dostojanstva, svobode, enakosti, demokracije in pravne države ter temeljnimi pravicami Unije, vključno s pravico do nediskriminacije, varstva podatkov in zasebnosti ter pravicami otroka.

(15)

Poleg številnih koristnih uporab umetne inteligence je mogoče to tehnologijo tudi zlorabiti, tako da bi nastala nova in močna orodja za prakse manipulacije, izkoriščanja in družbenega nadzora. Take prakse so še posebej škodljive in zlonamerne in bi jih bilo treba prepovedati, ker so v nasprotju z vrednotami Unije glede spoštovanja človekovega dostojanstva, svobode, enakosti, demokracije in pravne države ter temeljnimi pravicami Unije, vključno s pravico do nediskriminacije, varstva podatkov in zasebnosti ter pravicami otroka.

Sprememba 38

Predlog uredbe

Uvodna izjava 16

Besedilo, ki ga predlaga Komisija

Sprememba

(16)

Prepovedati bi bilo treba dajanje na trg, v obratovanje ali uporabo nekaterih umetnointeligenčnih sistemov, namenjenih izkrivljanju človekovega vedenja, pri katerem obstaja verjetnost pojava fizične ali psihične škode. Taki umetnointeligenčni sistemi uporabljajo subliminalne komponente, ki jih posamezniki ne morejo zaznati, ali izkoriščajo šibke točke otrok in ljudi zaradi njihove starosti, telesne ali duševne nezmožnosti. To počnejo z namenom , da bi bistveno izkrivili vedenje osebe, in na način, ki tej ali drugi osebi povzroči ali bi ji lahko povzročil škodo. Namena ni mogoče predpostavljati, če je izkrivljanje človekovega vedenja posledica dejavnikov zunaj umetnointeligenčnega sistema in na katere ponudnik ali uporabnik ne more vplivati. Prepoved ne bi smela ovirati raziskav za zakonite namene v zvezi s takimi umetnointeligenčnimi sistemi, če take raziskave ne pomenijo uporabe umetnointeligenčnega sistema v odnosih med človekom in strojem, ki bi fizične osebe izpostavila škodi, ter če se take raziskave izvajajo v skladu s priznanimi etičnimi standardi za znanstvene raziskave.

(16)

Prepovedati bi bilo treba dajanje na trg, v obratovanje ali uporabo nekaterih umetnointeligenčnih sistemov, ki so namenjeni dejanskem izkrivljanju človekovega vedenja, pri katerem obstaja verjetnost pojava fizične ali psihične škode ali je to njihov učinek. To omejitev bi bilo treba razumeti tako, da vključuje nevrotehnologije, ki se opirajo na umetnointeligenčne sisteme, ki se uporabljajo za spremljanje, uporabo ali vplivanje na nevronske podatke, zbrane prek vmesnikov možganskih računalnikov, če bistveno izkrivljajo vedenje fizične osebe na način, ki tej osebi ali drugi osebi povzroča ali bi lahko povzročil znatno škodo. Taki umetnointeligenčni sistemi uporabljajo subliminalne komponente, ki jih posamezniki ne morejo zaznati, ali izkoriščajo šibke točke posameznikov in določenih skupin ljudi zaradi njihovih znanih ali predvidenih osebnostnih lastnosti, njihove starosti, fizične ali duševne nezmožnosti ter socialnega ali ekonomskega položaja . Uporabljajo se s ciljem , da bi bistveno izkrivili vedenje osebe, in na način, ki tej ali drugi osebi oziroma skupinam oseb povzroči ali bi jim lahko povzročil znatno škodo , tudi tako, ki se lahko sčasoma nakopiči, ali je njihov učinek tako škodljiv . Namena izkrivljanja vedenja ni mogoče predpostavljati, če je izkrivljanje človekovega vedenja posledica dejavnikov zunaj umetnointeligenčnega sistema in na katere ponudnik ali uporabnik ne more vplivati , na primer dejavnikov, ki jih ponudnik ali uvajalec umetnointeligenčnih sistemov ne more razumno predvideti in ublažiti. V vsakem primeru ni potrebno, da ima ponudnik ali uvajalec namen povzročiti znatno škodo, če takšna škoda izhaja iz manipulativnih ali izkoriščevalskih praks, ki jih omogoča umetna inteligenca. Prepovedi takih praks umetne inteligence dopolnjujejo določbe iz Direktive 2005/29/ES, v skladu s katerimi so nepoštene poslovne prakse prepovedane, ne glede na to, ali se izvajajo z uporabo umetnointeligenčnih sistemov ali drugače. V takem okviru se zakonite poslovne prakse, na primer na področju oglaševanja, ki so skladne s pravom Unije, same po sebi ne bi smele šteti za kršitve prepovedi. Prepoved ne bi smela ovirati raziskav za zakonite namene v zvezi s takimi umetnointeligenčnimi sistemi, če take raziskave ne pomenijo uporabe umetnointeligenčnega sistema v odnosih med človekom in strojem, ki bi fizične osebe izpostavila škodi, ter če se take raziskave izvajajo v skladu s priznanimi etičnimi standardi za znanstvene raziskave in temeljijo na izrecni informirani privolitvi posameznikov, ki so ji izpostavljeni, ali po potrebi njihovih skrbnikov .

Sprememba 39

Predlog uredbe

Uvodna izjava 16 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(16a)

Umetnointeligenčni sistemi, ki fizične osebe razvrščajo v posebne kategorije glede na znane ali domnevne občutljive ali zaščitene značilnosti, so še posebej vsiljivi, kršijo človekovo dostojanstvo in predstavljajo veliko tveganje za diskriminacijo. Te lastnosti med drugim zajemajo spol in spolno identiteto, raso, narodnost, migracijski ali državljanski status, politično usmerjenost, spolno usmerjenost, vero, invalidnost ali kateri koli drug razlog, zaradi katerega je diskriminacija prepovedana v skladu s členom 21 Listine EU o temeljnih pravicah in členom 9 Uredbe (EU) 2016/769. Take sisteme bi bilo zato treba prepovedati.

Sprememba 40

Predlog uredbe

Uvodna izjava 17

Besedilo, ki ga predlaga Komisija

Sprememba

(17)

Umetnointeligenčni sistemi, ki zagotavljajo družbeno točkovanje fizičnih oseb za splošne namene s strani javnih organov ali v njihovem imenu, lahko vodijo do diskriminatornih rezultatov in izključitve nekaterih skupin. Lahko kršijo pravico do dostojanstva in nediskriminacije ter vrednote enakosti in pravičnosti. Taki umetnointeligenčni sistemi ocenjujejo ali razvrščajo zanesljivost fizičnih oseb na podlagi njihovega družbenega vedenja v več kontekstih ali znanih ali predvidenih osebnih ali osebnostnih značilnostih. Število družbenih točk, pridobljenih s takimi umetnointeligenčni sistemi, lahko vodi do škodljivega ali neugodnega obravnavanja fizičnih oseb ali njihovih celotnih skupin v družbenih kontekstih, ki niso povezani s kontekstom, v katerem so bili podatki prvotno ustvarjeni ali zbrani, ali do škodljivega obravnavanja, ki je nesorazmerno ali neupravičeno glede na resnost njihovega družbenega vedenja. Take umetnointeligenčne sisteme bi bilo zato treba prepovedati.

(17)

Umetnointeligenčni sistemi, ki zagotavljajo družbeno točkovanje fizičnih oseb za splošne namene lahko vodijo do diskriminatornih rezultatov in izključitve nekaterih skupin. Kršijo pravico do dostojanstva in nediskriminacije ter vrednote enakosti in pravičnosti. Taki umetnointeligenčni sistemi ocenjujejo ali razvrščajo zanesljivost ali družbeni položaj fizičnih oseb ali skupin na podlagi več podatkovnih točk in časovnih dogodkov, povezanih z njihovim družbenim vedenjem v več kontekstih ali znanih , predpostavljenih ali predvidenih osebnih ali osebnostnih značilnostih. Število družbenih točk, pridobljenih s takimi umetnointeligenčni sistemi, lahko vodi do škodljivega ali neugodnega obravnavanja fizičnih oseb ali njihovih celotnih skupin v družbenih kontekstih, ki niso povezani s kontekstom, v katerem so bili podatki prvotno ustvarjeni ali zbrani, ali do škodljivega obravnavanja, ki je nesorazmerno ali neupravičeno glede na resnost njihovega družbenega vedenja. Take umetnointeligenčne sisteme bi bilo zato treba prepovedati.

Sprememba 41

Predlog uredbe

Uvodna izjava 18

Besedilo, ki ga predlaga Komisija

Sprememba

(18)

Uporaba umetnointeligenčnih sistemov za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj velja za posebno hudo poseganje v pravice in svoboščine zadevnih oseb, če lahko vpliva na zasebno življenje velikega dela prebivalstva, vzbuja občutek stalnega nadzora ter posredno odvrača od uresničevanja svobode zbiranja in drugih temeljnih pravic. Poleg tega se zaradi takojšnjega učinka in omejenih možnosti za nadaljnja preverjanja ali popravke v zvezi z uporabo takih sistemov, ki delujejo v „realnem času“, povečujejo tveganja za pravice in svoboščine oseb, ki jih zadevajo dejavnosti preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.

(18)

Uporaba umetnointeligenčnih sistemov za biometrično identifikacijo fizičnih oseb v javno dostopnih prostorih še posebno vdira v pravice in svoboščine zadevnih oseb, in lahko na koncu vpliva na zasebno življenje velikega dela prebivalstva, vzbuja v družbi občutek stalnega nadzora , daje subjektom, ki uvajajo biometrično identifikacijo v javno dostopnih prostorih, položaj nenadzorovane moči ter posredno odvrača posameznike od uresničevanja svobode zbiranja in drugih temeljnih pravic , ki so v samem bistvu pravne države. Tehnične netočnosti umetnointeligenčnih sistemov, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. To velja zlasti za starost, etnično pripadnost, spol ali invalidnost . Poleg tega se zaradi takojšnjega učinka in omejenih možnosti za nadaljnja preverjanja ali popravke v zvezi z uporabo takih sistemov, ki delujejo v „realnem času“, povečujejo tveganja za pravice in svoboščine oseb, ki jih zadevajo dejavnosti preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Zato bi bilo treba uporabo teh sistemov v javno dostopnih prostorih prepovedati. Podobno bi bilo treba prepovedati tudi umetnointeligenčne sisteme, ki se uporabljajo za analizo evidentiranih posnetkov javno dostopnih prostorov prek sistemov za naknadno biometrično identifikacijo na daljavo, razen če obstaja predhodno dovoljenje za uporabo v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, kadar je to nujno potrebno za ciljno iskanje, povezano z določenim hudim kaznivim dejanjem, ki je že bilo storjeno, in le na podlagi predhodnega dovoljenja.

Sprememba 42

Predlog uredbe

Uvodna izjava 19

Besedilo, ki ga predlaga Komisija

Sprememba

(19)

Zato bi bilo treba prepovedati uporabo teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen v treh izčrpno naštetih in ozko opredeljenih primerih, ko je uporaba nujno potrebna za dosego pomembnega javnega interesa, katerega pomen prevlada nad tveganji. V teh primerih gre za iskanje morebitnih žrtev kaznivih dejanj, vključno s pogrešanimi otroki; nekatere nevarnosti za življenje ali fizično varnost oseb ali varnost pred terorističnim napadom ter odkrivanje, lokalizacijo, identifikacijo ali pregon storilcev ali osumljencev kaznivih dejanj iz Okvirnega sklepa Sveta 2002/584/PNZ  (38) , če se ta kazniva dejanja v zadevni državi članici kaznujejo z zaporno kaznijo ali ukrepom, vezanim na odvzem prostosti najmanj treh let, in so opredeljena v zakonodaji te države članice. Tak prag za zaporno kazen ali ukrep, vezan na odvzem prostosti, v skladu z nacionalnim pravom prispeva k zagotavljanju, da je kaznivo dejanje dovolj hudo, da bi lahko upravičilo uporabo sistemov za biometrično identifikacijo na daljavo v realnem času. Poleg tega bodo nekatera od 32 kaznivih dejanj, navedenih v Okvirnem sklepu Sveta 2002/584/PNZ, v praksi verjetno pomembnejša od drugih, saj bo uporaba biometrične identifikacije na daljavo v realnem času predvidoma potrebna in sorazmerna v zelo različnem obsegu za praktično odkrivanje, lokalizacijo, identifikacijo ali pregon storilca ali osumljenca različnih navedenih kaznivih dejanj ter ob upoštevanju verjetnih razlik v resnosti, verjetnosti in obsegu škode ali možnih negativnih posledic.

črtano

Sprememba 43

Predlog uredbe

Uvodna izjava 20

Besedilo, ki ga predlaga Komisija

Sprememba

(20)

Za zagotovitev odgovorne in sorazmerne uporabe teh sistemov je pomembno tudi določiti, da bi bilo treba v vsakem od teh treh izčrpno naštetih in ozko opredeljenih primerov upoštevati nekatere elemente, zlasti glede narave razmer, zaradi katerih je bila zahteva vložena, ter posledic uporabe za pravice in svoboščine vseh zadevnih oseb ter zaščitnih ukrepov in pogojev, predvidenih z uporabo. Poleg tega bi bilo treba za uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj določiti ustrezne časovne in prostorske omejitve, zlasti ob upoštevanju dokazov ali znamenj glede groženj, žrtev ali storilca. Referenčna podatkovna zbirka o osebah bi morala biti primerna za vsak primer uporabe v vsakem od treh zgoraj navedenih primerov.

črtano

Sprememba 44

Predlog uredbe

Uvodna izjava 21

Besedilo, ki ga predlaga Komisija

Sprememba

(21)

Za vsako uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj bi bilo treba pridobiti izrecno in posebno dovoljenje pravosodnega organa ali neodvisnega upravnega organa države članice. Tako dovoljenje bi bilo treba načeloma pridobiti pred uporabo, razen v ustrezno utemeljenih nujnih primerih, tj. primerih, ko je potreba po uporabi zadevnih sistemov taka, da je dejansko in objektivno nemogoče pridobiti dovoljenje pred začetkom uporabe. V takih nujnih primerih bi bilo treba uporabo omejiti na absolutni minimum, zanjo pa bi morali veljati ustrezni zaščitni ukrepi in pogoji, kot jih določa nacionalno pravo ter kot jih v okviru vsakega posameznega primera nujne uporabe določi organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj. Poleg tega bi si moral organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj v takih primerih prizadevati za čimprejšnjo pridobitev dovoljenja in hkrati podati razloge, zakaj ga ni mogel zahtevati prej.

črtano

Sprememba 45

Predlog uredbe

Uvodna izjava 22

Besedilo, ki ga predlaga Komisija

Sprememba

(22)

Poleg tega je v izčrpnem okviru, določenem s to uredbo, primerno določiti, da bi morala biti taka uporaba na ozemlju države članice v skladu s to uredbo mogoča le, kadar in v kolikor se je zadevna država članica odločila izrecno predvideti možnost odobritve take uporabe v svojih podrobnih pravilih nacionalnega prava. Zato imajo države članice v skladu s to uredbo še naprej možnost, da take možnosti sploh ne predvidijo ali da jo predvidijo le za nekatere cilje, ki lahko upravičijo dovoljeno uporabo, opredeljeno v tej uredbi.

črtano

Sprememba 46

Predlog uredbe

Uvodna izjava 23

Besedilo, ki ga predlaga Komisija

Sprememba

(23)

Uporaba umetnointeligenčnih sistemov za biometrično identifikacijo fizičnih oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj nujno vključuje obdelavo biometričnih podatkov. Pravila te uredbe, ki ob upoštevanju nekaterih izjem prepovedujejo tako uporabo, ki temelji na členu 16 PDEU, bi se morala uporabljati kot lex specialis v zvezi s pravili o obdelavi biometričnih podatkov iz člena 10 Direktive (EU) 2016/680, tako da bi izčrpno urejala tako uporabo in obdelavo zadevnih biometričnih podatkov. Zato bi morali biti taki uporaba in obdelava mogoči le, če sta združljivi z okvirom iz te uredbe, ne da bi zunaj tega okvira obstajalo področje uporabe za pristojne organe, kadar delujejo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, za uporabo takih sistemov in obdelavo takih podatkov v zvezi z njimi na podlagi razlogov iz člena 10 Direktive (EU) 2016/680. V tem smislu ta uredba ni namenjena zagotavljanju pravne podlage za obdelavo osebnih podatkov v skladu s členom 8 Direktive (EU) 2016/680. Vendar uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, tudi s strani pristojnih organov, ne bi smela biti zajeta v posebni okvir v zvezi s tako uporabo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, določene s to uredbo. Za tako uporabo za namene, ki niso preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, zato ne bi smela veljati zahteva po dovoljenju v skladu s to uredbo in veljavnimi podrobnimi pravili nacionalnega prava, ki jo lahko uveljavljajo.

črtano

Sprememba 47

Predlog uredbe

Uvodna izjava 24

Besedilo, ki ga predlaga Komisija

Sprememba

(24)

Pri vsaki obdelavi biometričnih podatkov in drugih osebnih podatkov, povezanih z uporabo umetnointeligenčnih sistemov za biometrično identifikacijo, razen v povezavi z uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj , kot jo ureja ta uredba , tudi kadar te sisteme uporabljajo pristojni organi v javno dostopnih prostorih za druge namene kot za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj , bi morale biti še naprej izpolnjene vse zahteve, ki izhajajo iz člena 9(1) Uredbe (EU) 2016/679, člena 10(1) Uredbe (EU) 2018/1725 in člena 10 Direktive (EU) 2016/680, kot je ustrezno.

(24)

Pri vsaki obdelavi biometričnih podatkov in drugih osebnih podatkov, povezanih z uporabo umetnointeligenčnih sistemov za biometrično identifikacijo, razen v povezavi z uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih, kot jo ureja ta uredba, bi morale biti še naprej izpolnjene vse zahteve, ki izhajajo iz člena 9(1) Uredbe (EU) 2016/679, člena 10(1) Uredbe (EU) 2018/1725 in člena 10 Direktive (EU) 2016/680, kot je ustrezno.

Sprememba 48

Predlog uredbe

Uvodna izjava 25

Besedilo, ki ga predlaga Komisija

Sprememba

(25)

V skladu s členom 6a Protokola št. 21 o stališču Združenega kraljestva in Irske v zvezi z območjem svobode, varnosti in pravice, ki je priložen k PEU in k PDEU, pravila iz člena 5(1), točke (d) , (2) in (3) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU, za Irsko niso zavezujoča, če je ne zavezujejo pravila, ki urejajo oblike pravosodnega sodelovanja v kazenskih zadevah ali policijskega sodelovanja, v okviru katerih je treba upoštevati določbe predpisov, sprejetih na podlagi člena 16 PDEU.

(25)

V skladu s členom 6a Protokola št. 21 o stališču Združenega kraljestva in Irske v zvezi z območjem svobode, varnosti in pravice, ki je priložen k PEU in k PDEU, pravila iz člena 5(1), točke (d) te uredbe, sprejeta na podlagi člena 16 PDEU, ki se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU, za Irsko niso zavezujoča, če je ne zavezujejo pravila, ki urejajo oblike pravosodnega sodelovanja v kazenskih zadevah ali policijskega sodelovanja, v okviru katerih je treba upoštevati določbe predpisov, sprejetih na podlagi člena 16 PDEU.

Sprememba 49

Predlog uredbe

Uvodna izjava 26

Besedilo, ki ga predlaga Komisija

Sprememba

(26)

V skladu s členoma 2 in 2a Protokola št. 22 o stališču Danske, ki je priložen PEU in PDEU, Danske ne zavezujejo in se zanjo ne uporabljajo pravila, ki so določena v členu 5(1), točki (d) , (2) in (3) te uredbe, sprejeta na podlagi člena 16 PDEU in se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU.

(26)

V skladu s členoma 2 in 2a Protokola št. 22 o stališču Danske, ki je priložen PEU in PDEU, Danske ne zavezujejo in se zanjo ne uporabljajo pravila, ki so določena v členu 5(1), točki (d) te uredbe, sprejeta na podlagi člena 16 PDEU in se nanašajo na obdelavo osebnih podatkov s strani držav članic, kadar izvajajo dejavnosti, ki spadajo na področje uporabe poglavja 4 ali 5 naslova V tretjega dela PDEU.

Sprememba 50

Predlog uredbe

Uvodna izjava 26 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(26a)

Umetnointeligenčni sistemi, ki jih uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali se uporabljajo v njihovem imenu za napovedovanje, izdelavo profilov ali ocen tveganja na podlagi analize podatkov ali profiliranja skupin fizičnih oseb, vključno z lokacijo teh oseb, ali preteklih kaznivih dejanj fizičnih oseb ali skupin fizičnih oseb z namenom napovedovanja verjetnosti storitve ali ponovitve dejanskega ali morebitnega kaznivega dejanja ali dejanj ali drugega kriminaliziranega družbenega vedenja ali prekrškov, vključno s sistemi napovedovanja goljufij, predstavljajo posebno tveganje diskriminacije določenih oseb ali skupin oseb, saj kršijo človekovo dostojanstvo in ključno pravno načelo domneve nedolžnosti. Takšne umetnointeligenčne sisteme bi bilo zato treba prepovedati.

Sprememba 51

Predlog uredbe

Uvodna izjava 26 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(26b)

Neselektivno in neciljno pridobivanje biometričnih podatkov z družbenih medijev ali posnetkov kamer CCTV za vzpostavitev ali razširitev podatkovnih zbirk za prepoznavanje obrazov povečuje občutek množičnega nadzora in lahko privede do hudih kršitev temeljnih pravic, vključno s pravico do zasebnosti. Zato bi bilo treba uporabo umetnointeligenčnih sistemov za te namene prepovedati.

Sprememba 52

Predlog uredbe

Uvodna izjava 26 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(26c)

Obstajajo resni pomisleki glede znanstvene podlage umetnointeligenčnih sistemov, namenjenih ugotavljanju čustev, fizičnih ali fizioloških značilnosti, kot so obrazni izrazi, gibi, frekvenca utripa ali glas. Čustva ali izrazi čustev in njihovo dojemanje se zelo razlikujejo v različnih kulturah, situacijah in celo pri isti osebi. Med glavnimi pomanjkljivostmi tovrstnih tehnologij so omejena zanesljivost (kategorije čustev se ne izražajo zanesljivo skozi enoten nabor fizičnih ali fizioloških gibov, niti se z njimi nedvoumno ne povezujejo), premajhna specifičnost (fizični ali fiziološki izrazi se ne skladajo popolnoma s kategorijami čustev) in omejena možnost posplošitve (vplivi konteksta in kulture niso dovolj upoštevani). Težave z zanesljivostjo in posledično velika tveganja za zlorabe se lahko pojavijo zlasti pri uporabi sistema v resničnih situacijah, povezanih s preprečevanjem, odkrivanjem in preiskovanjem kaznivih dejanj, upravljanjem meja, delovnimi mesti in izobraževalnimi ustanovami. Zato bi bilo treba dajanje na trg ali v obratovanje in uporabo umetnointeligenčnih sistemov, ki naj bi se uporabljali za odkrivanje čustvenih stanj posameznikov, prepovedati.

Sprememba 53

Predlog uredbe

Uvodna izjava 26 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(26d)

Ta uredba ne bi smela vplivati na prakse, ki jih zakonodaja Unije prepoveduje, vključno s pravom o varstvu podatkov, pravom o nediskriminaciji, pravom o varstvu potrošnikov in konkurenčnim pravom.

Sprememba 54

Predlog uredbe

Uvodna izjava 27

Besedilo, ki ga predlaga Komisija

Sprememba

(27)

Umetnointeligenčne sisteme velikega tveganja bi bilo treba dati na trg Unije ali v uporabo le, če izpolnjujejo nekatere obvezne zahteve. Navedene zahteve bi morale zagotoviti, da umetnointeligenčni sistemi velikega tveganja, ki so na voljo v Uniji ali katerih izhodni podatki se drugače uporabljajo v Uniji, ne predstavljajo nesprejemljivega tveganja za pomembne javne interese Unije, kot jih priznava in varuje pravo Unije. Umetnointeligenčni sistemi, določeni za sisteme velikega tveganja, bi morali biti omejeni na tiste, ki imajo znaten škodljiv vpliv na zdravje, varnost in temeljne pravice oseb v Uniji, taka omejitev pa bi morala čim bolj zmanjšati morebitno omejevanje mednarodne trgovine.

(27)

Umetnointeligenčne sisteme velikega tveganja bi bilo treba dati na trg Unije , v obratovanje ali v uporabo le, če izpolnjujejo nekatere obvezne zahteve. Navedene zahteve bi morale zagotoviti, da umetnointeligenčni sistemi velikega tveganja, ki so na voljo v Uniji ali katerih izhodni podatki se drugače uporabljajo v Uniji, ne predstavljajo nesprejemljivega tveganja za pomembne javne interese Unije, kot jih priznava in varuje pravo Unije , vključno s temeljnimi pravicami, demokracijo, pravno državo ali okoljem. Zaradi skladnosti s sektorsko zakonodajo in v izogib podvajanju bi bilo treba pri zahtevah za umetnointeligenčne sisteme velikega tveganja upoštevati sektorsko zakonodajo, ki določa zahteve za umetnointeligenčne sisteme velikega tveganja, vključene v področje uporabe te uredbe, kot so Uredba (EU) 2017/745 o medicinskih pripomočkih, Uredba (EU) 2017/746 o in vitro diagnostičnih medicinskih pripomočkih ali Direktiva 2006/42/ES o strojih . Umetnointeligenčni sistemi, določeni za sisteme velikega tveganja, bi morali biti omejeni na tiste, ki imajo znaten škodljiv vpliv na zdravje, varnost in temeljne pravice oseb v Uniji, taka omejitev pa bi morala čim bolj zmanjšati morebitno omejevanje mednarodne trgovine. Zaradi hitrega tehnološkega razvoja in morebitnih sprememb pri uporabi umetnointeligenčnih sistemov bi bilo treba seznam področij z visokim tveganjem in primerov uporabe iz Priloge III kljub temu stalno pregledovati z rednim ocenjevanjem.

Sprememba 55

Predlog uredbe

Uvodna izjava 28

Besedilo, ki ga predlaga Komisija

Sprememba

(28)

Umetnointeligenčni sistemi bi lahko imeli škodljiv učinek na zdravje in varnost ljudi, zlasti kadar taki sistemi delujejo kot komponente proizvodov. V skladu s cilji harmonizacijske zakonodaje Unije, da se olajša prosti pretok proizvodov na notranjem trgu ter zagotovi, da na trg pridejo le varni in skladni proizvodi, je pomembno, da se ustrezno preprečijo in zmanjšajo varnostna tveganja, ki jih lahko povzroči proizvod kot celota zaradi svojih digitalnih komponent, vključno z umetnointeligenčnimi sistemi. Na primer vse bolj avtonomni roboti, ki se uporabljajo v proizvodnji ali za osebno pomoč in oskrbo, bi morali biti sposobni varno delovati in opravljati svoje funkcije v zapletenih okoljih. Podobno bi morali biti v zdravstvenem sektorju, v katerem je tveganje za življenje in zdravje še posebej veliko, vse bolj izpopolnjeni diagnostični sistemi in sistemi, ki podpirajo človeške odločitve, zanesljivi in točni. Pri razvrstitvi umetnointeligenčnega sistema kot sistema velikega tveganja je zlasti pomemben obseg škodljivega vpliva umetnointeligenčnega sistema na temeljne pravice, varovane z listino. Te pravice vključujejo pravico do človekovega dostojanstva, spoštovanja zasebnega in družinskega življenja, varstva osebnih podatkov, svobode izražanja in obveščanja, svobode zbiranja in združevanja ter nediskriminacije, varstva potrošnikov, pravic delavcev, pravic invalidov, pravice do učinkovitega pravnega sredstva in nepristranskega sodišča, pravice do obrambe in domneve nedolžnosti ter pravice do dobrega upravljanja. Poleg teh pravic je treba poudariti, da imajo otroci posebne pravice, zapisane v členu 24 Listine EU in Konvenciji Združenih narodov o otrokovih pravicah (v zvezi z digitalnim okoljem so podrobneje opredeljene v splošni pripombi št. 25 KOP), ki zahtevata upoštevanje šibkih točk otrok ter zagotavljanje zaščite in varstva, ki sta potrebna za njihovo dobro počutje. Pri ocenjevanju resnosti škode, ki jo lahko povzroči umetnointeligenčni sistem, je treba upoštevati tudi temeljno pravico do visoke ravni varstva okolja, ki je zapisana v Listini in se izvaja v politikah Unije, tudi v zvezi z zdravjem in varnostjo oseb.

(28)

Umetnointeligenčni sistemi bi lahko imeli škodljiv učinek na zdravje in varnost ljudi, zlasti kadar taki sistemi delujejo kot varnostne komponente proizvodov. V skladu s cilji harmonizacijske zakonodaje Unije, da se olajša prosti pretok proizvodov na notranjem trgu ter zagotovi, da na trg pridejo le varni in skladni proizvodi, je pomembno, da se ustrezno preprečijo in zmanjšajo varnostna tveganja, ki jih lahko povzroči proizvod kot celota zaradi svojih digitalnih komponent, vključno z umetnointeligenčnimi sistemi. Na primer vse bolj avtonomni roboti, ki se uporabljajo v proizvodnji ali za osebno pomoč in oskrbo, bi morali biti sposobni varno delovati in opravljati svoje funkcije v zapletenih okoljih. Podobno bi morali biti v zdravstvenem sektorju, v katerem je tveganje za življenje in zdravje še posebej veliko, vse bolj izpopolnjeni diagnostični sistemi in sistemi, ki podpirajo človeške odločitve, zanesljivi in točni.

Sprememba 56

Predlog uredbe

Uvodna izjava 28 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(28a)

Pri razvrstitvi umetnointeligenčnega sistema kot sistema velikega tveganja je zlasti pomemben obseg škodljivega vpliva umetnointeligenčnega sistema na temeljne pravice, varovane z Listino. Te pravice vključujejo pravico do človekovega dostojanstva, spoštovanja zasebnega in družinskega življenja, varstva osebnih podatkov, svobode izražanja in obveščanja, svobode zbiranja in združevanja ter nediskriminacije, izobraževanja, varstva potrošnikov, pravice delavcev, pravice invalidov, enakost spolov, pravice intelektualne lastnine, pravico do učinkovitega pravnega sredstva in nepristranskega sodišča, pravico do obrambe in domneve nedolžnosti ter dobrega upravljanja. Poleg teh pravic je treba poudariti, da imajo otroci posebne pravice, zapisane v členu 24 Listine EU in Konvenciji Združenih narodov o otrokovih pravicah (v zvezi z digitalnim okoljem so podrobneje opredeljene v splošni pripombi št. 25 KOP), ki zahtevata upoštevanje šibkih točk otrok ter zagotavljanje zaščite in varstva, ki sta potrebna za njihovo dobro počutje. Pri ocenjevanju resnosti škode, ki jo lahko povzroči umetnointeligenčni sistem, je treba upoštevati tudi temeljno pravico do visoke ravni varstva okolja, ki je zapisana v Listini in se izvaja v politikah Unije, tudi v zvezi z zdravjem in varnostjo oseb ali okoljem.

Sprememba 57

Predlog uredbe

Uvodna izjava 29

Besedilo, ki ga predlaga Komisija

Sprememba

(29)

Kar zadeva umetnointeligenčne sisteme velikega tveganja, ki so varnostne komponente proizvodov ali sistemov ali ki so sami proizvodi ali sistemi s področja uporabe Uredbe (ES) št. 300/2008 Evropskega parlamenta in Sveta (39), Uredbe (EU) št. 167/2013 Evropskega parlamenta in Sveta (40), Uredbe (EU) št. 168/2013 Evropskega parlamenta in Sveta (41), Direktive 2014/90/EU Evropskega parlamenta in Sveta (42), Direktive (EU) 2016/797 Evropskega parlamenta in Sveta (43), Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta (44), Uredbe (EU) 2018/1139 Evropskega parlamenta in Sveta (45) in Uredbe (EU) 2019/2144 Evropskega parlamenta in Sveta (46), je primerno navedene akte spremeniti, da se zagotovi, da Komisija na podlagi tehničnih in regulativnih posebnosti vsakega sektorja ter brez poseganja v obstoječe mehanizme in organe upravljanja, ugotavljanja skladnosti in izvrševanja, vzpostavljene v teh sektorjih, pri sprejemanju vseh ustreznih prihodnjih delegiranih ali izvedbenih aktov na podlagi navedenih aktov upošteva obvezne zahteve za umetnointeligenčne sisteme velikega tveganja, določene v tej uredbi.

(29)

Kar zadeva umetnointeligenčne sisteme velikega tveganja, ki so varnostne komponente proizvodov ali sistemov ali ki so sami proizvodi ali sistemi s področja uporabe Uredbe (ES) št. 300/2008 Evropskega parlamenta in Sveta (39), Uredbe (EU) št. 167/2013 Evropskega parlamenta in Sveta (40), Uredbe (EU) št. 168/2013 Evropskega parlamenta in Sveta (41), Direktive 2014/90/EU Evropskega parlamenta in Sveta (42), Direktive (EU) 2016/797 Evropskega parlamenta in Sveta (43), Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta (44), Uredbe (EU) 2018/1139 Evropskega parlamenta in Sveta (45) in Uredbe (EU) 2019/2144 Evropskega parlamenta in Sveta (46), je primerno navedene akte spremeniti, da se zagotovi, da Komisija na podlagi tehničnih in regulativnih posebnosti vsakega sektorja ter brez poseganja v obstoječe mehanizme in organe upravljanja, ugotavljanja skladnosti , tržnega nadzora in izvrševanja, vzpostavljene v teh sektorjih, pri sprejemanju vseh ustreznih prihodnjih delegiranih ali izvedbenih aktov na podlagi navedenih aktov upošteva obvezne zahteve za umetnointeligenčne sisteme velikega tveganja, določene v tej uredbi.

Sprememba 58

Predlog uredbe

Uvodna izjava 30

Besedilo, ki ga predlaga Komisija

Sprememba

(30)

Kar zadeva umetnointeligenčne sisteme, ki so varnostne komponente proizvodov ali ki so sami proizvodi s področja uporabe določene harmonizacijske zakonodaje Unije, jih je primerno v skladu s to uredbo razvrstiti kot sisteme velikega tveganja, če je zadevni proizvod v postopku ugotavljanja skladnosti pri organu, ki kot tretja stran izvaja ugotavljanje skladnosti v skladu z ustrezno harmonizacijsko zakonodajo Unije. Taki proizvodi so zlasti stroji, igrače, dvigala, oprema in zaščitni sistemi za uporabo v potencialno eksplozivnih atmosferah, radijska oprema, tlačna oprema, oprema za plovila za rekreacijo, žičniške naprave, naprave, v katerih zgoreva plinasto gorivo, medicinski pripomočki ter in vitro diagnostični medicinski pripomočki.

(30)

Kar zadeva umetnointeligenčne sisteme, ki so varnostne komponente proizvodov ali ki so sami proizvodi s področja uporabe določene harmonizacijske zakonodaje Unije iz Priloge II , jih je primerno v skladu s to uredbo razvrstiti kot sisteme velikega tveganja, če je zadevni proizvod v postopku ugotavljanja skladnosti pri organu, ki kot tretja stran izvaja ugotavljanje skladnosti v skladu z ustrezno harmonizacijsko zakonodajo Unije , da bi se zagotovilo izpolnjevanje bistvenih varnostnih zahtev . Taki proizvodi so zlasti stroji, igrače, dvigala, oprema in zaščitni sistemi za uporabo v potencialno eksplozivnih atmosferah, radijska oprema, tlačna oprema, oprema za plovila za rekreacijo, žičniške naprave, naprave, v katerih zgoreva plinasto gorivo, medicinski pripomočki ter in vitro diagnostični medicinski pripomočki.

Sprememba 59

Predlog uredbe

Uvodna izjava 31

Besedilo, ki ga predlaga Komisija

Sprememba

(31)

Razvrstitev umetnointeligenčnega sistema kot sistema velikega tveganja v skladu s to uredbo ne bi smela nujno pomeniti, da se proizvod, katerega varnostna komponenta je umetnointeligenčni sistem, ali sam umetnointeligenčni sistem kot proizvod šteje za „sistem velikega tveganja“ v skladu z merili iz ustrezne harmonizacijske zakonodaje Unije, ki se uporablja za proizvod. To velja zlasti za Uredbo (EU) 2017/745 Evropskega parlamenta in Sveta (47) ter Uredbo (EU) 2017/746 Evropskega parlamenta in Sveta (48) , kadar je za proizvode srednjega in velikega tveganja predvideno ugotavljanje skladnosti s strani tretjih oseb.

(31)

Razvrstitev umetnointeligenčnega sistema kot sistema velikega tveganja v skladu s to uredbo ne bi smela pomeniti, da se proizvod, katerega varnostna komponenta je umetnointeligenčni sistem, ali sam umetnointeligenčni sistem kot proizvod šteje za „sistem velikega tveganja“ v skladu z merili iz ustrezne harmonizacijske zakonodaje Unije, ki se uporablja za proizvod. To velja zlasti za Uredbo (EU) 2017/745 Evropskega parlamenta in Sveta (47) ter Uredbo (EU) 2017/746 Evropskega parlamenta in Sveta (48), kadar je za proizvode srednjega in velikega tveganja predvideno ugotavljanje skladnosti s strani tretjih oseb.

Sprememba 60

Predlog uredbe

Uvodna izjava 32

Besedilo, ki ga predlaga Komisija

Sprememba

(32)

Kar zadeva samostojne umetnointeligenčne sisteme, tj. umetnointeligenčne sisteme velikega tveganja, razen tistih, ki so varnostne komponente proizvodov ali ki so sami proizvodi, jih je primerno razvrstiti kot sisteme velikega tveganja, če glede na svoj predvideni namen predstavljajo veliko tveganje škode za zdravje in varnost ali temeljne pravice oseb, ob upoštevanju resnosti možne škode in verjetnosti njenega nastanka , ter se uporabljajo na več posebej vnaprej opredeljenih področjih , določenih Uredbi . Določitev teh sistemov temelji na enaki metodologiji in merilih, predvidenih tudi za morebitne prihodnje spremembe seznama umetnointeligenčnih sistemov velikega tveganja.

(32)

Kar zadeva samostojne umetnointeligenčne sisteme, tj. umetnointeligenčne sisteme velikega tveganja, razen tistih, ki so varnostne komponente proizvodov ali ki so sami proizvodi in so našteti med področji in primeri uporabe v Prilogi III , jih je primerno razvrstiti kot sisteme velikega tveganja, če glede na svoj namen predstavljajo znatno tveganje škode za zdravje in varnost ali temeljne pravice oseb, v primeru, da se umetnointeligenčni sistem uporablja kot varnostna komponenta kritične infrastrukture, pa tudi za okolje. Tako znatno tveganje škode bi bilo treba opredeliti tako, da se na eni strani oceni njegov učinek glede na kombinacijo njegove stopnje resnosti , intenzivnosti, verjetnosti nastanka in trajanja, na drugi strani pa , ali lahko tveganje vpliva na posameznika, več oseb ali določeno skupino oseb. Pri taki kombinaciji dejavnikov bi se lahko na primer pokazala visoka stopnja resnosti, a majhna verjetnost vpliva na fizično osebo , ali pa velika verjetnost vpliva na skupino oseb z nizko intenzivnostjo daljšem časovnem obdobju, odvisno od okoliščin . Določitev teh sistemov temelji na enaki metodologiji in merilih, predvidenih tudi za morebitne prihodnje spremembe seznama umetnointeligenčnih sistemov velikega tveganja.

Sprememba 61

Predlog uredbe

Uvodna izjava 32 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(32a)

Ponudniki, katerih umetnointeligenčni sistemi spadajo v eno od področij in primerov uporabe iz Priloge III in ki menijo, da njihov sistem ne predstavlja znatnega tveganja za zdravje, varnost, temeljne pravice ali okolje, bi morali o tem obvestiti nacionalne nadzorne organe s predložitvijo utemeljene priglasitve. Ta priglasitev bi lahko bila v obliki povzetka, dolgega eno stran, z ustreznimi informacijami o umetnointeligenčnem sistemu, vključno z njegovim predvidenim namenom in razlogi, zakaj naj ne bi pomenil znatnega tveganja za zdravje, varnost, temeljne pravice ali okolje. Komisija bi morala določiti merila, na podlagi katerih bi podjetja lahko ocenila, ali bi njihov sistem lahko prinesel taka tveganja, ter pripraviti standardizirano predlogo za priglasitev, ki bi bila enostavna za uporabo. Ponudniki bi morali priglasitev predložiti čim prej, v vsakem primeru pa pred dajanjem umetnointeligenčnega sistema na trg ali v uporabo, po možnosti že v razvojni fazi, in bi morali imeti možnost, da ga dajo na trg kadar koli po priglasitvi. Če pa organ oceni, da je bil umetnointeligenčni sistem napačno razvrščen, bi moral v treh mesecih ugovarjati priglasitvi. Ugovor bi bilo treba utemeljiti in ustrezno pojasniti, zakaj je bil umetnointeligenčni sistem napačno razvrščen. Ponudnik bi moral ohraniti pravico do pritožbe s predložitvijo dodatnih argumentov. Tudi če nacionalni nadzorni organi po treh mesecih niso ugovarjali priglasitvi, lahko še vedno posredujejo, če umetnointeligenčni sistem predstavlja tveganje na nacionalni ravni, tako kot pri katerem koli drugem umetnointeligenčnem sistemu na trgu. Nacionalni nadzorni organi bi morali uradu za umetno inteligenco predložiti letna poročila, v katerih bi podrobno opisali prejete priglasitve in sprejete odločitve.

Sprememba 62

Predlog uredbe

Uvodna izjava 33

Besedilo, ki ga predlaga Komisija

Sprememba

(33)

Tehnične netočnosti umetnointeligenčnih sistemov, namenjenih za biometrično identifikacijo fizičnih oseb na daljavo, lahko vodijo do pristranskih rezultatov in diskriminatornih učinkov. To velja zlasti za starost, etnično pripadnost, spol ali invalidnost. Zato bi bilo treba sisteme za biometrično identifikacijo na daljavo v realnem času in sisteme za naknadno biometrično identifikacijo na daljavo razvrstiti med sisteme velikega tveganja. Zaradi tveganj, ki jih predstavljata, bi morale za obe vrsti sistemov za biometrično identifikacijo na daljavo veljati posebne zahteve glede zmogljivosti vodenja dnevnikov in človekovega nadzora.

črtano

Sprememba 63

Predlog uredbe

Uvodna izjava 33 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(33a)

Ker so biometrični podatki posebna kategorija občutljivih osebnih podatkov v skladu z Uredbo 2016/679, je primerno več kritičnih primerov uporabe biometričnih in na biometriji temelječih sistemov razvrstiti kot sisteme velikega tveganja. Umetnointeligenčne sisteme, namenjene biometrični identifikaciji fizičnih oseb, in umetnointeligenčne sisteme, namenjene sklepanju o osebnih značilnostih fizičnih oseb na podlagi biometričnih podatkov ali podatkov, ki temeljijo na biometriji, vključno s sistemi za prepoznavanje čustev, razen tistih, ki so prepovedani s to uredbo, bi bilo treba razvrstiti kot sisteme visokega tveganja. To ne bi smelo vključevati umetnointeligenčnih sistemov za biometrično preverjanje, tudi avtentikacijo, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se izdaja, in potrditi identiteto fizične osebe izključno z namenom dostopa do storitve, naprave ali prostorov (preverjanje „ena proti ena“). Za biometrične in na biometriji temelječe sisteme, ki so v pravu Unije določeni za omogočanje kibernetske varnosti in ukrepov za varstvo osebnih podatkov, se ne bi smelo šteti, da predstavljajo znatno tveganje za zdravje, varnost in temeljne pravice.

Sprememba 64

Predlog uredbe

Uvodna izjava 34

Besedilo, ki ga predlaga Komisija

Sprememba

(34)

V zvezi z upravljanjem in delovanjem kritične infrastrukture je primerno, da se umetnointeligenčni sistemi, namenjeni uporabi kot varnostne komponente pri upravljanju in delovanju cestnega prometa ter oskrbi z vodo, plinom, ogrevanjem in električno energijo, razvrstijo kot sistemi velikega tveganja, saj lahko njihovo nedelovanje ali okvara delovanja ogrozijo življenje in zdravje ljudi v velikem obsegu ter povzročijo občutne motnje v rednem izvajanju družbenih in gospodarskih dejavnosti.

(34)

V zvezi z upravljanjem in delovanjem kritične infrastrukture je primerno, da se umetnointeligenčni sistemi, namenjeni uporabi kot varnostne komponente pri upravljanju in delovanju oskrbe z vodo, plinom, ogrevanjem, električno energijo in kritično digitalno infrastrukturo , razvrstijo kot sistemi velikega tveganja, saj lahko njihovo nedelovanje ali okvara delovanja krši varnost in integriteto take kritične infrastrukture ali ogrozi življenje in zdravje ljudi v velikem obsegu ter povzroči občutne motnje v rednem izvajanju družbenih in gospodarskih dejavnosti. Varnostne komponente kritične infrastrukture, vključno s kritično digitalno infrastrukturo, so sistemi, ki se uporabljajo za neposredno zaščito fizične celovitosti kritične infrastrukture ali zdravja in varnosti oseb in premoženja. Nedelovanje ali napačno delovanje takih komponent bi lahko ustvarilo neposredno tveganje za fizično celovitost kritične infrastrukture in posledično tveganje za zdravje in varnost oseb in premoženja. Komponente, namenjene izključno za uporabo v namene kibernetske varnosti, se ne bi smele šteti kot varnostne komponente. Primeri takih varnostnih komponent lahko vključujejo sisteme za spremljanje vodnega tlaka ali sisteme za nadzor požarnega alarma v centrih za računalništvo v oblaku.

Sprememba 65

Predlog uredbe

Uvodna izjava 35

Besedilo, ki ga predlaga Komisija

Sprememba

(35)

Umetnointeligenčne sisteme, ki se uporabljajo v izobraževanju ali poklicnem usposabljanju, zlasti za določanje dostopa ali razvrščanje oseb v izobraževalne ustanove in ustanove za poklicno usposabljanje ali za ocenjevanje oseb na testih, ki so del izobraževanja ali predpogoj zanj, bi bilo treba obravnavati kot sisteme velikega tveganja, saj lahko določajo izobraževalni in poklicni potek življenja osebe ter tako vplivajo na sposobnost zagotavljanja preživetja te osebe. Če se taki sistemi neustrezno zasnujejo in uporabljajo , lahko kršijo pravico do izobraževanja in usposabljanja ter pravico do nediskriminacije in ohranjajo vzorce diskriminacije iz preteklosti.

(35)

Uvedba umetnointeligenčnih sistemov v izobraževanju je pomembna za posodobitev izobraževalnih sistemov in izboljšanje kakovosti izobraževanja, tako zunaj spleta kot na njem, ter za pospešitev digitalnega izobraževanja, s čimer bo na voljo tudi širši javnosti. Umetnointeligenčne sisteme, ki se uporabljajo v izobraževanju ali poklicnem usposabljanju, zlasti za določanje dostopa ali bistveno vplivanje na odločitve o sprejemu ali razvrščanju oseb v izobraževalne ustanove in ustanove za poklicno usposabljanje ali za ocenjevanje oseb na testih, ki so del izobraževanja ali predpogoj zanj, ali za ocenjevanje ustrezne ravni izobraževanja za posameznika in bistveno vplivanje na raven izobraževanja in usposabljanja, ki ga bodo prejeli posamezniki ali bodo lahko do njega dostopali, ali za spremljanje in ugotavljanje prepovedanega vedenja študentov med opravljanjem preizkusov znanja, bi bilo treba razvrstiti med sisteme velikega tveganja, saj lahko določajo izobraževalni in poklicni potek življenja osebe ter tako vplivajo na sposobnost zagotavljanja preživetja te osebe. Če so takšni sistemi neustrezno zasnovani in uporabljeni , lahko posebno hudo posegajo v pravico do izobraževanja in usposabljanja ter pravico do nediskriminacije in jih lahko kršijo ter ohranjajo vzorce diskriminacije iz preteklosti , na primer žensk, nekaterih starostnih skupin, invalidov ali oseb določenega rasnega ali etničnega porekla ali spolne usmerjenosti .

Sprememba 66

Predlog uredbe

Uvodna izjava 36

Besedilo, ki ga predlaga Komisija

Sprememba

(36)

Umetnointeligenčne sisteme, ki se uporabljajo pri zaposlovanju, upravljanju delavcev in dostopu do samozaposlitve, zlasti za zaposlovanje in izbiro oseb, za sprejemanje odločitev o napredovanju in prenehanju zaposlitve ter za dodeljevanje nalog, spremljanje ali ocenjevanje oseb v pogodbenih delovnih razmerjih, bi bilo treba prav tako razvrstiti med sisteme velikega tveganja, saj lahko ti sistemi občutno vplivajo na prihodnje poklicne možnosti in možnosti preživljanja teh oseb. Ustrezna pogodbena delovna razmerja bi morala vključevati zaposlene in osebe, ki zagotavljajo storitve preko platform, kot so navedene v delovnem programu Komisije za leto 2021. Take osebe se načeloma ne bi smele šteti za uporabnike v smislu te uredbe.  V celotnem postopku zaposlovanja in pri ocenjevanju, napredovanju ali ohranjanju oseb v pogodbenih delovnih razmerjih lahko taki sistemi ohranjajo vzorce diskriminacije iz preteklosti, na primer nad ženskami, določenimi starostnimi skupinami, invalidi ali osebami določenega rasnega ali etničnega porekla ali spolne usmerjenosti. Tudi umetnointeligenčni sistemi, ki se uporabljajo za spremljanje zmogljivosti in vedenja teh oseb, lahko vplivajo na njihove pravice do varstva podatkov in zasebnosti.

(36)

Umetnointeligenčne sisteme, ki se uporabljajo pri zaposlovanju, upravljanju delavcev in dostopu do samozaposlitve, zlasti za zaposlovanje in izbiro oseb, za sprejemanje odločitev ali bistveno vplivanje na odločitve začetku, napredovanju in prenehanju zaposlitve ter za prilagojeno dodeljevanje nalog na podlagi vedenja, osebnih lastnosti ali biometričnih podatkov , spremljanje ali ocenjevanje oseb v pogodbenih delovnih razmerjih, bi bilo treba prav tako razvrstiti med sisteme velikega tveganja, saj lahko ti sistemi občutno vplivajo na prihodnje poklicne možnosti, možnosti preživljanja teh oseb in pravice delavcev . Ustrezna pogodbena delovna razmerja bi morala smiselno vključevati zaposlene in osebe, ki zagotavljajo storitve preko platform, kot so navedene v delovnem programu Komisije za leto 2021. V celotnem postopku zaposlovanja in pri ocenjevanju, napredovanju ali ohranjanju oseb v pogodbenih delovnih razmerjih lahko taki sistemi ohranjajo vzorce diskriminacije iz preteklosti, na primer nad ženskami, določenimi starostnimi skupinami, invalidi ali osebami določenega rasnega ali etničnega porekla ali spolne usmerjenosti. Tudi umetnointeligenčni sistemi, ki se uporabljajo za spremljanje zmogljivosti in vedenja teh oseb, lahko ogrožajo bistvo njihovih temeljnih pravic do varstva podatkov in zasebnosti. Ta uredba se uporablja brez poseganja v pristojnosti Unije in držav članic, da določijo bolj specifična pravila za uporabo umetnointeligenčnih sistemov v okviru zaposlovanja.

Sprememba 67

Predlog uredbe

Uvodna izjava 37

Besedilo, ki ga predlaga Komisija

Sprememba

(37)

Drugo področje, na katerem je treba posebno pozornost nameniti uporabi umetnointeligenčnih sistemov, je dostop do nekaterih bistvenih zasebnih in javnih storitev ter koristi, ki jih ljudje potrebujejo za polno udeležbo v družbi ali izboljšanje življenjskega standarda. Zlasti umetnointeligenčne sisteme, ki se uporabljajo za ocenjevanje kreditne ocene ali kreditne sposobnosti fizičnih oseb, bi bilo treba uvrstiti med umetnointeligenčne sisteme velikega tveganja, saj določajo dostop teh oseb do finančnih sredstev ali bistvenih storitev, kot so stanovanje, električna energija in telekomunikacijske storitve. Umetnointeligenčni sistemi, ki se uporabljajo v ta namen, lahko pripeljejo do diskriminacije oseb ali skupin in ohranijo vzorce diskriminacije iz preteklosti, na primer na podlagi rasnega ali etničnega porekla, invalidnosti, starosti, spolne usmerjenosti, ali ustvarijo nove oblike diskriminatornih vplivov. Glede na zelo omejen obseg vpliva in razpoložljivih alternativ na trgu je primerno izvzeti umetnointeligenčne sisteme za namene ocenjevanja kreditne sposobnosti in kreditnega točkovanja, kadar jih uporabo dajejo mali ponudniki za lastno uporabo . Fizične osebe, ki zaprosijo za ugodnosti in storitve javne pomoči ali jih prejemajo od javnih organov, so po navadi odvisne od teh ugodnosti in storitev ter so v ranljivem položaju v odnosu do odgovornih organov. Če se umetnointeligenčni sistemi uporabljajo za določanje, ali naj organi take ugodnosti in storitve zavrnejo, zmanjšajo, prekličejo ali zahtevajo povračilo, lahko pomembno vplivajo na preživljanje oseb in kršijo njihove temeljne pravice, kot so pravica do socialne zaščite, nediskriminacije, človekovega dostojanstva ali učinkovitega pravnega sredstva. Zato bi bilo treba te sisteme uvrstiti med sisteme velikega tveganja. Kljub temu ta uredba ne bi smela ovirati razvoja in uporabe inovativnih pristopov v javni upravi, ki bi imela koristi od širše uporabe skladnih in varnih umetnointeligenčnih sistemov, če ti sistemi ne pomenijo velikega tveganja za pravne in fizične osebe. Nazadnje bi bilo treba tudi umetnointeligenčne sisteme, ki se uporabljajo za pošiljanje ali določanje prednosti pri napotitvi služb za ukrepanje ob nesrečah, razvrstiti med sisteme velikega tveganja, saj sprejemajo odločitve v zelo kritičnih razmerah za življenje in zdravje oseb ter njihovo premoženje.

(37)

Drugo področje, na katerem je treba posebno pozornost nameniti uporabi umetnointeligenčnih sistemov, je dostop do nekaterih bistvenih zasebnih in javnih storitev , vključno z zdravstvenim varstvom in bistvenimi storitvami, kamor med drugim sodijo tudi stanovanja, električna energija, ogrevanje/hlajenje in internet, ter koristi, ki jih ljudje potrebujejo za polno udeležbo v družbi ali izboljšanje življenjskega standarda. Zlasti umetnointeligenčne sisteme, ki se uporabljajo za ocenjevanje kreditne ocene ali kreditne sposobnosti fizičnih oseb, bi bilo treba uvrstiti med umetnointeligenčne sisteme velikega tveganja, saj določajo dostop teh oseb do finančnih sredstev ali bistvenih storitev, kot so stanovanje, električna energija in telekomunikacijske storitve. Umetnointeligenčni sistemi, ki se uporabljajo v ta namen, lahko pripeljejo do diskriminacije oseb ali skupin in ohranijo vzorce diskriminacije iz preteklosti, na primer na podlagi rasnega ali etničnega porekla, spola, invalidnosti, starosti, spolne usmerjenosti, ali ustvarijo nove oblike diskriminatornih vplivov. Vendar umetnointeligenčni sistemi, določeni v pravu Unije za odkrivanje goljufij pri ponujanju finančnih storitev, ne bi smeli šteti za sisteme velikega tveganja v skladu s to uredbo. Fizične osebe, ki zaprosijo za ugodnosti in storitve javne pomoči ali jih prejemajo od javnih organov, vključno z zdravstvenimi storitvami in bistvenimi storitvami, kamor med drugim sodijo tudi stanovanja, električna energija, ogrevanje/hlajenje in internet, so po navadi odvisne od teh ugodnosti in storitev ter so v ranljivem položaju v odnosu do odgovornih organov. Če se umetnointeligenčni sistemi uporabljajo za določanje, ali naj organi take ugodnosti in storitve zavrnejo, zmanjšajo, prekličejo ali zahtevajo povračilo, lahko pomembno vplivajo na preživljanje oseb in kršijo njihove temeljne pravice, kot so pravica do socialne zaščite, nediskriminacije, človekovega dostojanstva ali učinkovitega pravnega sredstva. Podobno lahko umetnointeligenčni sistemi, namenjeni sprejemanju odločitev ali bistvenemu vplivanju na odločitve o upravičenosti fizičnih oseb do zdravstvenega in življenjskega zavarovanja, znatno vplivajo na možnosti preživljanja oseb in lahko kršijo njihove temeljne pravice, na primer z omejevanjem dostopa do zdravstvenega varstva ali nadaljevanjem diskriminacije na podlagi osebnih značilnosti. Zato bi bilo treba te sisteme uvrstiti med sisteme velikega tveganja. Kljub temu ta uredba ne bi smela ovirati razvoja in uporabe inovativnih pristopov v javni upravi, ki bi imela koristi od širše uporabe skladnih in varnih umetnointeligenčnih sistemov, če ti sistemi ne pomenijo velikega tveganja za pravne in fizične osebe. Nazadnje bi bilo treba tudi umetnointeligenčne sisteme, ki se uporabljajo za ocenjevanje in razvrščanje klicev v sili fizičnih oseb ali za pošiljanje ali določanje prednosti pri napotitvi služb za ukrepanje ob nesrečah, razvrstiti med sisteme velikega tveganja, saj sprejemajo odločitve v zelo kritičnih razmerah za življenje in zdravje oseb ter njihovo premoženje.

Sprememba 68

Predlog uredbe

Uvodna izjava 37 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(37a)

Glede na vlogo in pristojnost policijskih in pravosodnih organov ter posledice odločitev, ki jih sprejmejo za preprečevanje, preiskovanje, odkrivanje ali pregon kaznivih dejanj ali izvršitev kazenskih sankcij, je treba nekatere specifične primere uporabe umetne inteligence na področju preprečevanja, preiskovanja in odkrivanja kaznivih dejanj, zlasti v primerih, ko te močno vplivajo na življenje ali temeljne pravice posameznikov, opredeliti kot zelo tvegane.

Sprememba 69

Predlog uredbe

Uvodna izjava 38

Besedilo, ki ga predlaga Komisija

Sprememba

(38)

Za ukrepe organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, ki vključujejo nekatere uporabe umetnointeligenčnih sistemov, je značilna precejšnja stopnja neravnovesja moči, kar lahko vodi do nadzora, prijetja ali odvzema prostosti fizične osebe ter drugih škodljivih učinkov na temeljne pravice, ki jih zagotavlja Listina. Zlasti če se umetnointeligenčni sistem ne uči z visokokakovostnimi podatki, ne izpolnjuje ustreznih zahtev glede točnosti ali robustnosti ali ni ustrezno zasnovan in testiran, preden je dan na trg ali na kakšen drug način v uporabo, lahko ljudi izloči na diskriminatoren ali kako drugače napačen ali nepravičen način. Poleg tega bi lahko bilo ovirano uveljavljanje pomembnih procesnih temeljnih pravic, kot so pravica do učinkovitega pravnega sredstva in nepristranskega sodišča ter pravica do obrambe in domneve nedolžnosti, zlasti, kadar taki umetnointeligenčni sistemi niso dovolj pregledni, obrazložljivi in dokumentirani. Zato je primerno, da se številni umetnointeligenčni sistemi, namenjeni uporabi v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razvrstijo kot sistemi velikega tveganja, kjer so točnost, zanesljivost in preglednost zlasti pomembni, da se preprečijo škodljivi učinki, ohrani zaupanje javnosti ter zagotovita odgovornost in učinkovito sodno varstvo. Glede na naravo zadevnih dejavnosti in z njimi povezanih tveganj bi morali ti umetnointeligenčni sistemi velikega tveganja vključevati zlasti umetnointeligenčne sisteme, namenjene uporabi s strani organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za individualne ocene tveganja, poligrafe in podobna orodja ali za zaznavanje čustvenega stanja fizične osebe , za odkrivanje „globokih ponaredkov“ , za oceno zanesljivosti dokazov v postopkih preprečevanja , odkrivanja in preiskovanja kaznivih dejanj, za napovedovanje nastanka ali ponovitve dejanskega ali potencialnega kaznivega dejanja na podlagi profiliranja fizičnih oseb ali ocenjevanja osebnostnih lastnosti in značilnosti ali preteklih kaznivih dejanj fizičnih oseb ali skupin , za profiliranje pri odkrivanju, preiskovanju ali pregonu kaznivih dejanj ter za analize kaznivih dejanj v zvezi s fizičnimi osebami. Umetnointeligenčni sistemi, posebej namenjeni uporabi v upravnih postopkih s strani davčnih in carinskih organov, se ne bi smeli šteti za umetnointeligenčne sisteme velikega tveganja, ki jih uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za namene preprečevanja, odkrivanja, preiskovanja in pregona kaznivih dejanj.

(38)

Za ukrepe organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, ki vključujejo nekatere uporabe umetnointeligenčnih sistemov, je značilna precejšnja stopnja neravnovesja moči, kar lahko vodi do nadzora, prijetja ali odvzema prostosti fizične osebe ter drugih škodljivih učinkov na temeljne pravice, ki jih zagotavlja Listina. Zlasti če se umetnointeligenčni sistem ne uči z visokokakovostnimi podatki, ne izpolnjuje ustreznih zahtev glede uspešnosti, točnosti ali robustnosti ali ni ustrezno zasnovan in testiran, preden je dan na trg ali na kakšen drug način v uporabo, lahko ljudi izloči na diskriminatoren ali kako drugače napačen ali nepravičen način. Poleg tega bi lahko bilo ovirano uveljavljanje pomembnih procesnih temeljnih pravic, kot so pravica do učinkovitega pravnega sredstva in nepristranskega sodišča ter pravica do obrambe in domneve nedolžnosti, zlasti, kadar taki umetnointeligenčni sistemi niso dovolj pregledni, obrazložljivi in dokumentirani. Zato je primerno, da se številni umetnointeligenčni sistemi, namenjeni uporabi v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razvrstijo kot sistemi velikega tveganja, kjer so točnost, zanesljivost in preglednost zlasti pomembni, da se preprečijo škodljivi učinki, ohrani zaupanje javnosti ter zagotovita odgovornost in učinkovito sodno varstvo. Glede na naravo zadevnih dejavnosti in z njimi povezanih tveganj bi morali ti umetnointeligenčni sistemi velikega tveganja vključevati zlasti umetnointeligenčne sisteme, namenjene uporabi s strani organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali v njihovem imenu ali s strani agencij , uradov ali teles Unije , ki podpirajo organe za preprečevanje , odkrivanje in preiskovanje kaznivih dejanj, za poligrafe in podobna orodja, če je njihova uporaba dovoljena v skladu z ustrezno zakonodajo Unije ali nacionalno zakonodajo, za oceno zanesljivosti dokazov v postopkih preprečevanja, odkrivanja in preiskovanja kaznivih dejanj , za profiliranje pri odkrivanju, preiskovanju ali pregonu kaznivih dejanj ter za analize kaznivih dejanj v zvezi s fizičnimi osebami. Umetnointeligenčni sistemi, posebej namenjeni uporabi v upravnih postopkih s strani davčnih in carinskih organov, ne bi smeli biti uvrščeni kot umetnointeligenčni sistemi velikega tveganja, ki jih uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za namene preprečevanja, odkrivanja, preiskovanja in pregona kaznivih dejanj. Organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ter pravosodni organi orodij umetne inteligence ne bi smeli uporabljati tako, da bi postala dejavnik pri neenakosti, socialnih napetostih ali izključenosti. Vpliva uporabe orodij umetne inteligence na pravice osumljencev do obrambe ne bi smeli zanemariti, pri čemer je zlasti težko pridobiti tehtne informacije o njihovem delovanju in posledično izpodbijati njihove rezultate na sodišču, zlasti za preiskovane posameznike.

Sprememba 70

Predlog uredbe

Uvodna izjava 39

Besedilo, ki ga predlaga Komisija

Sprememba

(39)

Umetnointeligenčni sistemi, ki se uporabljajo pri upravljanju migracij, azila in nadzora meje, vplivajo na ljudi, ki so pogosto v posebej ranljivem položaju ter so odvisni od izida ukrepov pristojnih javnih organov. Točnost, nediskriminatorna narava in preglednost umetnointeligenčnih sistemov, ki se uporabljajo v teh kontekstih, so zato zlasti pomembni za zagotavljanje spoštovanja temeljnih pravic izpostavljenih oseb, zlasti njihovih pravic do prostega gibanja, nediskriminacije, varstva zasebnega življenja in osebnih podatkov, mednarodnega varstva in dobrega upravljanja. Zato je primerno, da se umetnointeligenčni sistemi za uporabo s strani pristojnih javnih organov, zadolženih za naloge na področju upravljanja migracij, azila in nadzora mej, kot so poligrafi in podobna orodja, ali za zaznavanje čustvenega stanja fizične osebe, uvrstijo med sisteme velikega tveganja; za ocenjevanje nekaterih tveganj, ki jih predstavljajo fizične osebe, ki vstopajo na ozemlje države članice ali zaprosijo za vizum ali azil; za preverjanje verodostojnosti ustreznih dokumentov fizičnih oseb; za pomoč pristojnim javnim organom pri obravnavi prošenj za azil, vizume in dovoljenja za prebivanje ter s tem povezanih pritožb , da se ugotovi upravičenost fizičnih oseb, ki zaprosijo za status. Umetnointeligenčni sistemi na področju upravljanja migracij, azila in nadzora mej, ki jih zajema ta uredba, bi morali biti skladni z ustreznimi postopkovnimi zahtevami iz Direktive 2013/32/EU Evropskega parlamenta in Sveta (49), Uredbe (ES) št. 810/2009 Evropskega parlamenta in Sveta (50) in druge ustrezne zakonodaje.

(39)

Umetnointeligenčni sistemi, ki se uporabljajo pri upravljanju migracij, azila in nadzora meje, vplivajo na ljudi, ki so pogosto v posebej ranljivem položaju ter so odvisni od izida ukrepov pristojnih javnih organov. Točnost, nediskriminatorna narava in preglednost umetnointeligenčnih sistemov, ki se uporabljajo v teh kontekstih, so zato zlasti pomembni za zagotavljanje spoštovanja temeljnih pravic izpostavljenih oseb, zlasti njihovih pravic do prostega gibanja, nediskriminacije, varstva zasebnega življenja in osebnih podatkov, mednarodnega varstva in dobrega upravljanja. Zato je primerno, da se umetnointeligenčni sistemi za uporabo s strani pristojnih javnih organov, zadolženih za naloge na področju upravljanja migracij, azila in nadzora mej, ali v njihovem imenu ali s strani agencij, uradov ali teles Unije, kot so poligrafi in podobna orodja, če je njihova uporaba dovoljena v skladu z ustrezno zakonodajo Unije ali nacionalno zakonodajo, za ocenjevanje nekaterih tveganj, ki jih predstavljajo fizične osebe, ki vstopajo na ozemlje države članice ali zaprosijo za vizum ali azil; za preverjanje verodostojnosti ustreznih dokumentov fizičnih oseb; za pomoč pristojnim javnim organom pri obravnavi in oceni verodostojnosti dokazil, povezanih s prošnjami za azil, vizumi in dovoljenji za prebivanje ter s tem povezanimi pritožbami , da se ugotovi upravičenost fizičnih oseb, ki zaprosijo za status ; za spremljanje, nadzor ali obdelavo osebnih podatkov v okviru dejavnosti upravljanja meja za namene odkrivanja, prepoznavanja ali identifikacije fizičnih oseb; za napovedovanje trendov, povezanih z migracijskimi gibanji in prehodi meje . Umetnointeligenčni sistemi na področju upravljanja migracij, azila in nadzora mej, ki jih zajema ta uredba, bi morali biti skladni z ustreznimi postopkovnimi zahtevami iz Direktive 2013/32/EU Evropskega parlamenta in Sveta (49), Uredbe (ES) št. 810/2009 Evropskega parlamenta in Sveta (50) in druge ustrezne zakonodaje. Države članice ali institucije, agencije ali telesa Unije umetnointeligenčnih sistemov pri upravljanju migracij, azila in nadzora meje ne bi smele uporabljati za izogibanje svojim mednarodnim obveznostim v skladu s Konvencijo z dne 28. julija 1951 o statusu beguncev, kakor je bila spremenjena s Protokolom z dne 31. januarja 1967, niti se ti sistemi ne bi smeli uporabljati tako, da je kršeno načelo nevračanja ali da se odreka varna in učinkovita možnost zakonitega vstopa na ozemlje Unije, vključno s pravico do mednarodne zaščite.

Sprememba 71

Predlog uredbe

Uvodna izjava 40

Besedilo, ki ga predlaga Komisija

Sprememba

(40)

Nekatere umetnointeligenčne sisteme, namenjene upravljanju pravosodja in demokratičnih procesov, bi bilo treba uvrstiti med sisteme velikega tveganja ob upoštevanju njihovega potencialno pomembnega vpliva na demokracijo, pravno državo, osebne svoboščine ter pravico do učinkovitega pravnega sredstva in nepristranskega sodišča. Zlasti za obravnavanje tveganj morebitnih pristranskosti, napak in neprepustnosti je primerno, da se umetnointeligenčni sistemi, namenjeni pomoči pravosodnim organom pri raziskovanju in razlagi dejstev in prava ter pri uporabi prava za konkreten sklop dejstev , opredelijo kot sistemi velikega tveganja. Take kvalifikacije pa se ne bi smele razširiti na umetnointeligenčne sisteme, namenjene izključno pomožnim upravnim dejavnostim, ki ne vplivajo na dejansko pravosodje v posameznih primerih, kot so anonimizacija ali psevdonimizacija sodnih odločb, dokumentov ali podatkov, komunikacija med osebjem, upravne naloge ali dodeljevanje virov.

(40)

Nekatere umetnointeligenčne sisteme, namenjene upravljanju pravosodja in demokratičnih procesov, bi bilo treba uvrstiti med sisteme velikega tveganja ob upoštevanju njihovega potencialno pomembnega vpliva na demokracijo, pravno državo, osebne svoboščine ter pravico do učinkovitega pravnega sredstva in nepristranskega sodišča. Zlasti za obravnavanje tveganj morebitnih pristranskosti, napak in neprepustnosti je primerno, da se umetnointeligenčni sistemi, ki naj bi jih uporabljal pravosodni ali upravni organ ali naj bi se uporabljali v njegovem imenu za pomoč pravosodnemu ali upravnemu organu pri raziskovanju in razlagi dejstev in zakona ter pri uporabi zakona v konkretnih okoliščinah ali ki naj bi se uporabljali na podoben način pri alternativnem reševanju sporov , razvrstijo kot sistemi visokega tveganja. Umetnointeligenčna orodja se lahko uporabljajo kot podpora pooblastilom sodnikov za odločanje ali podpora neodvisnosti sodstva, vendar jih ne bi smela nadomeščati, saj mora pri končni odločitvi imeti besedo človek, prav tako jo mora človek tudi sprejeti . Take kvalifikacije pa se ne bi smele razširiti na umetnointeligenčne sisteme, namenjene izključno pomožnim upravnim dejavnostim, ki ne vplivajo na dejansko pravosodje v posameznih primerih, kot so anonimizacija ali psevdonimizacija sodnih odločb, dokumentov ali podatkov, komunikacija med osebjem, upravne naloge ali dodeljevanje virov.

Sprememba 72

Predlog uredbe

Uvodna izjava 40 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(40a)

Za obravnavanje tveganj neupravičenega zunanjega poseganja v volilno pravico iz člena 39 Listine in nesorazmernih učinkov na demokratične procese, demokracijo in pravno državo bi bilo treba umetnointeligenčne sisteme, namenjene vplivanju na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih, razvrstiti kot umetnointeligenčne sisteme velikega tveganja, razen kadar gre za umetnointeligenčne sisteme, pri katerih fizične osebe niso neposredno izpostavljene njihovim rezultatom, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo in strukturiranje političnih kampanj z upravnega in logističnega vidika.

Sprememba 73

Predlog uredbe

Uvodna izjava 40 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(40b)

Glede na število fizičnih oseb, ki uporabljajo storitve, ki jih zagotavljajo platforme družbenih medijev, opredeljene kot zelo velike spletne platforme, se lahko te platforme uporabljajo na način, ki močno vpliva na varnost na spletu, oblikovanje javnega mnenja in razprave, volitve in demokratične procese ter družbeno problematiko. Zato je primerno, da se ta uredba uporablja za umetnointeligenčne sisteme, ki jih te spletne platforme uporabljajo v svojih priporočilnih sistemih, da se zagotovi, da umetnointeligenčni sistemi izpolnjujejo zahteve iz te uredbe, vključno s tehničnimi zahtevami glede upravljanja podatkov, tehnične dokumentacije in sledljivosti, preglednosti, človeškega nadzora, točnosti in robustnosti. Skladnost s to uredbo bi takšnim zelo velikim spletnim platformam omogočila, da izpolnjujejo svoje širše obveznosti glede ocenjevanja in zmanjševanja tveganja iz členov 34 in 35 Uredbe (EU) 2022/2065. Obveznosti iz te uredbe ne posegajo v Uredbo (EU) 2022/2065 in bi morale dopolnjevati obveznosti iz omenjene uredbe, ko je bila platforma družbenih medijev opredeljena kot zelo velika spletna platforma. Glede na vseevropski učinek platform družbenih medijev, opredeljenih kot zelo velike spletne platforme, bi morali organi, imenovani v skladu z Uredbo (EU) 2022/2065, delovati kot izvršilni organi za namene izvrševanja te določbe.

Sprememba 74

Predlog uredbe

Uvodna izjava 41

Besedilo, ki ga predlaga Komisija

Sprememba

(41)

Dejstvo, da je umetnointeligenčni sistem v skladu s to uredbo razvrščen kot sistem velikega tveganja, ne bi smelo pomeniti, da je uporaba sistema nujno zakonita v skladu z drugimi akti prava Unije ali v skladu z nacionalnim pravom, združljivim s pravom Unije, kot so varstvo osebnih podatkov , uporaba poligrafov in podobnih orodij ali drugih sistemov za zaznavanje čustvenega stanja fizičnih oseb . Vsaka taka uporaba bi se morala še naprej izvajati izključno v skladu z veljavnimi zahtevami, ki izhajajo iz Listine ter iz veljavnih aktov sekundarnega prava Unije in nacionalnega prava. Te uredbe ne bi smeli razumeti kot pravne podlage za obdelavo osebnih podatkov, vključno s posebnimi vrstami osebnih podatkov, kadar je to ustrezno.

(41)

Dejstvo, da je umetnointeligenčni sistem v skladu s to uredbo razvrščen kot umetnointeligenčni sistem velikega tveganja, ne bi smelo pomeniti, da je uporaba sistema nujno zakonita ali nezakonita v skladu z drugimi akti prava Unije ali v skladu z nacionalnim pravom, združljivim s pravom Unije, kot so varstvo osebnih podatkov. Vsaka taka uporaba bi se morala še naprej izvajati izključno v skladu z veljavnimi zahtevami, ki izhajajo iz Listine ter iz veljavnih aktov sekundarnega prava Unije in nacionalnega prava.

Sprememba 75

Predlog uredbe

Uvodna izjava 41 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(41a)

Za umetnointeligenčne sisteme se že uporabljajo oziroma se nanje nanašajo številni pravno zavezujoči predpisi na evropski, nacionalni in mednarodni ravni, ki vključujejo, vendar niso omejeni na primarno pravo EU (Pogodbi Evropske unije in njena Listina o temeljnih pravicah), sekundarno pravo EU (kot so splošna uredba o varstvu podatkov, direktiva o odgovornosti za proizvode, uredba o prostem pretoku neosebnih podatkov, protidiskriminacijske direktive, potrošniško pravo ter direktive o varnosti in zdravju pri delu), pogodbe OZN o človekovih pravicah in konvencije Sveta Evrope (kot je Evropska konvencija o človekovih pravicah) ter nacionalno pravo. Poleg pravil, ki se uporabljajo horizontalno, obstajajo različna pravila za posamezna področja, ki se uporabljajo za posamezne uporabe umetne inteligence (kot je na primer uredba o medicinskih pripomočkih v zdravstvenem sektorju).

Sprememba 76

Predlog uredbe

Uvodna izjava 42

Besedilo, ki ga predlaga Komisija

Sprememba

(42)

Za zmanjševanje tveganj, ki jih za uporabnike in izpostavljene osebe predstavljajo umetnointeligenčni sistemi velikega tveganja, ki so dani na trg ali kako drugače dani v uporabo na trgu Unije, bi bilo treba uporabljati nekatere obvezne zahteve ob upoštevanju predvidenega namena uporabe sistema in v skladu s sistemom obvladovanja tveganja, ki ga vzpostavi ponudnik.

(42)

Za zmanjševanje tveganj, ki jih za uvajalce in izpostavljene osebe predstavljajo umetnointeligenčni sistemi velikega tveganja, ki so dani na trg ali kako drugače dani v uporabo na trgu Unije, bi bilo treba uporabljati nekatere obvezne zahteve ob upoštevanju predvidenega namena , razumno predvidljive nepravilne uporabe sistema in v skladu s sistemom obvladovanja tveganja, ki ga vzpostavi ponudnik. Te zahteve bi morale biti ciljno usmerjene, primerne namenu, razumne in učinkovite ter ne bi smele povzročati dodatnega nepotrebnega regulativnega bremena ali stroškov za operaterje.

Sprememba 77

Predlog uredbe

Uvodna izjava 43

Besedilo, ki ga predlaga Komisija

Sprememba

(43)

Za umetnointeligenčne sisteme velikega tveganja bi morale veljati zahteve glede kakovosti uporabljenih naborov podatkov, tehnične dokumentacije in vodenja evidenc, preglednosti in zagotavljanja informacij uporabnikom , človekovega nadzora ter robustnosti, točnosti in kibernetske varnosti. Navedene zahteve so potrebne za učinkovito zmanjševanje tveganj za zdravje, varnost in temeljne pravice, kot se uporabljajo glede na predvideni namen sistema, in ni drugih manj omejevalnih ukrepov za trgovino, ki bi bili razumno na voljo, s čimer bi se izognili neupravičenim omejitvam trgovine.

(43)

Za umetnointeligenčne sisteme velikega tveganja bi morale veljati zahteve glede kakovosti in relevantnosti uporabljenih naborov podatkov, tehnične dokumentacije in vodenja evidenc, preglednosti in zagotavljanja informacij uvajalcem , človekovega nadzora ter robustnosti, točnosti in varnosti. Navedene zahteve so potrebne za učinkovito zmanjševanje tveganj za zdravje, varnost in temeljne pravice, pa tudi za okolje, demokracijo in pravno državo, kot se uporabljajo glede na predvideni namen ali razumno predvidljivo nepravilno uporabo sistema, in ni drugih manj omejevalnih ukrepov za trgovino, ki bi bili razumno na voljo, s čimer bi se izognili neupravičenim omejitvam trgovine.

Sprememba 78

Predlog uredbe

Uvodna izjava 44

Besedilo, ki ga predlaga Komisija

Sprememba

(44)

Visoka kakovost podatkov je bistvena za zmogljivost številnih umetnointeligenčnih sistemov, zlasti kadar se uporabljajo tehnike, ki vključujejo učenje modelov, s katerim bi zagotovili, da bo umetnointeligenčni sistem velikega tveganja deloval, kot je predvideno, in varno ter da ne bo postane vir diskriminacije, ki je prepovedana s pravom Unije. Za visokokakovostne nabore učnih in testnih podatkov ter podatkov za potrditev je treba izvajati ustrezne prakse vodenja in upravljanja podatkov. Nabori učnih in testnih podatkov ter podatkov za potrditev bi morali biti dovolj ustrezni, reprezentativni in brez napak ter popolni glede na predvideni namen sistema. Imeti bi morali tudi ustrezne statistične lastnosti, tudi v zvezi z osebami ali skupinami oseb, na katerih naj bi se uporabljal umetnointeligenčni sistem velikega tveganja. Nabori učnih in testnih podatkov ter podatkov za potrditev bi morali v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevati zlasti lastnosti, značilnosti ali elemente, ki so značilni za konkretno geografsko, vedenjsko ali funkcionalno okolje ali kontekst, v katerem naj bi se uporabljal umetnointeligenčni sistem. Da bi zaščitili pravico drugih pred diskriminacijo, ki bi lahko bila posledica pristranskosti v sistemih umetne inteligence , bi morali ponudniki imeti možnost, da zaradi pomembnega javnega interesa obdelujejo tudi posebne kategorije osebnih podatkov, da se zagotovijo spremljanje, odkrivanje in odpravljanje pristranskosti v zvezi z umetnointeligenčnimi sistemi velikega tveganja.

(44)

Dostop do visokokakovostnih podatkov je bistvenega pomena za zagotavljanje strukture in zmogljivosti številnih umetnointeligenčnih sistemov, zlasti kadar se uporabljajo tehnike, ki vključujejo učenje modelov, s katerim bi zagotovili, da bo umetnointeligenčni sistem velikega tveganja deloval, kot je predvideno, in varno ter da ne bo postal vir diskriminacije, ki je prepovedana s pravom Unije. Za visokokakovostne nabore učnih in testnih podatkov ter podatkov za potrditev je treba izvajati ustrezne prakse vodenja in upravljanja podatkov. Nabori učnih in po potrebi testnih podatkov ter podatkov za potrditev , vključno z oznakami, bi morali biti dovolj ustrezni, reprezentativni , ustrezno preverjeni, da ne vsebujejo napak, ter čim bolj popolni glede na predvideni namen sistema. Imeti bi morali tudi ustrezne statistične lastnosti, tudi v zvezi z osebami ali skupinami oseb, v zvezi s katerimi naj bi se uporabljal umetnointeligenčni sistem velikega tveganja , s posebnim poudarkom na zmanjševanju možnih pristranskosti v naborih podatkov, ki bi lahko ogrozile temeljne pravice ali vodile do diskriminatornih rezultatov za osebe, na katere vpliva umetnointeligenčni sistem velikega tveganja. Na primer, pristranskost je lahko inherentno prisotna v osnovnih naborih podatkov, zlasti kadar se uporabljajo pretekli podatki, ki jih uvedejo razvijalci algoritmov, ali se ustvari, ko se sistemi izvajajo v realnih okoliščinah. Taka inherentna pristranskost vpliva na rezultate umetnointeligenčnih sistemov in se tudi običajno postopoma povečuje, zaradi česar se ohranja in povečuje tudi obstoječa diskriminacija, zlasti diskriminacija pripadnikov nekaterih ranljivih etničnih skupin ali rasnih skupnosti. Nabori učnih in testnih podatkov ter podatkov za potrditev bi morali v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevati zlasti lastnosti, značilnosti ali elemente, ki so značilni za konkretno geografsko, kontekstno, vedenjsko ali funkcionalno okolje ali kontekst, v katerem naj bi se uporabljal umetnointeligenčni sistem. Da bi zaščitili pravico drugih pred diskriminacijo, ki bi lahko bila posledica pristranskosti v  umetnointeligenčnih sistemih, bi morali ponudniki izjemoma in potem, ko so izpolnili vse ustrezne pogoje iz te uredbe in Uredbe (EU) 2016/679, Direktive (EU) 2016/680 in Uredbe (EU) 2018/1725, imeti možnost, da zaradi pomembnega javnega interesa obdelujejo tudi posebne kategorije osebnih podatkov, da se zagotovijo spremljanje, odkrivanje in odpravljanje pristranskosti v zvezi z umetnointeligenčnimi sistemi velikega tveganja. Pristranskost bi bilo treba razumeti kot da ustvarja neposreden ali posreden diskriminatorni učinek na fizično osebo. Zahteve v zvezi z upravljanjem podatkov je mogoče izpolniti prek tretjih oseb, ki ponujajo certificirane storitve zagotavljanja skladnosti, vključno s preverjanjem upravljanja podatkov, celovitosti nabora podatkov ter praks učenja, potrjevanja in testiranja podatkov.

Sprememba 79

Predlog uredbe

Uvodna izjava 45

Besedilo, ki ga predlaga Komisija

Sprememba

(45)

Za razvoj umetnointeligenčnih sistemov velikega tveganja bi morali imeti nekateri akterji, kot so ponudniki, priglašeni organi in drugi ustrezni subjekti, kot so vozlišča digitalnih inovacij, centri za testiranje in eksperimentiranje in raziskovalci, možnost dostopa do visokokakovostnih naborov podatkov in njihove uporabe na ustreznih področjih dejavnosti, povezanih s to uredbo. Evropski skupni podatkovni prostori, ki jih je vzpostavila Komisija, ter olajšanje souporabe podatkov med podjetji in z vlado v javnem interesu bodo bistveni za zagotavljanje zaupanja vrednega, odgovornega in nediskriminatornega dostopa do visokokakovostnih podatkov za učenje, potrjevanje in testiranje umetnointeligenčnih sistemov. Evropski zdravstveni podatkovni prostor bo na primer na področju zdravja olajšal nediskriminatoren dostop do zdravstvenih podatkov in učenje algoritmov umetne inteligence na teh naborih podatkov na varen, pravočasen, pregleden in zaupanja vreden način ter z ustreznim institucionalnim upravljanjem. Ustrezni pristojni organi, vključno s sektorskimi, ki zagotavljajo ali podpirajo dostop do podatkov, lahko podpirajo tudi zagotavljanje visokokakovostnih podatkov za učenje, potrditev in testiranje umetnointeligenčnih sistemov.

(45)

Za razvoj in ocenjevanje umetnointeligenčnih sistemov velikega tveganja bi morali imeti nekateri akterji, kot so ponudniki, priglašeni organi in drugi ustrezni subjekti, kot so vozlišča digitalnih inovacij, centri za testiranje in eksperimentiranje in raziskovalci, možnost dostopa do visokokakovostnih naborov podatkov in njihove uporabe na ustreznih področjih dejavnosti, povezanih s to uredbo. Evropski skupni podatkovni prostori, ki jih je vzpostavila Komisija, ter olajšanje souporabe podatkov med podjetji in z vlado v javnem interesu bodo bistveni za zagotavljanje zaupanja vrednega, odgovornega in nediskriminatornega dostopa do visokokakovostnih podatkov za učenje, potrjevanje in testiranje umetnointeligenčnih sistemov. Evropski zdravstveni podatkovni prostor bo na primer na področju zdravja olajšal nediskriminatoren dostop do zdravstvenih podatkov in učenje algoritmov umetne inteligence na teh naborih podatkov na varen, pravočasen, pregleden in zaupanja vreden način ter z ustreznim institucionalnim upravljanjem. Ustrezni pristojni organi, vključno s sektorskimi, ki zagotavljajo ali podpirajo dostop do podatkov, lahko podpirajo tudi zagotavljanje visokokakovostnih podatkov za učenje, potrditev in testiranje umetnointeligenčnih sistemov.

Sprememba 80

Predlog uredbe

Uvodna izjava 45 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(45a)

Pravica do zasebnosti in varstva osebnih podatkov mora biti zagotovljena v celotni življenjski dobi umetnointeligenčnega sistema. V zvezi s tem sta načeli najmanjšega obsega podatkov ter vgrajenega in privzetega varstva podatkov, kot sta določeni v zakonodaji Unije o varstvu podatkov, bistveni, kadar obdelava podatkov prinaša znatna tveganja za temeljne pravice posameznikov. Ponudniki in uporabniki umetnointeligenčnih sistemov bi morali izvajati najsodobnejše tehnične in organizacijske ukrepe za varovanje teh pravic. Ti ukrepi bi morali vključevati ne le anonimizacijo in šifriranje, temveč tudi uporabo vse bolj dostopne tehnologije, ki omogoča dostop algoritmov do podatkov in pridobivanje koristnih spoznanj brez prenosa med strankami ali nepotrebnega kopiranja neobdelanih ali strukturiranih podatkov.

Sprememba 81

Predlog uredbe

Uvodna izjava 46

Besedilo, ki ga predlaga Komisija

Sprememba

(46)

Informacije o tem, kako so bili umetnointeligenčni sistemi velikega tveganja razviti in kako delujejo v  svojem življenjskem ciklu , so bistvene za preverjanje skladnosti z zahtevami iz te uredbe. To zahteva vodenje evidenc in razpoložljivost tehnične dokumentacije, ki vsebuje informacije, potrebne za oceno skladnosti umetnointeligenčnega sistema z ustreznimi zahtevami. Take informacije bi morale vključevati splošne značilnosti, zmogljivosti in omejitve sistema, uporabljene algoritme, podatke, postopke učenja, testiranja in potrjevanja ter dokumentacijo o ustreznem sistemu obvladovanja tveganja. Tehnično dokumentacijo je treba posodabljati.

(46)

Razumljive informacije o tem, kako so bili umetnointeligenčni sistemi velikega tveganja razviti in kako delujejo v  svoji življenjski dobi , so bistvene za preverjanje skladnosti z zahtevami iz te uredbe. To zahteva vodenje evidenc in razpoložljivost tehnične dokumentacije, ki vsebuje informacije, potrebne za oceno skladnosti umetnointeligenčnega sistema z ustreznimi zahtevami. Take informacije bi morale vključevati splošne značilnosti, zmogljivosti in omejitve sistema, uporabljene algoritme, podatke, postopke učenja, testiranja in potrjevanja ter dokumentacijo o ustreznem sistemu obvladovanja tveganja. Tehnično dokumentacijo bi bilo treba ustrezno posodabljati skozi celoten življenjski cikel umetnointeligenčnega sistema . Umetnointeligenčni sistemi imajo lahko v svojem življenjskem ciklu velik vpliv na okolje in visoko porabo energije. Da bi bolje razumeli vpliv umetnointeligenčnih sistemov na okolje, bi morala tehnična dokumentacija, ki jo pripravijo ponudniki, vključevati informacije o porabi energije umetnointeligenčnega sistema, vključno s porabo med razvojem in pričakovano porabo med uporabo. Take informacije bi morale upoštevati ustrezno zakonodajo Unije in nacionalno zakonodajo. Te sporočene informacije bi morale biti razumljive, primerljive in preverljive, zato bi morala Komisija pripraviti smernice za usklajeno metodologijo za njihov izračun in sporočanje. Da se zagotovi izvedljivost enotne tehnične dokumentacije, bi bilo treba izraze in opredelitve v zvezi s to zahtevano dokumentacijo in vso zahtevano dokumentacijo v ustrezni sektorski zakonodaji Unije čim bolj uskladiti.

Sprememba 82

Predlog uredbe

Uvodna izjava 46 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(46a)

Umetnointeligenčni sistemi bi morali upoštevati najsodobnejše metode in ustrezne standarde, ki se uporabljajo, za zmanjšanje rabe energije, rabe virov in količine odpadkov, pa tudi za povečanje energijske učinkovitosti in splošne učinkovitosti sistema. Okoljski vidiki umetnointeligenčnih sistemov, ki so pomembni za namene te uredbe, so poraba energije umetnointeligenčnega sistema v fazi razvoja, učenja in uvajanja ter beleženje, sporočanje in shranjevanje teh podatkov. Zasnova umetnointeligenčnih sistemov bi morala omogočati merjenje in beleženje porabe energije in virov v vseh fazah razvoja, učenja in uvajanja. Spremljanje emisij umetnointeligenčnih sistemov in poročanje o njih morata biti zanesljiva, pregledna, dosledna in točna. Za zagotovitev enotne uporabe te uredbe in stabilnega pravnega ekosistema za ponudnike in uvajalce na enotnem trgu bi morala Komisija razviti skupno specifikacijo za metodologijo, s katero bi se izpolnjevale zahteve glede poročanja in dokumentacije o porabi energije in virov med razvojem, učenjem in uvajanjem. S takimi skupnimi specifikacijami za metodologijo merjenja se lahko oblikuje izhodišče, na podlagi katerega se lahko Komisija po izvedbi ocene učinka, ki upošteva obstoječo zakonodajo, bolje odloči, ali so potrebni prihodnji regulativni ukrepi.

Sprememba 83

Predlog uredbe

Uvodna izjava 46 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(46b)

Za doseganje ciljev te uredbe in prispevanje k okoljskim ciljem Unije, obenem pa zagotavljanje nemotenega delovanja notranjega trga, bo morda treba določiti priporočila in smernice, sčasoma pa tudi cilje glede trajnosti. V ta namen ima Komisija pravico razviti metodologijo, s katero bi prispevala k določitvi ključnih kazalnikov uspešnosti in reference za cilje trajnostnega razvoja. Cilj bi moral biti predvsem omogočiti pošteno primerjavo med odločitvami glede izvajanje umetne inteligence in zagotavljanje spodbud za spodbujanje uporabe učinkovitejših tehnologij umetne inteligence, ki obravnavajo problematiko energije in virov. Za dosego tega cilja bi morala ta uredba zagotoviti sredstva za vzpostavitev osnovne zbirke sporočenih podatkov o emisijah pri razvoju in učenju ter uporabi.

Sprememba 84

Predlog uredbe

Uvodna izjava 47 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(47a)

Takšne zahteve glede preglednosti in razložljivosti odločitev, sprejetih z umetno inteligenco, bi morale prispevati k odpravljanju škodljivih učinkov digitalne asimetrije in tako imenovanih temnih vzorcev, ki ciljajo na posameznike in njihovo informirano privolitev.

Sprememba 85

Predlog uredbe

Uvodna izjava 49

Besedilo, ki ga predlaga Komisija

Sprememba

(49)

Umetnointeligenčni sistemi velikega tveganja bi morali v svojem celotnem življenjskem ciklu delovati dosledno ter izpolnjevati ustrezno raven točnosti, robustnosti in kibernetske varnosti v skladu s splošno priznanim stanjem tehnike. O ravni točnosti in metrikah točnosti bi bilo treba obvestiti uporabnike .

(49)

Umetnointeligenčni sistemi velikega tveganja bi morali v svojem celotnem življenjskem ciklu delovati dosledno ter izpolnjevati ustrezno raven točnosti, robustnosti in kibernetske varnosti v skladu s splošno priznanim stanjem tehnike. Metrike zmogljivosti in njihovo pričakovano raven je treba opredeliti z glavnim ciljem, da se zmanjšajo tveganja in negativni vpliv umetnointeligenčnega sistema. O pričakovani ravni metrike zmogljivosti bi bilo treba uvajalce obvestiti na jasen, pregleden in enostavno razumljiv način. Izjave o metriki zmogljivosti ni mogoče imeti za dokaz prihodnjih ravni, vendar je treba uporabiti ustrezne metode za zagotovitev doslednih ravni med uporabo. Medtem ko za določitev standardov obstajajo organizacije za standardizacijo, je potrebno usklajevanje primerjalnih analiz, da se določi, kako naj se merijo te standardizirane zahteve in značilnosti umetnointeligenčnih sistemov. Evropski urad za umetno inteligenco bi moral združevati nacionalne in mednarodne meroslovne organe in organe za primerjalno analizo in zagotavljati nezavezujoče smernice za obravnavo tehničnih vidikov, kako izmeriti ustrezne ravni zmogljivosti in robustnosti.

Sprememba 86

Predlog uredbe

Uvodna izjava 50

Besedilo, ki ga predlaga Komisija

Sprememba

(50)

Tehnična robustnost je ključna zahteva za umetnointeligenčne sisteme velikega tveganja. Odporni morajo biti proti tveganjem, povezanim z omejitvami sistema (npr. napake, okvare, nedoslednosti, nepričakovane situacije), pa tudi proti zlonamernim dejanjem, ki lahko ogrozijo varnost umetnointeligenčnega sistema in povzročijo škodljivo ali drugače nezaželeno vedenje. Neuspešna zaščita pred temi tveganji bi lahko imela varnostne posledice ali negativno vplivala na temeljne pravice, na primer zaradi napačnih odločitev ali napačnih ali pristranskih izhodnih podatkov, ki jih ustvari umetnointeligenčni sistem.

(50)

Tehnična robustnost je ključna zahteva za umetnointeligenčne sisteme velikega tveganja. Odporni morajo biti proti tveganjem, povezanim z omejitvami sistema (npr. napake, okvare, nedoslednosti, nepričakovane situacije), pa tudi proti zlonamernim dejanjem, ki lahko ogrozijo varnost umetnointeligenčnega sistema in povzročijo škodljivo ali drugače nezaželeno vedenje. Neuspešna zaščita pred temi tveganji bi lahko imela varnostne posledice ali negativno vplivala na temeljne pravice, na primer zaradi napačnih odločitev ali napačnih ali pristranskih izhodnih podatkov, ki jih ustvari umetnointeligenčni sistem. Uporabniki umetnointeligenčnega sistema bi morali sprejeti ukrepe, da morebitni kompromis med robustnostjo in točnostjo ne bi privedel do diskriminatornih ali negativnih rezultatov za manjšinske podskupine.

Sprememba 87

Predlog uredbe

Uvodna izjava 51

Besedilo, ki ga predlaga Komisija

Sprememba

(51)

Kibernetska varnost ima ključno vlogo pri zagotavljanju odpornosti umetnointeligenčnih sistemov proti poskusom spreminjanja njihove uporabe, vedenja, zmogljivosti ali ogrožanja njihovih varnostnih lastnosti s strani zlonamernih tretjih oseb, ki izkoriščajo šibke točke sistema. Kibernetski napadi na umetnointeligenčne sisteme lahko izkoristijo posebna sredstva umetne inteligence, kot so nabori učnih podatkov (npr. zastrupitev podatkov) ali naučeni modeli (npr. nasprotovalni napadi), ali pa izkoristijo šibke točke digitalnih sredstev umetnointeligenčnega sistema ali osnovne infrastrukture IKT. Da bi zagotovili raven kibernetske varnosti, ki ustreza tveganjem, bi morali ponudniki umetnointeligenčnih sistemov velikega tveganja sprejeti ustrezne ukrepe in pri tem ustrezno upoštevati tudi osnovno infrastrukturo IKT.

(51)

Kibernetska varnost ima ključno vlogo pri zagotavljanju odpornosti umetnointeligenčnih sistemov proti poskusom spreminjanja njihove uporabe, vedenja, zmogljivosti ali ogrožanja njihovih varnostnih lastnosti s strani zlonamernih tretjih oseb, ki izkoriščajo šibke točke sistema. Kibernetski napadi na umetnointeligenčne sisteme lahko izkoristijo posebna sredstva umetne inteligence, kot so nabori učnih podatkov (npr. zastrupitev podatkov) ali naučeni modeli (npr. nasprotovalni napadi ali napadi na zaupnost ), ali pa izkoristijo šibke točke digitalnih sredstev umetnointeligenčnega sistema ali osnovne infrastrukture IKT. Da bi zagotovili raven kibernetske varnosti, ki ustreza tveganjem, bi morali ponudniki umetnointeligenčnih sistemov velikega tveganja , pa tudi priglašeni organi, pristojni nacionalni organi in organi za nadzor trga, sprejeti ustrezne ukrepe in pri tem ustrezno upoštevati tudi osnovno infrastrukturo IKT. Umetno inteligenco velikega tveganja bi morale spremljati varnostne rešitve in popravki v življenjski dobi proizvoda, v primeru, da ne gre za odvisnost od določenega proizvoda, pa v obdobju, ki ga mora navesti proizvajalec.

Sprememba 88

Predlog uredbe

Uvodna izjava 53 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(53a)

Kot podpisnice Konvencije Organizacije združenih narodov o pravicah invalidov so Unija in države članice pravno zavezane, da ščitijo invalide pred diskriminacijo in spodbujajo njihovo enakost, jim zagotovijo, da imajo enako kot drugi dostop do informacijskih in komunikacijskih tehnologij in sistemov, ter da se spoštuje njihova zasebnost. Ob vse večjem pomenu in uporabi umetnointeligenčnih sistemov bi morala uporaba načel univerzalnega oblikovanja pri vseh novih tehnologijah in storitvah zagotoviti popoln, enakopraven in neomejen dostop vsem, ki so lahko izpostavljeni tehnologijam umetne inteligence ali te tehnologije uporabljajo, tudi invalidom, na način, ki v celoti upošteva njihovo prirojeno dostojanstvo in raznolikost. Zato je bistvenega pomena, da ponudniki zagotavljajo popolno skladnost z zahtevami glede dostopnosti, tudi z Direktivo (EU) 2016/2102 in Direktivo 2019/882. Ponudniki bi morali zagotoviti skladnost s temi zahtevami že pri zasnovi. Zato bi bilo treba potrebne ukrepe v čim večji meri vključiti v zasnovo umetnointeligenčnega sistema velikega tveganja.

Sprememba 89

Predlog uredbe

Uvodna izjava 54

Besedilo, ki ga predlaga Komisija

Sprememba

(54)

Ponudnik bi moral vzpostaviti zanesljiv sistem upravljanja kakovosti, zagotoviti izvedbo zahtevanega postopka ugotavljanja skladnosti, pripraviti ustrezno dokumentacijo in vzpostaviti robusten sistem spremljanja po dajanju na trg. Javni organi, ki umetnointeligenčne sisteme velikega tveganja dajejo v uporabo za lastno uporabo, lahko sprejmejo in izvajajo pravila za sistem upravljanja kakovosti kot del sistema upravljanja kakovosti, sprejetega na nacionalni oziroma regionalni ravni ob upoštevanju posebnosti sektorja ter pristojnosti in organizacije zadevnega javnega organa.

(54)

Ponudnik bi moral vzpostaviti zanesljiv sistem upravljanja kakovosti, zagotoviti izvedbo zahtevanega postopka ugotavljanja skladnosti, pripraviti ustrezno dokumentacijo in vzpostaviti robusten sistem spremljanja po dajanju na trg. Za ponudnike, ki že imajo vzpostavljene sisteme upravljanja kakovosti, ki temeljijo na standardih, kot je ISO 9001, ali drugih ustreznih standardih, se ne bi smelo pričakovati celotnih dvojnih sistemov upravljanja kakovosti, temveč da se obstoječi sistemi prilagodijo nekaterim vidikom v zvezi z izpolnjevanjem posebnih zahtev iz te uredbe. To bi se moralo odražati tudi v prihodnjih dejavnostih standardizacije ali smernicah, ki jih v zvezi s tem sprejme Komisija. Javni organi, ki umetnointeligenčne sisteme velikega tveganja dajejo v uporabo za lastno uporabo, lahko sprejmejo in izvajajo pravila za sistem upravljanja kakovosti kot del sistema upravljanja kakovosti, sprejetega na nacionalni oziroma regionalni ravni ob upoštevanju posebnosti sektorja ter pristojnosti in organizacije zadevnega javnega organa.

Sprememba 90

Predlog uredbe

Uvodna izjava 56

Besedilo, ki ga predlaga Komisija

Sprememba

(56)

Da se omogoči izvajanje te uredbe in ustvarijo enaki konkurenčni pogoji za operaterje ter ob upoštevanju različnih oblik dajanja digitalnih proizvodov na voljo, je pomembno zagotoviti, da lahko oseba s sedežem v Uniji v vseh okoliščinah organom zagotovi vse potrebne informacije o skladnosti umetnointeligenčnega sistema. Zato ponudniki s sedežem zunaj Unije pred dajanjem svojih umetnointeligenčnih sistemov na voljo v Uniji, kadar ni mogoče ugotoviti, kdo je uvoznik, s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.

(56)

Da se omogoči izvajanje te uredbe in ustvarijo enaki konkurenčni pogoji za operaterje ter ob upoštevanju različnih oblik dajanja digitalnih proizvodov na voljo, je pomembno zagotoviti, da lahko oseba s sedežem v Uniji v vseh okoliščinah organom zagotovi vse potrebne informacije o skladnosti umetnointeligenčnega sistema. Zato ponudniki s sedežem zunaj Unije pred dajanjem svojih umetnointeligenčnih sistemov na voljo v Uniji, s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.

Sprememba 91

Predlog uredbe

Uvodna izjava 58

Besedilo, ki ga predlaga Komisija

Sprememba

(58)

Glede na naravo umetnointeligenčnih sistemov ter tveganja za varnost in temeljne pravice, ki so morda povezana z njihovo uporabo, vključno s potrebo po zagotovitvi ustreznega spremljanja zmogljivosti umetnointeligenčnega sistema v realnem življenju, je primerno določiti posebne odgovornosti za uporabnike . Uporabniki bi morali umetnointeligenčne sisteme velikega tveganja uporabljati zlasti v skladu z navodili za uporabo, pri čemer bi bilo treba določiti nekatere druge obveznosti v zvezi s spremljanjem delovanja umetnointeligenčnih sistemov in po potrebi v zvezi z vodenjem evidenc.

(58)

Glede na naravo umetnointeligenčnih sistemov ter tveganja za varnost in temeljne pravice, ki so morda povezana z njihovo uporabo, vključno s potrebo po zagotovitvi ustreznega spremljanja zmogljivosti umetnointeligenčnega sistema v realnem življenju, je primerno določiti posebne odgovornosti za uvajalce . Uvajalci bi morali umetnointeligenčne sisteme velikega tveganja uporabljati zlasti v skladu z navodili za uporabo, pri čemer bi bilo treba določiti nekatere druge obveznosti v zvezi s spremljanjem delovanja umetnointeligenčnih sistemov in po potrebi v zvezi z vodenjem evidenc.

Sprememba 92

Predlog uredbe

Uvodna izjava 58 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(58a)

Poleg tega, da lahko tveganja, povezana z umetnointeligenčnimi sistemi, nastanejo zaradi načina zasnove takih sistemov, lahko tveganja izvirajo tudi iz tega, kako se taki sistemi uporabljajo. Uvajalci umetnointeligenčnega sistema velikega tveganja imajo zato ključno vlogo pri skrbi za zaščito temeljnih pravic, kar dopolnjuje obveznosti ponudnika pri razvoju umetnointeligenčnega sistema. Uvajalci najbolje razumejo, kako se bo umetnointeligenčni sistem velikega tveganja dejansko uporabljal, in lahko tako opredelijo potencialna velika tveganja, ki niso bila predvidena v fazi razvoja, saj natančneje poznajo okoliščine uporabe, osebe ali skupine oseb, ki bodo verjetno izpostavljeni, vključno z marginaliziranimi in ranljivimi skupinami. Uvajalci bi morali opredeliti ustrezne strukture upravljanja v tem posebnem okviru uporabe, kot so ureditve za človeški nadzor, pritožbeni in odškodninski postopki, saj so lahko odločitve v strukturah upravljanja ključne za zmanjšanje tveganj za temeljne pravice v konkretnih primerih uporabe. Za učinkovito zaščito temeljnih pravic bi moral uvajalec umetnointeligenčnih sistemov velikega tveganja pred začetkom uporabe izvesti oceno učinka na temeljne pravice. Oceni učinka bi bilo treba priložiti podroben načrt, ki opisuje ukrepe ali orodja, ki bodo pomagali ublažiti tveganja za temeljne pravice, ki se ugotovijo najkasneje ob začetku uporabe. Če takega načrta ni mogoče opredeliti, uvajalec sistem ne bi smel začeti uporabljati. Pri izvajanju te ocene učinka bi moral uvajalec obvestiti nacionalni nadzorni organ in, kolikor je to mogoče, morebitne ustrezne deležnike ter predstavnike skupin oseb, ki bodo verjetno izpostavljene umetnointeligenčnemu sistemu, da bi zbrali ustrezne informacije, potrebne za izvedbo ocene učinka, hkrati pa se jih spodbuja, naj povzetek ocene učinka na temeljne pravice javno objavijo na svojem spletnem mestu. Te obveznosti se ne bi smele uporabljati za mala in srednja podjetja, ki bi lahko imela glede na pomanjkanje virov težave pri izvajanju takega posvetovanja. Vendar bi si morala prizadevati, da v pripravo ocene učinka na temeljne pravice vključijo take deležnike. Glede na potencialni učinek in potrebo po demokratičnem preverjanju in nadzoru bi morala za uvajalce umetnointeligenčnih sistemov velikega tveganja, ki so javni organi ali institucije, organi, uradi in agencije Unije, ter uvajalce, ki so podjetja, določena za vratarje v skladu z Uredbo (EU) 2022/1925, veljati obveznost, da registrirajo uporabo vseh umetnointeligenčnih sistemov velikega tveganja v javni podatkovni zbirki. Registracija za druge uvajalce je lahko prostovoljna.

Sprememba 93

Predlog uredbe

Uvodna izjava 59

Besedilo, ki ga predlaga Komisija

Sprememba

(59)

Primerno je predvideti, da je uporabnik umetnointeligenčnega sistema fizična ali pravna oseba, javni organ, agencija ali drug organ, pod čigar nadzorom deluje umetnointeligenčni sistem, razen kadar se uporablja v okviru osebne nepoklicne dejavnosti.

(59)

Primerno je predvideti, da je uvajalec umetnointeligenčnega sistema fizična ali pravna oseba, javni organ, agencija ali drug organ, pod čigar nadzorom deluje umetnointeligenčni sistem, razen kadar se uporablja v okviru osebne nepoklicne dejavnosti.

Sprememba 94

Predlog uredbe

Uvodna izjava 60

Besedilo, ki ga predlaga Komisija

Sprememba

(60)

Zaradi kompleksnosti vrednostne verige umetne inteligence bi morale ustrezne tretje osebe, zlasti tiste, ki so vključene v prodajo in dobavo programske opreme, programskih orodij in komponent, prednaučenih modelov in podatkov, ali ponudniki omrežnih storitev, po potrebi sodelovati s ponudniki in uporabniki , da jim omogočijo izpolnjevanje obveznosti iz te uredbe , ter s pristojnimi organi , ustanovljenimi na podlagi te uredbe .

(60)

V vrednostni verigi umetne inteligence pogosto več subjektov zagotavlja orodja in storitve, pa tudi komponente ali postopke, ki jih ponudnik nato vključi v umetnointeligenčni sistem, tudi v zvezi z zbiranjem in predobdelavo podatkov, učenjem in ponovnim učenjem modelov, njihovim testiranjem in ocenjevanjem, vključevanjem v programsko opremo ali drugimi vidiki razvoja modela. Sodelujoči subjekti lahko dajo svojo ponudbo neposredno ali posredno na voljo na trgu prek vmesnikov, kot so vmesniki za aplikacijsko programiranje (API), in jih razširjajo na podlagi brezplačnih in odprtokodnih licenc, pa tudi vse bolj prek platform delovne sile na področju umetne inteligence, preprodaje naučenih parametrov, kompletov za domačo izdelavo modelov ali ponujanja plačljivega dostopa do arhitekture modela za razvoj in učenje modelov. Zaradi te kompleksnosti vrednostne verige umetne inteligence bi morale vse ustrezne tretje osebe, zlasti tiste, ki so vključene v  razvoj, prodajo in komercialno dobavo programskih orodij, komponent, prednaučenih modelov ali podatkov, vključenih v umetnointeligenčni sistem, ali ponudniki omrežnih storitev, ne da bi ogrozili lastne pravice intelektualne lastnine ali poslovne skrivnosti, dati na voljo potrebne informacije, usposabljanje ali strokovno znanje ter po potrebi sodelovati s ponudniki, da jim omogočijo nadzor vseh vidikov v zvezi s skladnostjo umetnointeligenčnega sistema , za katerega velja ta uredba. Za stroškovno učinkovito upravljanje vrednostne verige umetne inteligence, vsaka tretja oseba, ki ponudniku zagotovi orodje, storitev, komponento ali postopek, ki ga ponudnik pozneje vključi v umetnointeligenčni sistem, izrecno razkrije raven nadzora.

Sprememba 95

Predlog uredbe

Uvodna izjava 60 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60a)

Kadar je ena stranka v močnejšem pogajalskem položaju, bi lahko ta stranka tak položaj lahko izkoristila v škodo druge pogodbene stranke pri pogajanjih o dobavi orodij, storitev, komponent ali postopkov, ki se uporabljajo ali vključujejo v umetnointeligenčni sistem velikega tveganja, ali o pravnih sredstvih za kršitev ali prenehanje povezanih obveznosti. Taka pogodbena neravnovesja zlasti škodujejo mikro, malim in srednjim podjetjem ter zagonskim podjetjem, razen če so v lasti ali podizvajalci podjetja, ki lahko podizvajalcu zagotovi ustrezno nadomestilo, saj ta podjetja nimajo prave možnosti za pogajanja o pogodbenih pogojih in morda nimajo druge izbire, kot da sprejmejo pogodbene pogoje po načelu „vzemi ali pusti“. Zato nepošteni pogodbeni pogoji, ki urejajo dobavo orodij, storitev, komponent ali postopkov, ki se uporabljajo ali so vključeni v umetnointeligenčni sistem velikega tveganja, ali pravna sredstva za kršitev ali prenehanje povezanih obveznosti ne bi smela biti zavezujoča za taka mikro, mala ali srednja podjetja in zagonska podjetja, če so jim bila enostransko naložena.

Sprememba 96

Predlog uredbe

Uvodna izjava 60 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60b)

Pravila o pogodbenih pogojih bi morala upoštevati načelo pogodbene svobode kot bistven koncept v odnosih med podjetji. Zato se preskus nepoštenosti ne bi smel uporabljati za vse pogodbene pogoje, temveč zgolj za tiste, ki se enostransko naložijo mikro, malim in srednjim podjetjem in zagonskim podjetjem. To zadeva primere „vzemi ali pusti“, kadar ena stranka postavi določen pogodbeni pogoj in mikro, malo ali srednje podjetje in zagonsko podjetje kljub poskusu pogajanj ne more vplivati na njegovo vsebino. Pogodbeni pogoj, ki ga ena stranka določi, mikro, malo ali srednje podjetje ali zagonsko podjetje pa sprejme, ali pogoj, o katerem se pogodbeni stranki najprej pogajata in nato dogovorita ob upoštevanju predlaganih sprememb, se ne bi smel šteti za enostransko naloženega.

Sprememba 97

Predlog uredbe

Uvodna izjava 60 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60c)

Zato bi se morala pravila o nepoštenih pogodbenih pogojih uporabljati samo za tiste elemente pogodbe, ki so povezani z dobavo orodij, storitev, komponent ali postopkov, ki se uporabljajo ali so vključeni v umetnointeligenčni sistem velikega tveganja, ali s pravnimi sredstvi za kršitev ali prenehanje povezanih obveznosti. Za druge dele iste pogodbe, ki niso povezani s temi elementi, se preskus nepoštenosti iz te uredbe ne uporablja.

Sprememba 98

Predlog uredbe

Uvodna izjava 60 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60d)

Merila za opredelitev nepoštenih pogodbenih pogojev bi se morala uporabljati zgolj za pretirane pogodbene pogoje, pri katerih gre za zlorabo močnejšega pogajalskega položaja. Pri veliki večini pogodbenih pogojev, ki so za eno stranko poslovno ugodnejši kot za drugo, vključno s tistimi, ki so običajni v pogodbah med podjetji, gre za običajen izraz načela pogodbene svobode in se še naprej uporabljajo. Če pogodbeni pogoj ni vključen na seznam pogojev, ki se vedno štejejo za nepoštene, se uporabi splošna določba o nepoštenosti. Pri tem bi se morali pogoji, navedeni kot nepošteni, uporabljati kot referenčna merila za razlago splošne določbe o nepoštenosti.

Sprememba 99

Predlog uredbe

Uvodna izjava 60 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60e)

Temeljni modeli so najnovejši razvoj, v katerem se umetnointeligenčni modeli razvijajo iz algoritmov, zasnovanih za optimizacijo splošnosti in vsestranskosti rezultatov. Ti modeli se pogosto učijo na širokem naboru virov podatkov in velikih količinah podatkov, da opravljajo najrazličnejše naloge nižje v verigi, vključno z nekaterimi, za katere niso bili posebej razviti in naučeni. Temeljni model je lahko enomodalen ali multimodalen ter se uči po različnih metodah, kot sta nadzorovano učenje ali spodbujevano učenje. Umetnointeligenčni sistemi z določenim predvidenim namenom ali umetnointeligenčni sistemi za splošne namene so lahko izvedba temeljnega modela, kar pomeni, da se lahko vsak temeljni model ponovno uporabi v številnih umetnointeligenčnih sistemih nižje v verigi ali umetnointeligenčnih sistemih za splošne namene. Ti modeli so vse bolj pomembni za vse aplikacije in sisteme nižje v verigi.

Sprememba 100

Predlog uredbe

Uvodna izjava 60 f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60f)

V primeru temeljnih modelov, ki se zagotavljajo kot storitev, kot je dostop do vmesnikov za aplikacijsko programiranje, bi se moralo sodelovanje s ponudniki nižje v verigi razširiti na celotno obdobje, v katerem se ta storitev zagotavlja in podpira, da je mogoče ustrezno zmanjšati tveganje, razen če ponudnik temeljnega modela prenese učni model ter obsežne in ustrezne informacije o naborih podatkov in postopku razvoja sistema ali omeji storitev, kot je dostop do vmesnika za aplikacijsko programiranje, tako da lahko ponudnik, ki je nižje v verigi, dosledno ravna v skladu s to uredbo brez nadaljnje podpore prvotnega ponudnika temeljnega modela.

Sprememba 101

Predlog uredbe

Uvodna izjava 60 g (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60g)

Glede na naravo in kompleksnost vrednostne verige umetnointeligenčnih sistemov je bistveno pojasniti vlogo akterjev, ki sodelujejo pri razvoju teh sistemov. Pri razvoju temeljnih modelov obstaja precej negotovosti, tako glede tipologije modelov kot glede samoupravljanja. Zato je bistveno pojasniti pravni položaj ponudnikov temeljnih modelov. V povezavi z njihovo kompleksnostjo in nepričakovanim učinkom, pomanjkanjem nadzora ponudnika umetne inteligence nižje v verigi nad razvojem temeljnega modela in posledičnim neravnovesjem moči ter za zagotovitev pravične delitve odgovornosti vzdolž vrednostne verige umetne inteligence bi morale za take modele veljati sorazmerne in bolj specifične zahteve in obveznosti iz te uredbe, in sicer bi morali temeljni modeli oceniti in ublažiti morebitna tveganja in škodo z ustrezno zasnovo, preskušanjem in analizo, izvajati ukrepe za upravljanje podatkov, vključno z oceno pristranskosti, in izpolnjevati tehnične zahteve glede zasnove, da se zagotovijo ustrezne ravni učinkovitosti, predvidljivosti, razložljivosti, doslednosti, varnosti in kibernetske varnosti ter skladni z okoljskimi standardi. Te obveznosti bi morali spremljati standardi. Ravno tako bi morale za temeljne modele veljati obveznosti glede informacij in bi morala biti pripravljena vsa tehnična dokumentacija, da bodo lahko morebitni ponudniki nižje v verigi izpolnjevali svoje obveznosti v skladu s to uredbo. Generativni temeljni modeli bi morali zagotavljati preglednost, da je vsebino ustvaril umetnointeligenčni sistem in ne človek. Te posebne zahteve in obveznosti ne pomenijo, da se temeljni modeli obravnavajo kot umetnointeligenčni sistemi velikega tveganja, ampak bi morale zagotoviti, da se uresničujejo cilji te uredbe za visoko raven zaščite temeljnih pravic, zdravja in varnosti, okolja, demokracije ter pravne države. Prednaučeni modeli, razviti za ožji, manj splošen in bolj omejen nabor aplikacij, ki jih ni mogoče prilagoditi različnim nalogam, kot so enostavni večnamenski umetnointeligenčni sistemi, se za namene te uredbe ne bi smeli šteti za temeljne modele, saj je zaradi boljše razložljivosti njihovo vedenje manj predvidljivo.

Sprememba 102

Predlog uredbe

Uvodna izjava 60 h (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(60h)

Glede na naravo temeljnih modelov ni strokovnega znanja na področju ugotavljanja skladnosti, revizijske metode tretjih strani pa se še razvijajo. Zato sektor razvija nove načine za ocenjevanje temeljnih modelov, ki delno izpolnjujejo cilj revizije (kot so ocenjevanje modelov, etični heking ali preverjanje strojnega učenja in tehnike potrjevanja). Te notranje ocene za temeljne modele bi morale biti splošno uporabne (npr. neodvisne od distribucijskih kanalov, načina, razvojnih metod), da se obravnavajo tveganja, značilna za take modele, ob upoštevanju najsodobnejših praks v industriji, ter da se osredotoči na pridobivanje zadostnega tehničnega znanja in nadzora nad modelom, obvladovanje razumno predvidljivih tveganj ter obsežno analizo in testiranje modela z ustreznimi ukrepi, na primer z vključitvijo neodvisnih ocenjevalcev. Ker so temeljni modeli hitro razvijajoča se novost na področju umetne inteligence, je primerno, da Komisija in urad za umetno inteligenco spremljata in redno ocenjujeta zakonodajni okvir in okvir upravljanja za take modele, zlasti generativne umetnointeligenčne sisteme, ki temeljijo na takih modelih, kjer se postavljajo pomembna vprašanja v zvezi z ustvarjanjem vsebin v nasprotju s pravom Unije, pravili o avtorskih pravicah in morebitno zlorabo. Pojasniti bi bilo treba, da ta uredba ne bi smela posegati v pravo Unije o avtorski in sorodnih pravicah, vključno z direktivami 2001/29/ES, 2004/48/ECR in (EU) 2019/790 Evropskega parlamenta in Sveta.

Sprememba 103

Predlog uredbe

Uvodna izjava 61

Besedilo, ki ga predlaga Komisija

Sprememba

(61)

Standardizacija bi morala imeti ključno vlogo pri zagotavljanju tehničnih rešitev za ponudnike, da se zagotovi skladnost s to uredbo. Sredstvo, s katerim ponudniki dokazujejo skladnost z zahtevami iz te uredbe, bi morala biti skladnost s harmoniziranimi standardi, kot so opredeljeni v Uredbi (EU) št. 1025/2012 Evropskega parlamenta in Sveta (54). Vendar bi lahko Komisija sprejela skupne tehnične specifikacije na področjih, na katerih harmonizirani standardi ne obstajajo ali kjer so nezadostni.

(61)

Standardizacija bi morala imeti ključno vlogo pri zagotavljanju tehničnih rešitev za ponudnike, da se zagotovi skladnost s to uredbo. Sredstvo, s katerim ponudniki dokazujejo skladnost z zahtevami iz te uredbe, bi morala biti skladnost s harmoniziranimi standardi, kot so opredeljeni v Uredbi (EU) št. 1025/2012 Evropskega parlamenta in Sveta (54). Da se zagotovi učinkovitost standardov in standardizacije kot orodij politike Unije ter ob upoštevanju pomena standardov za konkurenčnost podjetij in zagotavljanje skladnosti z zahtevami te uredbe, je treba zagotoviti uravnoteženo zastopanost interesov, tako da se spodbuja sodelovanje vseh zadevnih deležnikov pri razvoju standardov. Postopek standardizacije bi moral biti pregleden, kar zadeva pravne in fizične osebe, ki sodelujejo pri dejavnostih standardizacije.

Sprememba 104

Predlog uredbe

Uvodna izjava 61 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(61a)

Za lažje izpolnjevanje zahtev bi morala Komisija prve zahteve za standardizacijo izdati najpozneje dva meseca po začetku veljavnosti te uredbe. S tem bi izboljšali pravno varnost, s čimer bi spodbujali naložbe in inovacije na področju umetne inteligence ter konkurenčnost in rast trga Unije, hkrati pa bi okrepili večdeležniško upravljanje, ki zastopa vse ustrezne evropske deležnike, kot so urad za umetno inteligenco, evropske organizacije za standardizacijo in organi ali strokovne skupine, ustanovljene v skladu z ustreznim sektorskim pravom Unije, ter industrija, mala in srednja podjetja, zagonska podjetja, civilna družba, raziskovalci in socialni partnerji, nazadnje pa bi moralo olajšati globalno sodelovanje pri standardizaciji na področju umetne inteligence na način, ki je skladen z vrednotami Unije. Komisija se pri pripravi zahteve za standardizacijo posvetuje z uradom za umetno inteligenco in svetovalnim forumom za umetno inteligenco, da pridobi ustrezno strokovno znanje.

Sprememba 105

Predlog uredbe

Uvodna izjava 61 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(61b)

Kadar naj bi se umetnointeligenčni sistemi uvedli na delovnem mestu, so harmonizirani standardi omejeni na tehnične specifikacije in postopke.

Sprememba 106

Predlog uredbe

Uvodna izjava 61 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(61c)

Komisija bi morala imeti možnost, da pod določenimi pogoji sprejme skupne specifikacije, kadar ni ustreznega harmoniziranega standarda, ali da obravnava posebne pomisleke glede temeljnih pravic. Komisija se med celotnim postopkom priprave redno posvetuje z uradom za umetno inteligenco in svetovalnim forumom, evropskimi organizacijami in organi za standardizacijo ali strokovnimi skupinami, ustanovljenimi v skladu z ustreznim sektorskim pravom Unije, ter drugimi ustreznimi deležniki, kot so industrija, mala in srednja podjetja, zagonska podjetja, civilna družba, raziskovalci in socialni partnerji.

Sprememba 107

Predlog uredbe

Uvodna izjava 61 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(61d)

Komisija bi si morala pri sprejemanju skupnih specifikacij prizadevati za regulativno uskladitev umetne inteligence s podobno mislečimi svetovnimi partnerji, kar je ključno za spodbujanje inovacij in čezmejnih partnerstev na področju umetne inteligence, saj je usklajevanje s podobno mislečimi partnerji v mednarodnih organih za standardizacijo zelo pomembno.

Sprememba 108

Predlog uredbe

Uvodna izjava 62

Besedilo, ki ga predlaga Komisija

Sprememba

(62)

Da bi zagotovili visoko raven zaupanja v umetnointeligenčne sisteme velikega tveganja, bi bilo treba za te sisteme pred dajanjem na trg ali v uporabo opraviti ugotavljanje skladnosti.

(62)

Da bi zagotovili visoko raven zaupanja v umetnointeligenčne sisteme velikega tveganja, bi bilo treba za te sisteme pred dajanjem na trg ali v uporabo opraviti ugotavljanje skladnosti. Da bi povečali zaupanje v vrednostno verigo in podjetjem zagotovili gotovost glede zmogljivosti njihovih sistemov, lahko tretje osebe, ki dobavljajo umetnointeligenčne komponente, tretje osebe prostovoljno zaprosijo za oceno skladnosti s strani.

Sprememba 109

Predlog uredbe

Uvodna izjava 64

Besedilo, ki ga predlaga Komisija

Sprememba

(64)

Glede na obsežnejše izkušnje poklicnih izdajateljev potrdil pred dajanjem na trg na področju varnosti proizvodov in različno naravo zadevnih tveganj je primerno, da se vsaj v začetni fazi uporabe te uredbe omeji področje uporabe ugotavljanja skladnosti s strani tretjih oseb za umetnointeligenčne sisteme velikega tveganja, ki niso povezani s proizvodi. Zato bi moral ugotavljanje skladnosti takih sistemov praviloma opraviti ponudnik na lastno odgovornost, z edino izjemo umetnointeligenčnih sistemov, namenjenih uporabi za biometrično identifikacijo oseb na daljavo, za katere bi bilo treba predvideti sodelovanje priglašenega organa pri ugotavljanju skladnosti, če to ni prepovedano.

(64)

Glede na kompleksnost umetnointeligenčnih sistemov velikega tveganja in z njimi povezana tveganja je bistveno, da se razvije ustreznejša zmogljivost za uporabo ugotavljanja skladnosti s strani tretjih oseb za umetnointeligenčne sisteme velikega tveganja. Vendar glede na sedanje izkušnje poklicnih izdajateljev potrdil pred dajanjem na trg na področju varnosti proizvodov in različno naravo zadevnih tveganj je primerno, da se vsaj v začetni fazi uporabe te uredbe omeji področje uporabe ugotavljanja skladnosti s strani tretjih oseb za umetnointeligenčne sisteme velikega tveganja, ki niso povezani s proizvodi. Zato bi moral ugotavljanje skladnosti takih sistemov praviloma opraviti ponudnik na lastno odgovornost, z edino izjemo umetnointeligenčnih sistemov, namenjenih uporabi za biometrično identifikacijo oseb na daljavo , ali umetnointeligenčnih sistemov, namenjenih sklepanju o osebnih značilnostih fizičnih oseb na podlagi biometričnih podatkov ali podatkov, ki temeljijo na biometriji, vključno s sistemi za prepoznavanje čustev , za katere bi bilo treba predvideti sodelovanje priglašenega organa pri ugotavljanju skladnosti, če to ni prepovedano.

Sprememba 110

Predlog uredbe

Uvodna izjava 65

Besedilo, ki ga predlaga Komisija

Sprememba

(65)

Za izvajanje ugotavljanja skladnosti umetnointeligenčnih sistemov, namenjenih uporabi za biometrično identifikacijo oseb na daljavo , s strani tretjih oseb , bi morali pristojni nacionalni organi v skladu s to uredbo imenovati priglašene organe, če izpolnjujejo vrsto zahtev, zlasti glede neodvisnosti, pristojnosti in neobstoja navzkrižja interesov.

(65)

Za izvajanje ugotavljanja skladnosti s strani tretjih oseb, kadar se to zahteva , bi morali pristojni nacionalni organi v skladu s to uredbo imenovati priglašene organe, če izpolnjujejo vrsto zahtev, zlasti glede neodvisnosti, pristojnosti, neobstoja navzkrižja interesov in minimalnih zahtev glede kibernetske varnosti . Države članice bi morale spodbujati imenovanje zadostnega števila organov za ugotavljanje skladnosti, da bi bilo izdajanje potrdil pravočasno. Postopki ocenjevanja, imenovanja, priglasitve in spremljanja organov za ugotavljanje skladnosti se v državah članicah izvajajo čim bolj enotno, da bi odpravili upravne mejne ovire in uresničili potencial notranjega trga.

Sprememba 111

Predlog uredbe

Uvodna izjava 65 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(65a)

V skladu z zavezami EU iz Sporazuma Svetovne trgovinske organizacije o tehničnih ovirah v trgovini je primerno čim bolj povečati sprejemljivost rezultatov testiranja, ki jih dobijo pristojni organi za ugotavljanje skladnosti, ne glede na ozemlje, na katerem imajo sedež, da bi se po potrebi dokazala skladnost z veljavnimi zahtevami iz Uredbe. Komisija bi morala v ta namen dejavno preučiti možne mednarodne instrumente in si zlasti prizadevati za morebitno sklenitev sporazumov o vzajemnem priznavanju z državami, ki so na primerljivi ravni tehničnega razvoja in imajo skladen pristop v zvezi z umetno inteligenco in ugotavljanjem skladnosti.

Sprememba 112

Predlog uredbe

Uvodna izjava 66

Besedilo, ki ga predlaga Komisija

Sprememba

(66)

V skladu s skupno uveljavljenim pojmom bistvene spremembe za proizvode, ki jih ureja harmonizacijska zakonodaja Unije, je primerno, da se za umetnointeligenčni sistem ob vsaki spremembi, ki bi lahko vplivala na skladnost sistema s to uredbo ali ko se spremeni predvideni namen sistema, izvede novo ugotavljanje skladnosti. Poleg tega je treba v zvezi z umetnointeligenčnimi sistemi, ki se po dajanju na trg ali v uporabo še naprej „učijo“ (tj. samodejno prilagajajo način izvajanja funkcij), določiti pravila, ki določajo, da spremembe algoritma in njegove zmogljivosti, ki jih je ponudnik vnaprej določil in ocenil ob ugotavljanju skladnosti, ne bi smele pomeniti bistvene spremembe.

(66)

V skladu s skupno uveljavljenim pojmom bistvene spremembe za proizvode, ki jih ureja harmonizacijska zakonodaja Unije, je primerno, da se za umetnointeligenčni sistem velikega tveganja ob vsaki nenačrtovani spremembi, ki presega nadzorovane in vnaprej določene spremembe ponudnika, vključno s stalnim učenjem, in ki bi lahko povzročila novo nesprejemljivo tveganje ter pomembno vplivala na skladnost umetnointeligenčnega sistema velikega tveganja s to uredbo ali ko se spremeni predvideni namen sistema, izvede novo ugotavljanje skladnosti. Poleg tega je treba v zvezi z umetnointeligenčnimi sistemi, ki se po dajanju na trg ali v uporabo še naprej „učijo“ (tj. samodejno prilagajajo način izvajanja funkcij), določiti pravila, ki določajo, da spremembe algoritma in njegove zmogljivosti, ki jih je ponudnik vnaprej določil in ocenil ob ugotavljanju skladnosti, ne bi smele pomeniti bistvene spremembe. Enako bi moralo veljati za posodobitve umetnointeligenčnega sistema iz varnostnih razlogov na splošno in za zaščito pred spreminjajočimi se grožnjami za manipulacijo sistema, če te ne pomenijo bistvene spremembe.

Sprememba 113

Predlog uredbe

Uvodna izjava 67

Besedilo, ki ga predlaga Komisija

Sprememba

(67)

Umetnointeligenčni sistemi velikega tveganja bi morali imeti oznako CE, ki označuje njihovo skladnost s to uredbo, da se lahko prosto gibljejo na notranjem trgu. Države članice ne bi smele neupravičeno ovirati dajanja na trg ali v uporabo umetnointeligenčnih sistemov velikega tveganja, ki izpolnjujejo zahteve iz te uredbe in nosijo oznako CE.

(67)

Umetnointeligenčni sistemi velikega tveganja bi morali imeti oznako CE, ki označuje njihovo skladnost s to uredbo, da se lahko prosto gibljejo na notranjem trgu. Za fizične umetnointeligenčne sisteme velikega tveganja bi bilo treba namestiti fizično oznako CE, ki jo lahko dopolnjuje digitalna oznaka CE. Za samo digitalne umetnointeligenčne sisteme velikega tveganja bi bilo treba uporabiti digitalno oznako CE. Države članice ne bi smele neupravičeno ovirati dajanja na trg ali v uporabo umetnointeligenčnih sistemov velikega tveganja, ki izpolnjujejo zahteve iz te uredbe in nosijo oznako CE.

Sprememba 114

Predlog uredbe

Uvodna izjava 68

Besedilo, ki ga predlaga Komisija

Sprememba

(68)

Pod določenimi pogoji je lahko hitra razpoložljivost inovativnih tehnologij ključnega pomena za zdravje in varnost ljudi ter za družbo kot celoto. Zato je primerno, da lahko države članice iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja fizičnih oseb ter varstva industrijske in poslovne lastnine dovolijo dajanje na trg ali v uporabo umetnointeligenčnih sistemov, za katere ni bilo opravljeno ugotavljanje skladnosti.

(68)

Pod določenimi pogoji je lahko hitra razpoložljivost inovativnih tehnologij ključnega pomena za zdravje in varnost ljudi , okolje in podnebne spremembe ter za družbo kot celoto. Zato je primerno, da lahko države članice iz izjemnih razlogov varstva življenja in zdravja fizičnih oseb , varstva okolja ter varstva kritične infrastrukture dovolijo dajanje na trg ali v uporabo umetnointeligenčnih sistemov, za katere ni bilo opravljeno ugotavljanje skladnosti.

Sprememba 115

Predlog uredbe

Uvodna izjava 69

Besedilo, ki ga predlaga Komisija

Sprememba

(69)

Za olajšanje dela Komisije in držav članic na področju umetne inteligence ter povečanje preglednosti za javnost bi bilo treba od ponudnikov umetnointeligenčnih sistemov velikega tveganja, razen tistih, povezanih s proizvodi, ki spadajo na področje uporabe ustrezne obstoječe harmonizacijske zakonodaje Unije, zahtevati, da svoje umetnointeligenčne sisteme velikega tveganja registrirajo v podatkovni zbirki EU, ki jo vzpostavi in upravlja Komisija. Komisija bi morala biti upravljavec navedene zbirke podatkov v skladu z Uredbo (EU) 2018/1725 Evropskega parlamenta in Sveta (55). Za zagotovitev popolne funkcionalnosti podatkovne zbirke ob njeni uvedbi bi moral postopek za vzpostavitev zbirke podatkov vključevati pripravo funkcionalnih specifikacij s strani Komisije in neodvisno revizijsko poročilo.

(69)

Za olajšanje dela Komisije in držav članic na področju umetne inteligence ter povečanje preglednosti za javnost bi bilo treba od ponudnikov umetnointeligenčnih sistemov velikega tveganja, razen tistih, povezanih s proizvodi, ki spadajo na področje uporabe ustrezne obstoječe harmonizacijske zakonodaje Unije, zahtevati, da svoje umetnointeligenčne sisteme velikega tveganja in temeljne modele registrirajo v podatkovni zbirki EU, ki jo vzpostavi in upravlja Komisija. Ta podatkovna zbirka bi morala biti prosto in javno dostopna, zlahka razumljiva in strojno berljiva. Podatkovna zbirka bi morala biti tudi uporabniku prijazna in enostavna za krmarjenje ter imeti iskalne funkcije, ki bi splošni javnosti v podatkovni zbirki omogočale vsaj iskanje določenih sistemov velikega tveganja, lokacije, kategorije tveganja iz Priloge IV in ključne besede. V podatkovni zbirki EU bi se morali prav tako registrirati uvajalci, ki so javni organi ali institucije, organi, uradi in agencije Unije, ali uvajalci, ki delujejo v njihovem imenu, in uvajalci, ki so podjetja, določena za vratarje v skladu z Uredbo (EU) 2022/1925, preden dajo v uporabo umetnointeligenčni sistem velikega tveganja, pred njegovo prvo uporabo ali po vsaki bistveni spremembi. Drugi uvajalci bi morali imeti pravico do prostovoljne registracije. V podatkovni zbirki EU bi bilo treba registrirati tudi pomembne spremembe umetnointeligenčnih sistemov velikega tveganja. Komisija bi morala biti upravljavec navedene zbirke podatkov v skladu z Uredbo (EU) 2018/1725 Evropskega parlamenta in Sveta (55). Za zagotovitev popolne funkcionalnosti podatkovne zbirke ob njeni uvedbi bi moral postopek za vzpostavitev zbirke podatkov vključevati pripravo funkcionalnih specifikacij s strani Komisije in neodvisno revizijsko poročilo. Komisija bi morala pri opravljanju nalog upravljavca podatkov v podatkovni zbirki EU upoštevati tveganja, povezana s kibernetsko varnostjo in nevarnostmi. Da bi bila podatkovna zbirka čim bolj nemoteno na voljo in bi jo javnost čim bolj uporabljala, bi morala zbirka, vključno z informacijami, ki so prek nje na voljo, izpolnjevati zahteve iz Direktive 2019/882.

Sprememba 116

Predlog uredbe

Uvodna izjava 71

Besedilo, ki ga predlaga Komisija

Sprememba

(71)

Umetna inteligenca je hitro razvijajoča se skupina tehnologij, ki zahteva nove oblike regulativnega nadzora in varen prostor za eksperimentiranje, hkrati pa zagotavlja odgovorne inovacije ter vključevanje ustreznih zaščitnih ukrepov in ukrepov za zmanjševanje tveganja. Da bi zagotovili pravni okvir, ki je prijazen do inovacij, primeren za prihodnost in odporen na motnje, bi bilo treba pristojne nacionalne organe iz ene ali več držav članic spodbuditi k vzpostavitvi regulativnih peskovnikov za umetno inteligenco, da bi omogočili razvoj in testiranje inovativnih umetnointeligenčnih sistemov pod strogim regulativnim nadzorom, preden se ti sistemi dajo na trg ali kako drugače v uporabo.

(71)

Umetna inteligenca je hitro razvijajoča se skupina tehnologij, ki zahteva regulativni nadzor ter varen in nadzorovan prostor za eksperimentiranje, hkrati pa zagotavlja odgovorne inovacije ter vključevanje ustreznih zaščitnih ukrepov in ukrepov za zmanjševanje tveganja. Da bi zagotovili pravni okvir, ki spodbuja inovacije, je primeren za prihodnost in odporen na motnje, bi morale države članice vzpostaviti vsaj en regulativni peskovnik za umetno inteligenco, da bi omogočili razvoj in testiranje inovativnih umetnointeligenčnih sistemov pod strogim regulativnim nadzorom, preden se ti sistemi dajo na trg ali kako drugače v uporabo. Zaželeno je, da vzpostavitev regulativnih peskovnikov, ki je zdaj prepuščena volji držav članic, kot naslednji korak postane obvezna z jasno določenimi merili. Ta obvezni peskovnik bi se lahko vzpostavil tudi skupaj z eno ali več drugimi državami članicami, če bi zajemal ustrezno nacionalno raven vključenih držav članic. Dodatne peskovnike bi bilo mogoče vzpostaviti na različnih ravneh, tudi med državami članicami, da bi pospešili čezmejno sodelovanje in sinergije. Države članice bi morale imeti možnost, da razen obveznega peskovnika na nacionalni ravni vzpostavijo virtualne ali hibridne peskovnike. Vsi regulativni peskovniki bi morali omogočati sprejemanje fizičnih in virtualnih proizvodov. Ustanovni organi bi morali zagotoviti, da imajo regulativni peskovniki ustrezne finančne in človeške vire za delovanje.

Sprememba 117

Predlog uredbe

Uvodna izjava 72

Besedilo, ki ga predlaga Komisija

Sprememba

(72)

Cilji regulativnih peskovnikov bi morali biti spodbujati inovacije na področju umetne inteligence z vzpostavitvijo nadzorovanega testnega okolja in okolja za eksperimentiranje v fazi razvoja ter pred trženjem, da se zagotovi skladnost inovativnih umetnointeligenčnih sistemov s to uredbo ter drugo ustrezno zakonodajo Unije in držav članic ; povečati pravno varnost za inovatorje ter nadzor in razumevanje priložnosti, nastajajočih tveganj in učinkov uporabe umetne inteligence s strani pristojnih organov ter pospešiti dostop do trgov , tudi z odpravo ovir za mala in srednja podjetja (MSP) ter zagonska podjetja. Za zagotovitev enotnega izvajanja po vsej Uniji in ekonomije obsega je primerno določiti skupna pravila za izvajanje regulativnih peskovnikov in okvir za sodelovanje med ustreznimi organi , vključenimi v nadzor peskovnikov. Ta uredba bi morala zagotoviti pravno podlago za uporabo osebnih podatkov , zbranih za druge namene za razvoj nekaterih umetnointeligenčnih sistemov v javnem interesu v regulativnem peskovniku za umetno inteligenco v skladu s členom 6(4) Uredbe (EU) 2016/679 in členom 6 Uredbe (EU) 2018/1725 ter brez poseganja člen 4(2) Direktive (EU) 2016/680 . Udeleženci v peskovniku bi morali zagotoviti ustrezne zaščitne ukrepe in sodelovati s pristojnimi organi , tudi z upoštevanjem njihovih smernic ter hitrim in dobronamernim ukrepanjem , da bi zmanjšali vsa velika tveganja za varnost in temeljne pravice, ki se lahko pojavijo med razvojem in eksperimentiranjem v peskovniku. Ravnanje udeležencev v peskovniku bi bilo treba upoštevati, ko se pristojni organi odločijo, ali bodo naložili upravno globo v skladu s členom 83(2) Uredbe 2016/679 in členom 57 Direktive 2016/680.

(72)

Cilji regulativnih peskovnikov bi morali biti : da bi ustanovni organi izboljšali svoje razumevanje tehničnega razvoja in nadzorne metode ter razvijalcem in ponudnikom umetnointeligenčnih sistemov zagotovili smernice za doseganje regulativne skladnosti s to uredbo ali po potrebi z drugo veljavno zakonodajo Unije in držav članic ter z Listino o temeljnih pravicah; da bi potencialni ponudniki dovolili in olajšali testiranje in razvoj inovativnih rešitev za umetnointeligenčne sisteme v fazi pred trženjem , da se poveča pravna varnost, da se ustanovnim organom omogoči več regulativnega učenja v nadzorovanem okolju, da lahko pripravijo boljše smernice in opredelijo morebitne prihodnje izboljšave pravnega okvira po rednem zakonodajnem postopku. Vsa pomembna tveganja, ugotovljena med razvojem in testiranjem takih umetnointeligenčnih sistemov , bi bilo treba nemudoma zmanjšati, v nasprotnem primeru pa postopek razvoja in testiranja ustaviti , dokler ne pride do takega zmanjšanja. Za zagotovitev enotnega izvajanja po vsej Uniji in ekonomije obsega je primerno določiti skupna pravila za izvajanje regulativnih peskovnikov in okvir za sodelovanje med ustreznimi organi, vključenimi nadzor peskovnikov . Države članice bi morale zagotoviti , da so ti regulativni peskovniki široko dostopni po vsej Uniji , sodelovanje pa bi moralo ostati prostovoljno. Zlasti je pomembno poskrbeti , da imajo mala in srednja podjetja ter zagonska podjetja enostaven dostop do teh peskovnikov, da so dejavno vključena razvoj in testiranje inovativnih umetnointeligenčnih sistemov ter pri tem sodelujejo , da lahko prispevajo svojim znanjem in izkušnjami .

Sprememba 118

Predlog uredbe

Uvodna izjava 72 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(72a)

Ta uredba bi morala zagotoviti pravno podlago za uporabo osebnih podatkov, zbranih za druge namene za razvoj nekaterih umetnointeligenčnih sistemov v javnem interesu v regulativnem peskovniku za umetno inteligenco samo pod določenimi pogoji v skladu s členom 6(4) Uredbe (EU) 2016/679 in členom 6 Uredbe (EU) 2018/1725 ter brez poseganja v člen 4(2) Direktive (EU) 2016/680. Potencialni ponudniki v peskovniku bi morali zagotoviti ustrezne zaščitne ukrepe in sodelovati s pristojnimi organi, tudi z upoštevanjem njihovih smernic ter hitrim in dobronamernim ukrepanjem, da bi zmanjšali vsa velika tveganja za varnost, zdravje, okolje in temeljne pravice, ki se lahko pojavijo med razvojem in eksperimentiranjem v peskovniku. Ravnanje potencialnih ponudnikov v peskovniku bi bilo treba upoštevati, ko se pristojni organi odločajo, ali bodo začasno prekinili ali prepovedali sodelovanje v peskovniku oziroma ali bodo naložili upravno globo v skladu s členom 83(2) Uredbe 2016/679 in členom 57 Direktive 2016/680.

Sprememba 119

Predlog uredbe

Uvodna izjava 72 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(72b)

Da bi države članice zagotovile, da umetna inteligenca vodi do družbeno in okoljsko koristnih rezultatov, bi morale podpirati in spodbujati raziskave in razvoj umetne inteligence v podporo družbeno in okoljsko koristnih rezultatov ter zato dodeliti dovolj sredstev, vključno z javnimi sredstvi in sredstvi Unije, in zagotoviti prednostni dostop do regulativnih peskovnikov za projekte, ki jih vodi civilna družba. Takšni projekti bi morali temeljiti na načelu interdisciplinarnega sodelovanja med razvijalci umetne inteligence, strokovnjaki za neenakost in nediskriminacijo, dostopnost, potrošnike, okolje in digitalne pravice ter akademskimi krogi.

Sprememba 120

Predlog uredbe

Uvodna izjava 73

Besedilo, ki ga predlaga Komisija

Sprememba

(73)

Za spodbujanje in zaščito inovacij je pomembno, da se upoštevajo zlasti interesi malih ponudnikov in uporabnikov umetnointeligenčnih sistemov. V ta namen bi morale države članice razviti pobude, namenjene tem operaterjem, vključno z ozaveščanjem in sporočanjem informacij. Poleg tega se pri določanju pristojbin s strani priglašenih organov za ugotavljanje skladnosti upoštevajo posebni interesi in potrebe malih ponudnikov. Stroški prevajanja, povezani z obvezno dokumentacijo in komuniciranjem z organi, lahko predstavljajo znaten strošek za ponudnike in druge operaterje, zlasti tiste manjšega obsega. Države članice bi morale po možnosti zagotoviti, da je eden od jezikov, ki jih določijo in sprejmejo za dokumentacijo zadevnih ponudnikov in za komunikacijo z operaterji, jezik, ki ga na splošno razume največje možno število čezmejnih uporabnikov.

(73)

Za spodbujanje in zaščito inovacij je pomembno, da se upoštevajo zlasti interesi malih ponudnikov in uporabnikov umetnointeligenčnih sistemov. V ta namen bi morale države članice razviti pobude, namenjene tem operaterjem, vključno s pismenostjo na področju umetne inteligence, ozaveščanjem in sporočanjem informacij. Države članice bi morale uporabljati obstoječe kanale in po potrebi vzpostaviti nove namenske kanale za komunikacijo z malimi in srednjimi podjetji, zagonskimi podjetji, uporabniki in drugimi inovatorji, da zagotovijo smernice in odgovarjajo na vprašanja o izvajanju te uredbe. Obstoječi kanali bi lahko med drugim vključevali skupine agencije ENISA za odzivanje na incidente na področju računalniške varnosti, nacionalne agencije za varstvo podatkov, platformo za umetno inteligenco na zahtevo, evropska vozlišča digitalnih inovacij in druge ustrezne instrumente, ki se financirajo iz programov EU, ter centre za testiranje in eksperimentiranje, ki so jih vzpostavile Komisija in države članice na nacionalni ravni ali ravni Unije. Ti kanali bi morali po potrebi sodelovati, da bi ustvarili sinergije in zagotovili homogenost svojih smernic za zagonska podjetja, mala in srednja podjetja ter uporabnike. Poleg tega se pri določanju pristojbin s strani priglašenih organov za ugotavljanje skladnosti upoštevajo posebni interesi in potrebe malih ponudnikov. Komisija bi morala stroške izdajanja potrdil in skladnosti za mala in srednja podjetja ter zagonska podjetja redno ocenjevati, med drugim s preglednimi posvetovanji z malimi in srednjimi podjetji, zagonskimi podjetji in uporabniki, z državami članicami pa sodelovati pri znižanju teh stroškov. Na primer, stroški prevajanja, povezani z obvezno dokumentacijo in komuniciranjem z organi, lahko predstavljajo znaten strošek za ponudnike in druge operaterje, zlasti tiste manjšega obsega. Države članice bi morale po možnosti zagotoviti, da je eden od jezikov, ki jih določijo in sprejmejo za dokumentacijo zadevnih ponudnikov in za komunikacijo z operaterji, jezik, ki ga na splošno razume največje možno število čezmejnih uporabnikov. Srednje velika podjetja, ki so nedavno prešla iz kategorije malih v srednje velika podjetja v smislu priloge k Priporočilu 2003/361/ES (člen 16), bi morala imeti dostop do teh pobud in smernic za obdobje, ki je primerno po mnenju držav članic, saj ta nova srednje velika podjetja včasih nimajo pravnih virov in usposabljanja, potrebnih za ustrezno razumevanje in skladnost z določbami.

Sprememba 121

Predlog uredbe

Uvodna izjava 74

Besedilo, ki ga predlaga Komisija

Sprememba

(74)

Da bi čim bolj zmanjšali tveganja za izvajanje, ki so posledica pomanjkanja znanja in strokovnega znanja na trgu, ter da bi ponudnikom in priglašenim organom olajšali izpolnjevanje njihovih obveznosti iz te uredbe, bi morali platforma za umetno inteligenco na zahtevo, evropska vozlišča digitalnih inovacij ter centri za testiranje in eksperimentiranje, ki so jih vzpostavile Komisija in države članice na nacionalni ravni ali ravni EU, po možnosti prispevati k izvajanju te uredbe. V okviru svojih nalog in področij pristojnosti lahko ponudnikom in priglašenim organom zagotavljajo zlasti tehnično in znanstveno podporo.

(74)

Da bi čim bolj zmanjšali tveganja za izvajanje, ki so posledica pomanjkanja znanja in strokovnega znanja na trgu, ter da bi ponudnikom in priglašenim organom olajšali izpolnjevanje njihovih obveznosti iz te uredbe, bi morali platforma za umetno inteligenco na zahtevo, evropska vozlišča digitalnih inovacij ter centri za testiranje in eksperimentiranje, ki so jih vzpostavile Komisija in države članice na nacionalni ravni ali ravni EU, prispevati k izvajanju te uredbe. V okviru svojih nalog in področij pristojnosti lahko ponudnikom in priglašenim organom zagotavljajo zlasti tehnično in znanstveno podporo.

Sprememba 122

Predlog uredbe

Uvodna izjava 76

Besedilo, ki ga predlaga Komisija

Sprememba

(76)

Za lažje nemoteno , učinkovito in harmonizirano izvajanje te uredbe bi bilo treba ustanoviti Evropski odbor za umetno inteligenco. Odbor bi moral biti odgovoren za številne svetovalne naloge, med drugim za izdajanje mnenj, priporočil, nasvetov ali smernic o zadevah, povezanih z izvajanjem te uredbe, vključno tehničnimi specifikacijami ali obstoječimi standardi v zvezi z zahtevami iz te uredbe, ter svetovanje in pomoč Komisiji pri posebnih vprašanjih v zvezi z umetno inteligenco.

(76)

Za preprečevanje razdrobljenosti in da se zagotovi optimalno delovanje enotnega trga , za zagotovitev učinkovitega in harmoniziranega izvajanja te uredbe , doseganje visoke ravni zaupanja in zaščite zdravja, varnosti, temeljnih pravic, okolja, demokracije in pravne države v Uniji glede umetnointeligenčnih sistemov, za aktivno podporo nacionalnih nadzornih organov, institucij, organov, uradov in agencij Unije v zadevah v zvezi s to uredbo, in za večje uvajanje umetne inteligence v Uniji bi bilo treba ustanoviti urad Evropske unije za umetno inteligenco. Urad za umetno inteligenco bi moral biti pravna oseba, delovati povsem neodvisno, biti odgovoren za številne svetovalne in usklajevalne naloge, med drugim za izdajanje mnenj, priporočil, nasvetov ali smernic o zadevah, povezanih z izvajanjem te uredbe, ter imeti dovolj sredstev in osebja. Države članice bi morale določiti strateško usmeritev in zagotavljati nadzor urada za umetno inteligenco prek njegovega upravnega odbora, skupaj s Komisijo, Evropskim nadzornikom za varstvo podatkov, Agencijo Evropske unije za temeljne pravice in Agencijo Evropske unije za kibernetsko varnost. Izvršni direktor bi moral biti odgovoren za vodenje dejavnosti sekretariata in predstavljanje urada za umetno inteligenco. Deležniki bi morali formalno sodelovati pri delu urada za umetno inteligenco prek svetovalnega foruma, kjer bi morala biti zagotovljena raznolika in uravnotežena zastopanost deležnikov in ki bi moral uradu svetovati o zadevah v zvezi s to uredbo. Če se izkaže, da ustanovitev urada za umetno inteligenco ne zadostuje za zagotovitev popolnoma usklajene uporabe te uredbe na ravni Unije ter za učinkovite ukrepe čezmejnega izvrševanja, je treba razmisliti, ali je potrebna ustanovitev agencije za umetno inteligenco.

Sprememba 123

Predlog uredbe

Uvodna izjava 77

Besedilo, ki ga predlaga Komisija

Sprememba

(77)

Države članice imajo ključno vlogo pri uporabi in izvrševanju te uredbe. V zvezi s tem bi morala vsaka država članica imenovati enega ali več pristojnih nacionalnih organov za nadzor uporabe in izvajanja te uredbe. Da bi se povečala učinkovitost organizacije s strani držav članic ter vzpostavila uradna kontaktna točka za stike z javnostjo in drugimi partnerji na ravni držav članic in Unije, bi bilo treba v vsaki državi članici en nacionalni organ imenovati za nacionalni nadzorni organ .

(77)

Vsaka država članica bi morala imenovati en nacionalni nadzorni organ za nadzor uporabe in izvajanja te uredbe. Ta organ bi moral tudi zastopati svojo državo članico v upravnem odboru urada za umetno inteligenco, da bi se povečala učinkovitost organizacije s strani držav članic ter vzpostavila uradna kontaktna točka za stike z javnostjo in drugimi partnerji na ravni držav članic in Unije . Vsak nacionalni nadzorni organ bi moral pri opravljanju svojih nalog in izvajanju svojih pooblastil v skladu s to uredbo delovati popolnoma neodvisno .

Sprememba 124

Predlog uredbe

Uvodna izjava 77 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(77a)

Nacionalni nadzorni organi bi morali spremljati uporabo določb v skladu s to uredbo in prispevati k njihovi dosledni uporabi v Uniji. V ta namen bi morali nacionalni nadzorni organi sodelovati med seboj, z ustreznimi nacionalnimi pristojnimi organi, Komisijo in uradom za umetno inteligenco.

Sprememba 125

Predlog uredbe

Uvodna izjava 77 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(77b)

Člana ali osebje posameznega nacionalnega nadzornega organa bi morala v skladu s pravom Unije ali nacionalnim pravom tako med mandatom kot po njem zavezovati dolžnost varovanja poklicne skrivnosti v zvezi z vsemi zaupnimi informacijami, s katerimi se je seznanil med opravljanjem svojih nalog ali izvajanjem svojih pooblastil. V času mandata bi morala ta dolžnost varovanja poklicne skrivnosti veljati zlasti za poslovne skrivnosti in poročanje fizičnih oseb o kršitvah te uredbe.

Sprememba 126

Predlog uredbe

Uvodna izjava 78

Besedilo, ki ga predlaga Komisija

Sprememba

(78)

Da bi zagotovili, da lahko ponudniki umetnointeligenčnih sistemov velikega tveganja upoštevajo izkušnje pri uporabi umetnointeligenčnih sistemov velikega tveganja za izboljšanje svojih sistemov ter postopka zasnove in razvoja ali da lahko pravočasno izvedejo morebitne popravne ukrepe, bi morali imeti vsi ponudniki vzpostavljen sistem spremljanja po dajanju na trg. Ta sistem je tudi ključen za zagotovitev učinkovitejše in bolj pravočasne obravnave morebitnih tveganj, ki izhajajo iz umetnointeligenčnih sistemov, ki se po dajanju na trg ali v uporabo še naprej „učijo“. V zvezi s tem bi bilo treba od ponudnikov zahtevati tudi, da imajo vzpostavljen sistem za poročanje ustreznim organom o vseh hudih incidentih ali kršitvah nacionalne zakonodaje in zakonodaje Unije o varstvu temeljnih pravic, ki so posledica uporabe njihovih umetnointeligenčnih sistemov.

(78)

Da bi zagotovili, da lahko ponudniki umetnointeligenčnih sistemov velikega tveganja upoštevajo izkušnje pri uporabi umetnointeligenčnih sistemov velikega tveganja za izboljšanje svojih sistemov ter postopka zasnove in razvoja ali da lahko pravočasno izvedejo morebitne popravne ukrepe, bi morali imeti vsi ponudniki vzpostavljen sistem spremljanja po dajanju na trg. Ta sistem je tudi ključen za zagotovitev učinkovitejše in bolj pravočasne obravnave morebitnih tveganj, ki izhajajo iz umetnointeligenčnih sistemov, ki se po dajanju na trg ali v uporabo še naprej „učijo“ ali razvijajo . V zvezi s tem bi bilo treba od ponudnikov zahtevati tudi, da imajo vzpostavljen sistem za poročanje ustreznim organom o vseh hudih incidentih ali kršitvah nacionalne zakonodaje in zakonodaje Unije , tudi tistih o varstvu temeljnih pravic in pravic potrošnikov , ki so posledica uporabe njihovih umetnointeligenčnih sistemov , ter da uvedejo ustrezne popravne ukrepe . Uvajalci bi morali ustreznim organom poročati tudi o vseh hudih incidentih ali kršitvah nacionalne zakonodaje in zakonodaje Unije, ki so posledica uporabe njihovega umetnointeligenčnega sistema, ko odkrijejo take hude incidente ali kršitve.

Sprememba 127

Predlog uredbe

Uvodna izjava 79

Besedilo, ki ga predlaga Komisija

Sprememba

(79)

Za zagotovitev ustreznega in učinkovitega izvrševanja zahtev in obveznosti iz te uredbe, ki je harmonizacijska zakonodaja Unije, bi bilo treba v celoti uporabljati sistem nadzora trga in skladnosti proizvodov, vzpostavljen z Uredbo (EU) 2019/1020. Kadar je to potrebno za njihove naloge, bi morali imeti nacionalni javni organi, ki nadzorujejo uporabo prava Unije o varstvu temeljnih pravic, vključno z organi za enakost, tudi dostop do kakršne koli dokumentacije, pripravljene v skladu s to uredbo.

(79)

Za zagotovitev ustreznega in učinkovitega izvrševanja zahtev in obveznosti iz te uredbe, ki je harmonizacijska zakonodaja Unije, bi bilo treba v celoti uporabljati sistem nadzora trga in skladnosti proizvodov, vzpostavljen z Uredbo (EU) 2019/1020. Za namene te uredbe bi morali nacionalni nadzorni organi delovati kot organi za nadzor trga za umetnointeligenčne sisteme, ki jih zajema ta uredba, razen za umetnointeligenčne sisteme, ki jih zajema Priloga II te uredbe. Za umetnointeligenčne sisteme, ki jih zajemajo pravni akti iz Priloge II, so pristojni organi na podlagi teh pravnih aktov še naprej glavni organ. Nacionalni nadzorni organi in pristojni organi v pravnih aktih iz Priloge II bi morali po potrebi sodelovati. Kadar je to primerno, bi morali pristojni organi v pravnih aktih iz Priloge II nacionalnemu nadzornemu organu poslati pristojno osebje za pomoč pri opravljanju nalog. Za namene te uredbe bi morali imeti nacionalni nadzorni organi enaka pooblastila in obveznosti kot organi za nadzor trga v skladu z Uredbo (EU) 2019/1020. Kadar je to potrebno za njihove naloge, bi morali imeti nacionalni javni organi, ki nadzorujejo uporabo prava Unije o varstvu temeljnih pravic, vključno z organi za enakost, tudi dostop do kakršne koli dokumentacije, pripravljene v skladu s to uredbo. Nacionalnemu nadzornemu organu bi se moral po tem, ko so bili izkoriščeni vsi drugi smiselni načini ocenjevanja/preverjanja skladnosti, ter na utemeljeno zahtevo omogočiti dostop do nabora podatkov o učenju, potrjevanju in testiranju, do učnega in naučenega modela umetnointeligenčnega sistema velikega tveganja, vključno z njegovimi relevantnimi parametri modela ter njihovim okoljem izvajanja/delovanja. V primerih enostavnejših sistemov programske opreme, ki sodijo v to uredbo, ki ne temeljijo na naučenih modelih, in kadar so bili izčrpani vsi drugi načini za preverjanje skladnosti, ima lahko nacionalni nadzorni organ na utemeljeno zahtevo izjemoma dostop do izvorne kode. Kadar se nacionalnemu nadzornemu organu odobri dostop do nabora podatkov o učenju, potrjevanju in testiranju v skladu s to uredbo, bi bilo treba tak dostop doseči z ustreznimi tehničnimi sredstvi in orodji, vključno z dostopom na kraju samem in v izjemnih okoliščinah z dostopom na daljavo. Nacionalni nadzorni organ bi moral vse informacije, vključno z izvorno kodo, programsko opremo in podatki, kot je ustrezno, obravnavati kot zaupne informacije in spoštovati ustrezno pravo Unije o varstvu intelektualne lastnine in poslovnih skrivnosti. Nacionalni nadzorni organ bi moral po zaključku preiskave izbrisati vse pridobljene informacije.

Sprememba 128

Predlog uredbe

Uvodna izjava 80

Besedilo, ki ga predlaga Komisija

Sprememba

(80)

Zakonodaja Unije o finančnih storitvah vključuje pravila in zahteve glede notranjega upravljanja in obvladovanja tveganj, ki veljajo za regulirane finančne institucije v postopku opravljanja teh storitev, tudi kadar uporabljajo umetnointeligenčne sisteme. Za zagotovitev usklajene uporabe in izvrševanja obveznosti iz te uredbe ter ustreznih pravil in zahtev zakonodaje Unije o finančnih storitvah bi bilo treba organe, pristojne za nadzor in izvrševanje zakonodaje o finančnih storitvah, vključno z Evropsko centralno banko, kadar je to primerno, določiti kot pristojne organe za nadzor izvajanja te uredbe, vključno z dejavnostmi nadzora trga, v zvezi z umetnointeligenčnimi sistemi, ki jih dajejo na voljo ali uporabljajo regulirane in nadzorovane finančne institucije. Za nadaljnjo krepitev skladnosti med to uredbo in pravili, ki se uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU Evropskega parlamenta in Sveta (56), je primerno v obstoječe obveznosti in postopke iz Direktive 2013/36/EU vključiti tudi postopek ugotavljanja skladnosti in nekatere postopkovne obveznosti ponudnikov v zvezi z obvladovanjem tveganja, spremljanjem po dajanju na trg ter dokumentacijo. Da bi se izognili prekrivanju, bi bilo treba predvideti tudi omejena odstopanja v zvezi s sistemom upravljanja kakovosti ponudnikov in obveznostjo spremljanja za uporabnike umetnointeligenčnih sistemov velikega tveganja, kolikor se ti uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU.

(80)

Pravo Unije o finančnih storitvah vključuje pravila in zahteve glede notranjega upravljanja in obvladovanja tveganj, ki veljajo za regulirane finančne institucije v postopku opravljanja teh storitev, tudi kadar uporabljajo umetnointeligenčne sisteme. Za zagotovitev usklajene uporabe in izvrševanja obveznosti iz te uredbe ter ustreznih pravil in zahtev prava Unije o finančnih storitvah bi bilo treba pristojne organe, odgovorne za nadzor in izvrševanje prava o finančnih storitvah, vključno z Evropsko centralno banko, kadar je to primerno, določiti kot pristojne organe za nadzor izvajanja te uredbe, vključno z dejavnostmi nadzora trga, v zvezi z umetnointeligenčnimi sistemi, ki jih dajejo na voljo ali uporabljajo regulirane in nadzorovane finančne institucije. Za nadaljnjo krepitev skladnosti med to uredbo in pravili, ki se uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU Evropskega parlamenta in Sveta (56), je primerno v obstoječe obveznosti in postopke iz Direktive 2013/36/EU vključiti tudi postopek ugotavljanja skladnosti in nekatere postopkovne obveznosti ponudnikov v zvezi z obvladovanjem tveganja, spremljanjem po dajanju na trg ter dokumentacijo. Da bi se izognili prekrivanju, bi bilo treba predvideti tudi omejena odstopanja v zvezi s sistemom upravljanja kakovosti ponudnikov in obveznostjo spremljanja za uvajalce umetnointeligenčnih sistemov velikega tveganja, kolikor se ti uporabljajo za kreditne institucije, ki jih ureja Direktiva 2013/36/EU.

Sprememba 129

Predlog uredbe

Uvodna izjava 80 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(80a)

Glede na cilje te uredbe, in sicer zagotoviti enakovredno raven varovanja zdravja, varnosti in temeljnih pravic fizičnih oseb, zaščititi pravno državo in demokracijo ter ob upoštevanju, da zmanjšanje tveganj umetnointeligenčnega sistema za te pravice morda ni zadovoljivo doseženo na nacionalni ravni ali pa se lahko razlaga različno, kar bi lahko na koncu privedlo do neenake ravni varstva fizičnih oseb in povzročilo razdrobljenost trga, bi bilo treba nacionalne nadzorne organe pooblastiti, da za učinkovito izvrševanje izvedejo skupne preiskave ali uporabijo zaščitni postopek Unije iz te uredbe. Skupne preiskave bi bilo treba sprožiti, kadar ima nacionalni nadzorni organ dovolj razlogov za domnevo, da kršitev te uredbe pomeni močno razširjeno kršitev ali močno razširjeno kršitev z razsežnostjo Unije, ali kadar umetnointeligenčni sistem ali temeljni model predstavlja tveganje, ki vpliva ali bi lahko vplivalo na vsaj 45 milijonov posameznikov v Uniji v več kot eni državi članici.

Sprememba 130

Predlog uredbe

Uvodna izjava 82

Besedilo, ki ga predlaga Komisija

Sprememba

(82)

Pomembno je, da so umetnointeligenčni sistemi, povezani s proizvodi brez velikega tveganja v skladu s to uredbo, in jim zato ni treba izpolnjevati zahtev iz te uredbe , kljub temu varni, ko so dani na trg ali v uporabo. Da bi prispevali k temu cilju, bi se Direktiva 2001/95/ES Evropskega parlamenta in Sveta (57) uporabljala kot varnostna mreža.

(82)

Pomembno je, da so umetnointeligenčni sistemi, ki so povezani s proizvodi brez velikega tveganja v skladu s to uredbo in jim zato ni treba izpolnjevati zahtev za umetnointeligenčne sisteme velikega tveganja , kljub temu varni, ko so dani na trg ali v uporabo. Da bi prispevali k temu cilju, bi se Direktiva 2001/95/ES Evropskega parlamenta in Sveta (57) uporabljala kot varnostna mreža.

Sprememba 131

Predlog uredbe

Uvodna izjava 83

Besedilo, ki ga predlaga Komisija

Sprememba

(83)

Za zagotovitev zaupanja vrednega in konstruktivnega sodelovanja pristojnih organov na ravni Unije in nacionalni ravni bi morale vse strani, vključene v uporabo te uredbe, spoštovati zaupnost informacij in podatkov, pridobljenih pri opravljanju svojih nalog.

(83)

Za zagotovitev zaupanja vrednega in konstruktivnega sodelovanja pristojnih organov na ravni Unije in nacionalni ravni bi si morale vse strani, vključene v uporabo te uredbe, prizadevati za preglednost in odprtost, pri tem pa spoštovati zaupnost informacij in podatkov, pridobljenih pri opravljanju svojih nalog , in sicer z uvedbo tehničnih in organizacijskih ukrepov za zaščito varnosti in zaupnosti informacij, pridobljenih pri opravljanju svojih dejavnosti, vključno s pravicami intelektualne lastnine ter interesi javne in nacionalne varnosti. Kadar dejavnosti Komisije, pristojnih nacionalnih organov in organov, priglašenih v skladu s to uredbo, povzročijo kršitev pravice intelektualne lastnine, bi morale države članice zagotoviti ustrezne ukrepe in pravna sredstva, da se zagotovi uveljavljanje pravic intelektualne lastnine ob uporabi Direktive 2004/48/ES.

Sprememba 132

Predlog uredbe

Uvodna izjava 84

Besedilo, ki ga predlaga Komisija

Sprememba

(84)

Države članice bi morale sprejeti vse potrebne ukrepe za zagotovitev izvajanja določb iz te uredbe ter določiti učinkovite, sorazmerne in odvračilne kazni za kršitve teh določb. Za nekatere posebne kršitve bi morale države članice upoštevati meje in merila iz te uredbe . Evropski nadzornik za varstvo podatkov bi moral biti pooblaščen za nalaganje glob institucijam, agencijam in organom Unije, ki spadajo na področje uporabe te uredbe.

(84)

Skladnost s to uredbo naj bi se zagotavljala z globami, ki jih naloži pristojni nacionalni nadzorni organ pri izvajanju postopka iz te uredbe. Države članice bi morale sprejeti vse potrebne ukrepe za zagotovitev izvajanja določb iz te uredbe ter določiti učinkovite, sorazmerne in odvračilne kazni za kršitve teh določb. Za okrepitev in uskladitev upravnih kazni za kršitve te uredbe bi bilo treba določiti zgornje meje za določitev upravnih glob za nekatere posebne kršitve . Pristojni nacionalni organi bi morali pri določanju višine glob v vsakem posameznem primeru upoštevati vse ustrezne okoliščine za konkretno situacijo, zlasti naravo, težo in trajanje kršitve ter njenih posledic in velikost ponudnika, zlasti če je ponudnik MSP ali zagonsko podjetje . Evropski nadzornik za varstvo podatkov bi moral biti pooblaščen za nalaganje glob institucijam, agencijam in organom Unije, ki spadajo na področje uporabe te uredbe. Za kazni in sodne stroške v skladu s to uredbo ne bi smele veljati pogodbene klavzule ali druge ureditve.

Sprememba 133

Predlog uredbe

Uvodna izjava 84 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(84a)

Ker lahko umetnointeligenčni sistemi resno ogrozijo pravice in svoboščine fizičnih in pravnih oseb ter skupin fizičnih oseb, je bistvenega pomena, da imajo fizične in pravne osebe ali skupine fizičnih oseb smiseln dostop do mehanizmov poročanja in pravnih sredstev ter da imajo pravico do sorazmernih in učinkovitih pravnih sredstev. Morale bi imeti možnost, da o kršitvah te uredbe poročajo svojemu nacionalnemu nadzornemu organu, in pravico, da vložijo pritožbo zoper ponudnike ali uvajalce umetnointeligenčnih sistemov. Po potrebi bi morali uvajalci zagotoviti notranje pritožbene mehanizme, ki jih bodo uporabljale fizične in pravne osebe ali skupine fizičnih oseb. Brez poseganja v druga upravna ali izvensodna pravna sredstva bi morale imeti fizične in pravne osebe ter skupine fizičnih oseb tudi pravico do učinkovitega pravnega sredstva v zvezi s pravno zavezujočo odločitvijo nacionalnega nadzornega organa v zvezi z njimi ali, kadar nacionalni nadzorni organ ne obravnava pritožbe, pritožnika ne obvesti o stanju zadeve ali predhodnem izidu vložene pritožbe ali ne izpolni svoje obveznosti v zvezi s sprejetjem končne odločitve o pritožbi.

Sprememba 134

Predlog uredbe

Uvodna izjava 84 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(84b)

Izpostavljene osebe bi bilo treba vedno obvestiti, da zanje velja uporaba umetnointeligenčnega sistema velikega tveganja, kadar uvajalci uporabljajo umetnointeligenčni sistem velikega tveganja za pomoč pri odločanju ali za odločanje v zvezi s fizičnimi osebami. Te informacije so lahko podlaga, da izpostavljene osebe uveljavljajo svojo pravico do pojasnila v skladu s to uredbo. Pri zagotavljanju pojasnila izpostavljenim osebam v skladu s to uredbo bi morali uvajalci upoštevati raven strokovnega znanja in znanja povprečnega potrošnika ali posameznika.

Sprememba 135

Predlog uredbe

Uvodna izjava 84 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(84c)

Pravo Unije o zaščiti žvižgačev (Direktiva (EU) 2019/1937) se v celoti uporablja za akademike, oblikovalce, razvijalce, sodelavce projektov, revizorje, vodje proizvodov, inženirje in gospodarske subjekte, ki pridobijo informacije o kršitvah prava Unije, ki jih stori ponudnik umetnointeligenčnega sistema ali njegov umetnointeligenčni sistem.

Sprememba 136

Predlog uredbe

Uvodna izjava 85

Besedilo, ki ga predlaga Komisija

Sprememba

(85)

Za zagotovitev, da se regulativni okvir lahko po potrebi prilagodi, bi bilo treba na Komisijo prenesti pooblastilo, da v skladu s členom 290 PDEU sprejme akte za spremembo tehnik in pristopov iz Priloge I za opredelitev umetnointeligenčnih sistemov, harmonizacijske zakonodaje Unije iz Priloge II, umetnointeligenčnih sistemov velikega tveganja iz Priloge III, določb v zvezi s tehnično dokumentacijo iz Priloge IV, vsebine izjave EU o skladnosti iz Priloge V, določb v zvezi s postopki ugotavljanja skladnosti iz prilog VI in VII ter določb o vzpostavitvi umetnointeligenčnih sistemov velikega tveganja, za katere bi se moral uporabljati postopek ugotavljanja skladnosti na podlagi ocene sistema upravljanja kakovosti in ocene tehnične dokumentacije. Zlasti je pomembno, da se Komisija pri svojem pripravljalnem delu ustrezno posvetuje, vključno na ravni strokovnjakov, in da se to posvetovanje izvede v skladu z načeli, določenimi v Medinstitucionalnem sporazumu z dne 13. aprila 2016 o boljši pripravi zakonodaje (58). Za zagotovitev enakopravnega sodelovanja pri pripravi delegiranih aktov Evropski parlament in Svet prejmeta zlasti vse dokumente sočasno s strokovnjaki iz držav članic, njuni strokovnjaki pa se lahko sistematično udeležujejo sestankov strokovnih skupin Komisije, ki zadevajo pripravo delegiranih aktov.

(85)

Za zagotovitev, da se regulativni okvir lahko po potrebi prilagodi, bi bilo treba na Komisijo prenesti pooblastilo, da v skladu s členom 290 PDEU sprejme akte za spremembo harmonizacijske zakonodaje Unije iz Priloge II, umetnointeligenčnih sistemov velikega tveganja iz Priloge III, določb v zvezi s tehnično dokumentacijo iz Priloge IV, vsebine izjave EU o skladnosti iz Priloge V, določb v zvezi s postopki ugotavljanja skladnosti iz prilog VI in VII ter določb o vzpostavitvi umetnointeligenčnih sistemov velikega tveganja, za katere bi se moral uporabljati postopek ugotavljanja skladnosti na podlagi ocene sistema upravljanja kakovosti in ocene tehnične dokumentacije. Zlasti je pomembno, da se Komisija pri svojem pripravljalnem delu ustrezno posvetuje, vključno na ravni strokovnjakov, in da se to posvetovanje izvede v skladu z načeli, določenimi v Medinstitucionalnem sporazumu z dne 13. aprila 2016 o boljši pripravi zakonodaje (58) . Ta posvetovanja bi morala vključevati uravnotežen nabor deležnikov, vštevši organizacije potrošnikov, civilno družbo, združenja, ki predstavljajo izpostavljene osebe, predstavnike različno velikih podjetij iz različnih sektorjev, pa tudi raziskovalce in znanstvenike . Za zagotovitev enakopravnega sodelovanja pri pripravi delegiranih aktov Evropski parlament in Svet prejmeta zlasti vse dokumente sočasno s strokovnjaki iz držav članic, njuni strokovnjaki pa se lahko sistematično udeležujejo sestankov strokovnih skupin Komisije, ki zadevajo pripravo delegiranih aktov.

Sprememba 137

Predlog uredbe

Uvodna izjava 85 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(85a)

Glede na hiter tehnološki razvoj in potrebno tehnično strokovno znanje pri izvajanju ocene umetnointeligenčnih sistemov velikega tveganja bi morala Komisija vsaj vsako leto redno pregledovati izvajanje te uredbe, zlasti prepovedane umetnointeligenčne sisteme, obveznosti glede preglednosti ter seznam področij velikega tveganja in primerov uporabe, pri tem pa se posvetovati z uradom za umetno inteligenco in ustreznimi deležniki.

Sprememba 138

Predlog uredbe

Uvodna izjava 87 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(87a)

Ker so zanesljive informacije o uporabi virov in energije, proizvodnji odpadkov in drugih okoljskih vplivih umetnointeligenčnih sistemov in z njimi povezane tehnologije IKT, vključno s programsko opremo, strojno opremo in zlasti podatkovnimi centri, omejene, bi morala Komisija uvesti ustrezno metodologijo za merjenje vpliva na okolje in učinkovitosti te uredbe glede na okoljske in podnebne cilje Unije.

Sprememba 139

Predlog uredbe

Uvodna izjava 89

Besedilo, ki ga predlaga Komisija

Sprememba

(89)

V skladu s členom 42(2) Uredbe (EU) 2018/1725 je bilo opravljeno posvetovanje z Evropskim nadzornikom za varstvo podatkov in Evropskim odborom za varstvo podatkov, ki sta mnenje podala […] –

(89)

V skladu s členom 42(2) Uredbe (EU) 2018/1725 je bilo opravljeno posvetovanje z Evropskim nadzornikom za varstvo podatkov in Evropskim odborom za varstvo podatkov, ki sta mnenje podala 18 . junija 2021 .

Sprememba 140

Predlog uredbe

Člen 1 – odstavek 1 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1.

Namen te uredbe je spodbujati uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence ter zagotoviti visoko raven varovanja zdravja, varnosti, temeljnih pravic, demokracije in pravne države ter okolja pred škodljivimi učinki umetnointeligenčnih sistemov v Uniji, obenem pa spodbujati inovacije.

Sprememba 141

Predlog uredbe

Člen 1 – odstavek 1 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

harmonizirana pravila o preglednosti za umetnointeligenčne sisteme, namenjene stikom s fizičnimi osebami, sisteme za prepoznavanje čustev in sisteme za biometrično kategorizacijo ter umetnointeligenčne sisteme , ki se uporabljajo za ustvarjanje ali manipulacijo slikovne, zvočne ali videovsebine ;

(d)

harmonizirana pravila o preglednosti za nekatere umetnointeligenčne sisteme;

Sprememba 142

Predlog uredbe

Člen 1 – odstavek 1 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

pravila o spremljanju in nadzoru trga.

(e)

pravila o spremljanju in nadzoru trga , upravljanju in izvrševanju .

Sprememba 143

Predlog uredbe

Člen 1 – odstavek 1 – točka e a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ea)

ukrepe za podporo inovacijam s posebnim poudarkom na MSP ter zagonskih podjetjih, vključno o vzpostavljanju regulativnih peskovnikov in sprejemanju ciljno usmerjenih ukrepov za zmanjšanje regulativnega bremena za MSP ter zagonska podjetja;

Sprememba 144

Predlog uredbe

Člen 1 – odstavek 1 – točka e b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(eb)

pravila za vzpostavitev in delovanje urada Unije za umetno inteligenco (urad za umetno inteligenco);

Sprememba 145

Predlog uredbe

Člen 2 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

uporabnike umetnointeligenčnih sistemov v Uniji;

(b)

uvajalce umetnointeligenčnih sistemov , ki imajo sedež ali se nahajajo v Uniji;

Sprememba 146

Predlog uredbe

Člen 2 – odstavek 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

ponudnike in uporabnike umetnointeligenčnih sistemov v tretji državi, kadar se izhodni podatki, ki jih sistem ustvari, uporabljajo v Uniji.

(c)

ponudnike in uvajalce umetnointeligenčnih sistemov , ki imajo sedež ali se nahajajo v tretji državi, kadar se na podlagi mednarodnega javnega prava uporablja pravo države članice ali so izhodni podatki, ki jih sistem ustvari, namenjen uporabi v Uniji;

Sprememba 147

Predlog uredbe

Člen 2 – odstavek 1 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

ponudnike, ki umetnointeligenčne sisteme iz člena 5 dajejo na trg ali v uporabo zunaj Unije, kadar se ponudnik ali distributer teh sistemov nahaja v Uniji;

Sprememba 148

Predlog uredbe

Člen 2 – odstavek 1 – točka c b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cb)

uvoznike in distributerje umetnointeligenčnih sistemov ter pooblaščene predstavnike ponudnikov umetnointeligenčnih sistemov, kadar imajo ti uvozniki, distributerji ali pooblaščeni zastopniki sedež ali se nahajajo v Uniji;

Sprememba 149

Predlog uredbe

Člen 2 – odstavek 1 – točka c c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cc)

izpostavljene osebe, kot so opredeljene v členu 3(8a), ki se nahajajo v Uniji in na katerih zdravje, varnost ali temeljne pravice negativno vpliva uporaba umetnointeligenčnega sistema, ki je dan na trg ali v uporabo v Uniji.

Sprememba 150

Predlog uredbe

Člen 2 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Za umetnointeligenčne sisteme velikega tveganja, ki so varnostne komponente proizvodov ali sistemov ali ki so sami proizvodi ali sistemi s področja uporabe naslednjih aktov , se uporablja samo člen 84 te uredbe:

2.   Za umetnointeligenčne sisteme velikega tveganja, ki so varnostne komponente proizvodov ali sistemov ali ki so sami proizvodi ali sistemi in spadajo na področje uporabe harmonizacijske zakonodaje iz Priloge II, oddelek B , se uporablja samo člen 84 te uredbe;

Sprememba 151

Predlog uredbe

Člen 2 – odstavek 2 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

Uredba (ES) št. 300/2008;

črtano

Sprememba 152

Predlog uredbe

Člen 2 – odstavek 2 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

Uredba (EU) št. 167/2013;

črtano

Sprememba 153

Predlog uredbe

Člen 2 – odstavek 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

Uredba (EU) št. 168/2013;

črtano

Sprememba 154

Predlog uredbe

Člen 2 – odstavek 2 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

Direktiva 2014/90/EU;

črtano

Sprememba 155

Predlog uredbe

Člen 2 – odstavek 2 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

Direktiva (EU) 2016/797;

črtano

Sprememba 156

Predlog uredbe

Člen 2 – odstavek 2 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

Uredba (EU) 2018/858;

črtano

Sprememba 157

Predlog uredbe

Člen 2 – odstavek 2 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

Uredba (EU) 2018/1139;

črtano

Sprememba 158

Predlog uredbe

Člen 2 – odstavek 2 – točka h

Besedilo, ki ga predlaga Komisija

Sprememba

(h)

Uredba (EU) 2019/2144.

črtano

Sprememba 159

Predlog uredbe

Člen 2 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Ta uredba se ne uporablja za javne organe v tretji državi ali mednarodne organizacije, ki spadajo na področje uporabe te uredbe v skladu z odstavkom 1, kadar ti organi ali organizacije uporabljajo umetnointeligenčne sisteme v okviru mednarodnih sporazumov za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter za sodelovanje na področju pravosodja z Unijo ali z eno ali več državami članicami.

4.   Ta uredba se ne uporablja za javne organe v tretji državi ali mednarodne organizacije, ki spadajo na področje uporabe te uredbe v skladu z odstavkom 1, kadar ti organi ali organizacije uporabljajo umetnointeligenčne sisteme v okviru mednarodnega sodelovanja ali sporazumov za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter za sodelovanje na področju pravosodja z Unijo ali z eno ali več državami članicami ter so predmet sklepa, ki ga Komisija sprejme v skladu s členom 36 Direktive (EU) 2016/680 ali členom 45 Uredbe (EU) 2016/679 (sklep o ustreznosti), ali so del mednarodnega sporazuma med Unijo in zadevno tretjo državo ali mednarodno organizacijo v skladu s členom 218 PDEU, tako da so zagotovljeni ustrezni zaščitni ukrepi za varstvo zasebnosti ter temeljnih pravic in svoboščin posameznikov;

Sprememba 160

Predlog uredbe

Člen 2 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Pravo Unije o varstvu osebnih podatkov, zasebnosti in zaupnosti komunikacij se uporablja za osebne podatke, ki se obdelujejo v zvezi s pravicami in obveznostmi iz te uredbe. Brez poseganja v ureditve iz člena 10(5) in člena 54 te uredbe ta uredba ne vpliva na uredbi (EU) 2016/679 in (EU) 2018/1725 ter direktivi 2002/58/ES in (EU) 2016/680.;

Sprememba 161

Predlog uredbe

Člen 2 – odstavek 5 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5b.     Ta uredba ne posega v pravila, določena v drugih pravnih aktih Unije v zvezi z varstvom potrošnikov in varnostjo proizvodov;

Sprememba 162

Predlog uredbe

Člen 2 – odstavek 5 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5c.     Ta uredba državam članicam ali Uniji ne preprečuje, da ohranijo ali uvedejo zakone ali druge predpise, ki so za delavce ugodnejši v smislu varstva njihovih pravic v zvezi z delodajalčevo uporabo umetnointeligenčnih sistemov, ali da spodbujajo ali dovolijo uporabo kolektivnih pogodb, ki so za delavce ugodnejše.

Sprememba 163

Predlog uredbe

Člen 2 – odstavek 5 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5d.     Ta uredba se ne uporablja za raziskovalne, preskusne in razvojne dejavnosti v zvezi z umetnointeligenčnim sistemom, preden se ta sistem da na trg ali v uporabo, če se te dejavnosti izvajajo ob spoštovanju temeljnih pravic in veljavnega prava Unije. Testiranje v dejanskih razmerah ni zajeto v tej izjemi. Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73, ki pojasnjujejo uporabo tega odstavka, da se opredeli ta izjema, da se preprečijo njene obstoječe in morebitne zlorabe. Urad za umetno inteligenco zagotovi smernice o upravljanju raziskav in razvoja v skladu s členom 56, katerih cilj je med drugim usklajevanje, kako jih uporabljajo nacionalni nadzorni organi;

Sprememba 164

Predlog uredbe

Člen 2 – odstavek 5 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5e.     Ta uredba se ne uporablja za komponente umetne inteligence, ki se zagotavljajo na podlagi brezplačnih in odprtokodnih licenc, razen če jih ponudnik da na trg ali v uporabo kot del umetnointeligenčnega sistema velikega tveganja ali umetnointeligenčnega sistema, ki spada pod naslov II ali IV. Ta izjema se ne uporablja za temeljne modele, kot so opredeljeni v členu 3.

Sprememba 165

Predlog uredbe

Člen 3 – odstavek 1 – točka 1

Besedilo, ki ga predlaga Komisija

Sprememba

(1)

„umetnointeligenčni sistem“ pomeni programsko opremo , ki je razvita eno ali več tehnikami in pristopi iz Priloge I ter lahko za določen sklop ciljev, ki jih opredeli človek, ustvarja izhodne podatke, kot so vsebine, napovedi, priporočila ali odločitve, ki vplivajo na okolje, s katerim so v stiku ;

(1)

„umetnointeligenčni sistem“ pomeni sistem na strojni podlagi , ki je zasnovan za delovanje različnimi stopnjami avtonomije in lahko z eksplicitnim ali implicitnim ciljem ustvarja izhodne podatke, kot so napovedi, priporočila ali odločitve, ki vplivajo na realna ali virtualna okolja ;

Sprememba 166

Predlog uredbe

Člen 3 – odstavek 1 – točka 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1a)

„tveganje“ pomeni kombinacijo verjetnosti pojava škode in resnosti te škode;

Sprememba 167

Predlog uredbe

Člen 3 – odstavek 1 – točka 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1b)

„znatno tveganje“ pomeni tveganje, ki je znatno zaradi kombinacije resnosti, intenzivnosti, verjetnosti nastanka in trajanja učinkov ter zmožnosti vplivanja na posameznika ali več oseb oziroma vplivanja na določeno skupino oseb;

Sprememba 168

Predlog uredbe

Člen 3 – odstavek 1 – točka 1 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1c)

„temeljni model“ pomeni model umetnointeligenčnega sistema, ki se uči na podlagi obsežnih podatkov, je zasnovan za splošnost izhodnih podatkov in ga je mogoče prilagoditi številnim različnim nalogam;

Sprememba 169

Predlog uredbe

Člen 3 – odstavek 1 – točka 1 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1d)

„umetnointeligenčni sistem za splošne namene“ pomeni umetnointeligenčni sistem, ki se lahko uporablja in prilagodi za številne vrste uporabe, za katere ni bil namerno in posebej zasnovan;

Sprememba 170

Predlog uredbe

Člen 3 – odstavek 1 – točka 1 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(1e)

„obsežni cikli učenja“ pomenijo postopke priprave močnega modela umetne inteligence, za katere so potrebni obširni računalniški viri;

Sprememba 171

Predlog uredbe

Člen 3 – odstavek 1 – točka 3

Besedilo, ki ga predlaga Komisija

Sprememba

(3)

„mali ponudnik“ pomeni ponudnika, ki je mikro ali malo podjetje v smislu Priporočila Komisije 2003/361/ES  (61) ;

črtano

Sprememba 172

Predlog uredbe

Člen 3 – odstavek 1 – točka 4

Besedilo, ki ga predlaga Komisija

Sprememba

(4)

„uporabnik“ pomeni vsako fizično ali pravno osebo, javni organ, agencijo ali drug organ, ki umetnointeligenčni sistem uporablja v svoji pristojnosti, razen kadar se umetnointeligenčni sistem uporablja v okviru osebne nepoklicne dejavnosti;

(4)

„uvajalec“ pomeni vsako fizično ali pravno osebo, javni organ, agencijo ali drug organ, ki umetnointeligenčni sistem uporablja v svoji pristojnosti, razen kadar se umetnointeligenčni sistem uporablja v okviru osebne nepoklicne dejavnosti;

Sprememba 173

Predlog uredbe

Člen 3 – odstavek 1 – točka 8

Besedilo, ki ga predlaga Komisija

Sprememba

(8)

„operater“ pomeni ponudnika, uporabnika , pooblaščenega zastopnika, uvoznika in distributerja;

(8)

„operater“ pomeni ponudnika, uvajalca , pooblaščenega zastopnika, uvoznika in distributerja;

Sprememba 174

Predlog uredbe

Člen 3 – odstavek 1 – točka 8 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(8a)

„izpostavljena oseba“ pomeni vsako fizično osebo ali skupino oseb, na katero se nanaša ali nanjo drugače vpliva umetnointeligenčni sistem;

Sprememba 175

Predlog uredbe

Člen 3 – odstavek 1 – točka 11

Besedilo, ki ga predlaga Komisija

Sprememba

(11)

„dajanje v uporabo“ pomeni dobavo umetnointeligenčnega sistema za prvo uporabo neposredno uporabniku ali za lastno uporabo na trgu Unije za predvideni namen;

(11)

„dajanje v uporabo“ pomeni dobavo umetnointeligenčnega sistema za prvo uporabo neposredno uvajalcu ali za lastno uporabo na trgu Unije za predvideni namen;

Sprememba 176

Predlog uredbe

Člen 3 – odstavek 1 – točka 13

Besedilo, ki ga predlaga Komisija

Sprememba

(13)

„razumno predvidljiva napačna uporaba“ pomeni uporabo umetnointeligenčnega sistema na način, ki sicer ni v skladu s predvidenim namenom, vendar je lahko posledica razumno predvidljivega človeškega vedenja ali stikov z drugimi sistemi;

(13)

„razumno predvidljiva napačna uporaba“ pomeni uporabo umetnointeligenčnega sistema na način, ki sicer ni v skladu z njegovim predvidenim namenom, kot je naveden v navodilih za uporabo, ki jih je pripravil ponudnik, vendar je lahko posledica razumno predvidljivega človeškega vedenja ali stikov z drugimi sistemi, vključno z umetnointeligenčnimi sistemi;

Sprememba 177

Predlog uredbe

Člen 3 – odstavek 1 – točka 14

Besedilo, ki ga predlaga Komisija

Sprememba

(14)

„varnostna komponenta proizvoda ali sistema“ pomeni komponento proizvoda ali sistema, ki opravlja varnostno funkcijo za ta proizvod ali sistem ali katerega nedelovanje ali okvara ogroža zdravje in varnost oseb ali premoženja ;

(14)

„varnostna komponenta proizvoda ali sistema“ v skladu s harmonizacijskim pravom Unije iz Priloge II pomeni komponento proizvoda ali sistema, ki opravlja varnostno funkcijo za ta proizvod ali sistem ali katerega nedelovanje ali okvara ogroža zdravje in varnost oseb;

Sprememba 178

Predlog uredbe

Člen 3 – odstavek 1 – točka 15

Besedilo, ki ga predlaga Komisija

Sprememba

(15)

„navodila za uporabo“ pomenijo informacije, ki jih zagotovi ponudnik, da uporabnika obvesti zlasti o predvidenem namenu in pravilni uporabi umetnointeligenčnega sistema, vključno s posebnim geografskim, vedenjskim ali funkcionalnim okoljem, v katerem naj bi se umetnointeligenčni sistem velikega tveganja uporabljal;

(15)

„navodila za uporabo“ pomenijo informacije, ki jih zagotovi ponudnik, da uvajalca obvesti zlasti o predvidenem namenu in pravilni uporabi umetnointeligenčnega sistema , pa tudi informacije o morebitnih previdnostnih ukrepih, ki jih je treba sprejeti , vključno s posebnim geografskim, vedenjskim ali funkcionalnim okoljem, v katerem naj bi se umetnointeligenčni sistem velikega tveganja uporabljal;

Sprememba 179

Predlog uredbe

Člen 3 – odstavek 1 – točka 16

Besedilo, ki ga predlaga Komisija

Sprememba

(16)

„preklic umetnointeligenčnega sistema“ pomeni vsak ukrep, namenjen vrnitvi umetnointeligenčnega sistema, ki je na voljo uporabnikom , ponudniku ;

(16)

„preklic umetnointeligenčnega sistema“ pomeni vsak ukrep, namenjen vrnitvi umetnointeligenčnega sistema, ki je bil dan na voljo, uvajalcem ;

Sprememba 180

Predlog uredbe

Člen 3 – odstavek 1 – točka 20

Besedilo, ki ga predlaga Komisija

Sprememba

(20)

„ugotavljanje skladnosti“ pomeni postopek preverjanja , ali so izpolnjene zahteve iz poglavja 2 naslova III te uredbe v zvezi s sistemom umetne inteligence;

(20)

„ugotavljanje skladnosti“ pomeni postopek dokazovanja , ali so izpolnjene zahteve iz poglavja 2 naslova III te uredbe v zvezi s sistemom umetne inteligence;

Sprememba 181

Predlog uredbe

Člen 3 – odstavek 1 – točka 22

Besedilo, ki ga predlaga Komisija

Sprememba

(22)

„priglašeni organ“ pomeni organ za ugotavljanje skladnosti, imenovan v skladu s to uredbo in drugo ustrezno harmonizacijsko zakonodajo Unije;

(22)

„priglašeni organ“ pomeni organ za ugotavljanje skladnosti, priglašen v skladu s to uredbo in drugo ustrezno harmonizacijsko zakonodajo Unije;

Sprememba 182

Predlog uredbe

Člen 3 – odstavek 1 – točka 23

Besedilo, ki ga predlaga Komisija

Sprememba

(23)

„bistvena sprememba“ pomeni spremembo umetnointeligenčnega sistema po dajanju na trg ali v uporabo, ki vpliva na skladnost umetnointeligenčnega sistema z zahtevami iz poglavja 2 naslova III te uredbe ali povzroči spremembo predvidenega namena, za katerega je bil umetnointeligenčni sistem ocenjen;

(23)

„bistvena sprememba“ pomeni spremembo ali vrsto sprememb umetnointeligenčnega sistema po dajanju na trg ali v uporabo, ki je ponudnik ni predvidel ali načrtoval v prvotni oceni tveganja in ki posledično vpliva na skladnost umetnointeligenčnega sistema z zahtevami iz poglavja 2 naslova III te uredbe ali povzroči spremembo predvidenega namena, za katerega je bil umetnointeligenčni sistem ocenjen;

Sprememba 183

Predlog uredbe

Člen 3 – odstavek 1 – točka 24

Besedilo, ki ga predlaga Komisija

Sprememba

(24)

„oznaka skladnosti“ (oznaka CE) pomeni oznako, s katero ponudnik izjavlja, da je umetnointeligenčni sistem skladen z zahtevami iz naslova III, poglavje 2 te uredbe in druge veljavne zakonodaje Unije o harmonizaciji pogojev za trženje proizvodov („harmonizacijska zakonodaja Unije“), ki določa njeno pritrditev;

(24)

„oznaka skladnosti“ (oznaka CE) pomeni fizično ali digitalno oznako, s katero ponudnik izjavlja, da je umetnointeligenčni sistem ali proizvod z vgrajenim umetnointeligenčnim sistemom skladen z zahtevami iz naslova III, poglavje 2, te uredbe in druge veljavne zakonodaje Unije o harmonizaciji pogojev za trženje proizvodov („harmonizacijska zakonodaja Unije“), ki določa njeno pritrditev;

Sprememba 184

Predlog uredbe

Člen 3 – odstavek 1 – točka 29

Besedilo, ki ga predlaga Komisija

Sprememba

(29)

„učni podatki“ pomeni podatke, ki se uporabljajo za učenje umetnointeligenčnega sistema s prilagajanjem njegovih učljivih parametrov , vključno z utežmi nevronske mreže ;

(29)

„učni podatki“ pomeni podatke, ki se uporabljajo za učenje umetnointeligenčnega sistema s prilagajanjem njegovih učljivih parametrov;

Sprememba 185

Predlog uredbe

Člen 3 – odstavek 1 – točka 30

Besedilo, ki ga predlaga Komisija

Sprememba

(30)

„podatki za potrditev“ pomeni podatke, ki se uporabljajo za ocenjevanje naučenega umetnointeligenčnega sistema ter za uravnavanje parametrov, ki se jih ne more naučiti, in učnega postopka sistema, med drugim za preprečevanje pretiranega prilagajanja; ker je lahko nabor podatkov za potrditev ločen nabor podatkov ali del nabora učnih podatkov, bodisi kot stalna ali spremenljiva delitev;

(30)

„podatki za potrditev“ pomeni podatke, ki se uporabljajo za ocenjevanje naučenega umetnointeligenčnega sistema ter za uravnavanje parametrov, ki se jih ne more naučiti, in učnega postopka sistema, med drugim za preprečevanje premajhnega ali pretiranega prilagajanja; ker je nabor podatkov za potrditev ločen nabor podatkov ali del nabora učnih podatkov, bodisi kot stalna ali spremenljiva delitev;

Sprememba 186

Predlog uredbe

Člen 3 – odstavek 1 – točka 33

Besedilo, ki ga predlaga Komisija

Sprememba

(33)

„biometrični podatki“ pomeni osebne podatke, ki so rezultat posebne tehnične obdelave zvezi s fizičnimi , fiziološkimi ali vedenjskimi značilnostmi fizične osebe , ki omogočajo ali potrjujejo edinstveno identifikacijo te fizične osebe, kot so podobe obraza ali daktiloskopski podatki ;

(33)

„biometrični podatki“ pomeni biometrične podatke, kot so opredeljeni členu 4 , točka (14) , Uredbe (EU) 2016/679 ;

Sprememba 187

Predlog uredbe

Člen 3 – odstavek 1 – točka 33 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(33a)

„podatki, ki temeljijo na biometriji,“ pomeni podatke, ki so rezultat posebne tehnične obdelave v zvezi s fizičnimi, fiziološkimi ali vedenjskimi znaki fizične osebe;

Sprememba 188

Predlog uredbe

Člen 3 – odstavek 1 – točka 33 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(33b)

„biometrična identifikacija“ pomeni samodejno prepoznavanje fizičnih, fizioloških, vedenjskih in psiholoških lastnosti človeka z namenom ugotavljanja identitete posameznika s primerjavo biometričnih podatkov tega posameznika s shranjenimi biometričnimi podatki posameznikov v podatkovni zbirki (identifikacija z več vzorci);

Sprememba 189

Predlog uredbe

Člen 3 – odstavek 1 – točka 33 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(33c)

„biometrično preverjanje“ pomeni avtomatizirano preverjanje identitete fizičnih oseb s primerjavo biometričnih podatkov posameznika s predhodno zagotovljenimi biometričnimi podatki (preverjanje „ena proti ena“, vključno z avtentikacijo);

Sprememba 190

Predlog uredbe

Člen 3 – odstavek 1 – točka 33 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(33d)

„posebne kategorije osebnih podatkov“ pomeni kategorije osebnih podatkov iz člena 9(1) Uredbe (EU) 2016/679;

Sprememba 191

Predlog uredbe

Člen 3 – odstavek 1 – točka 34

Besedilo, ki ga predlaga Komisija

Sprememba

(34)

„sistem za prepoznavanje čustev“ pomeni umetnointeligenčni sistem za prepoznavanje čustev ali sklepanje o čustvih ali namenih fizičnih oseb na podlagi njihovih biometričnih podatkov;

(34)

„sistem za prepoznavanje čustev“ pomeni umetnointeligenčni sistem za prepoznavanje čustev ali sklepanje o čustvih , mislih, mentalnem stanju ali namenih posameznikov ali skupin na podlagi njihovih biometričnih podatkov in podatkov, ki temeljijo na biometriji ;

Sprememba 192

Predlog uredbe

Člen 3 – odstavek 1 – točka 35

Besedilo, ki ga predlaga Komisija

Sprememba

(35)

„sistem za biometrično kategorizacijo“ pomeni umetnointeligenčni sistem za razvrščanje fizičnih oseb v posebne kategorije , kot so spol, starost, barva las, barva oči, tetovaže , etnično poreklo ali spolna ali politična usmerjenost , na podlagi njihovih biometričnih podatkov;

(35)

„biometrična kategorizacija“ pomeni razvrščanje fizičnih oseb v posebne kategorije ali sklepanje o njihovih značilnostih in lastnostih na podlagi njihovih biometričnih podatkov ali podatkov , ki temeljijo na biometriji, ali tistega , kar je mogoče sklepati iz teh podatkov;

Sprememba 193

Predlog uredbe

Člen 3 – odstavek 1 – točka 36

Besedilo, ki ga predlaga Komisija

Sprememba

(36)

„sistem za biometrično identifikacijo na daljavo“ pomeni umetnointeligenčni sistem za identifikacijo fizičnih oseb na daljavo s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke, pri čemer uporabnik umetnointeligenčnega sistema ne ve vnaprej, ali bo oseba prisotna in ali jo je mogoče identificirati;

(36)

„sistem za biometrično identifikacijo na daljavo“ pomeni umetnointeligenčni sistem za identifikacijo fizičnih oseb na daljavo s primerjavo biometričnih podatkov osebe z biometričnimi podatki iz referenčne podatkovne zbirke, pri čemer uvajalec umetnointeligenčnega sistema ne ve vnaprej, ali bo oseba prisotna in ali jo je mogoče identificirati , z izjemo sistemov za preverjanje ;

Sprememba 194

Predlog uredbe

Člen 3 – odstavek 1 – točka 37

Besedilo, ki ga predlaga Komisija

Sprememba

(37)

„sistem za biometrično identifikacijo na daljavo v realnem času“ pomeni sistem za biometrično identifikacijo na daljavo, pri katerem se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo brez večje zamude. To ne vključuje le takojšnje identifikacije, temveč tudi omejene kratke zamude, da bi se preprečilo izogibanje določbi.

(37)

„sistem za biometrično identifikacijo na daljavo v realnem času“ pomeni sistem za biometrično identifikacijo na daljavo, pri katerem se zajemanje biometričnih podatkov, primerjava in identifikacija izvedejo brez večje zamude. To ne vključuje le takojšnje identifikacije, temveč tudi omejene zamude, da bi se preprečilo izogibanje določbi;

Sprememba 195

Predlog uredbe

Člen 3 – odstavek 1 – točka 39

Besedilo, ki ga predlaga Komisija

Sprememba

(39)

„javno dostopni prostor“ pomeni vsak fizični prostor, ki je dostopen javnosti, ne glede na to, ali veljajo določeni pogoji za dostop;

(39)

„javno dostopni prostor“ pomeni vsak fizični prostor v javni ali zasebni lasti , ki je dostopen javnosti, ne glede na to, ali veljajo določeni pogoji za dostop , in ne glede na morebitne omejitve zmogljivosti ;

Sprememba 196

Predlog uredbe

Člen 3 – odstavek 1 – točka 41

Besedilo, ki ga predlaga Komisija

Sprememba

(41)

„preprečevanje, odkrivanje in preiskovanje kaznivih dejanj“ pomeni dejavnosti, ki jih izvajajo organi za preprečevanje, preiskovanje, odkrivanje ali pregon kaznivih dejanj ali izvrševanje kazenskih sankcij, vključno z varovanjem pred grožnjami javni varnosti in njihovim preprečevanjem;

(41)

„preprečevanje, odkrivanje in preiskovanje kaznivih dejanj“ pomeni dejavnosti, ki jih izvajajo organi kazenskega pregona za preprečevanje, preiskovanje, odkrivanje ali pregon kaznivih dejanj ali izvrševanje kazenskih sankcij, vključno z varovanjem pred grožnjami javni varnosti in njihovim preprečevanjem , ali se izvajajo v njihovem imenu ;

Sprememba 197

Predlog uredbe

Člen 3 – odstavek 1 – točka 42

Besedilo, ki ga predlaga Komisija

Sprememba

(42)

„nacionalni nadzorni organ“ pomeni organ, ki mu država članica dodeli odgovornost za izvajanje in uporabo te uredbe, za usklajevanje dejavnosti, zaupanih tej državi članici, za delovanje kot enotna kontaktna točka za Komisijo in za zastopanje države članice v  Evropskem odboru za umetno inteligenco;

(42)

„nacionalni nadzorni organ“ pomeni javni (sprememba 69) organ, ki mu država članica dodeli odgovornost za izvajanje in uporabo te uredbe, za usklajevanje dejavnosti, zaupanih tej državi članici, za delovanje kot enotna kontaktna točka za Komisijo in za zastopanje države članice v  upravnem odboru urada za umetno inteligenco;

Sprememba 198

Predlog uredbe

Člen 3 – odstavek 1 – točka 43

Besedilo, ki ga predlaga Komisija

Sprememba

(43)

„pristojni nacionalni organ“ pomeni nacionalni nadzorni organ , priglasitveni organ in organ za nadzor trga ;

(43)

„pristojni nacionalni organ“ pomeni katerega koli od nacionalnih organov , ki so odgovorni za izvrševanje te uredbe ;

Sprememba 199

Predlog uredbe

Člen 3 – odstavek 1 – pododstavek 44 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

(44)

„hud incident“ pomeni vsak incident, ki neposredno ali posredno povzroči, je lahko povzročil ali bi lahko povzročil:

(44)

„hud incident“ pomeni vsak incident ali okvaro umetnointeligenčnega sistema , ki neposredno ali posredno povzroči, je lahko povzročil ali bi lahko povzročil:

(a)

smrt osebe ali hudo škodo za zdravje osebe, premoženje ali okolje,

(a)

smrt osebe ali hudo škodo za zdravje osebe,

(b)

hude motnje pri upravljanju in delovanju kritične infrastrukture;

(b)

hude motnje pri upravljanju in delovanju kritične infrastrukture;

 

(ba)

kršitev temeljnih pravic, zaščitenih s pravom Unije;

 

(bb)

hudo škodo za premoženje ali okolje;

Sprememba 200

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44a)

„osebni podatki“ pomeni osebne podatke, kot so opredeljeni v členu 4, točka (1), Uredbe (EU) 2016/679;

Sprememba 201

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44b)

„neosebni podatki“ pomeni podatke, ki niso osebni;

Sprememba 202

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44c)

„oblikovanje profilov“ pomeni vsako obliko avtomatizirane obdelave osebnih podatkov, kot je opredeljena v členu 4(4) Uredbe (EU) 2016/679; ali v primeru organov kazenskega pregona v točki 4 člena 3 Direktive (EU) 2016/680, v primeru institucij, organov, uradov ali agencij Unije pa v točki 5 člena 3 Uredbe (EU) 2018/1725;

Sprememba 203

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44d)

„globoki ponaredek“ pomeni manipulirano ali sintetično zvočno, slikovno ali video vsebino, ki je lažno videti pristna ali resnična in v kateri nastopajo ljudje, ki dozdevno govorijo ali delajo nekaj, česar nikoli niso rekli ali naredili, ter je proizvedena s tehnikami umetne inteligence, vključno s strojnim učenjem in globokim učenjem;

Sprememba 204

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44e)

„močno razširjena kršitev“ pomeni vsako dejanje ali opustitev v nasprotju s pravom Unije o varstvu interesov posameznikov:

 

(a)

ki škoduje ali bi lahko škodovala kolektivnim interesom posameznikov, ki prebivajo v vsaj dveh državah članicah, ki nista država članica:

 

 

(i)

iz katere izvira dejanje ali opustitev, oziroma v kateri je prišlo do dejanja ali opustitve,

 

 

(ii)

v kateri ima zadevni ponudnik ali, kjer je ustrezno, njegov pooblaščeni zastopnik sedež ali

 

 

(iii)

v kateri ima sedež uvajalec, če kršitev stori uvajalec;

 

(b)

ki ščiti interese posameznikov, ki povzročijo, povzročajo ali bi lahko povzročili škodo kolektivnim interesom posameznikov in imajo skupne značilnosti, med katerimi so enaka nezakonita praksa, kršitev istega interesa, stori pa jih isti trgovec sočasno v vsaj treh državah članicah;

Sprememba 205

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44f)

„močno razširjena kršitev z razsežnostjo Unije“ pomeni močno razširjeno kršitev, ki je povzročila ali je verjetno, da bo povzročila škodo kolektivnim interesom posameznikov v vsaj dveh tretjinah držav članic, ki skupaj predstavljajo vsaj dve tretjini prebivalstva Unije;

Sprememba 206

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 g (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44g)

„regulativni peskovnik“ pomeni nadzorovano okolje, ki ga vzpostavi javni organ, v katerem so omogočeni varen razvoj, testiranje in potrjevanje inovativnih umetnointeligenčnih sistemov za omejen čas pred njihovim dajanjem na trg ali v uporabo v skladu s posebnim načrtom pod regulativnim nadzorom;

Sprememba 207

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 h (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44h)

„kritična infrastruktura“ pomeni sredstvo, objekt, opremo, omrežje ali sistem ali del sredstva, objekta, opreme, omrežja ali sistema, ki je potreben za zagotavljanje bistvene storitve v smislu člena 2(4) Direktive (EU) 2022/2557;

Sprememba 208

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 k (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44k)

„družbeno točkovanje“ pomeni ocenjevanje ali razvrščanje fizičnih oseb na podlagi njihovega družbenega vedenja, socialno-ekonomskega statusa ali znanih ali predvidenih osebnih ali osebnostnih značilnosti;

Sprememba 209

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 l (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44l)

„socialno vedenje“ pomeni način, na katerega fizična oseba komunicira z drugimi fizičnimi osebami ali družbo in vpliva nanje;

Sprememba 210

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 m (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44m)

„stanje tehnike“ pomeni stopnjo tehnične zmogljivosti v določenem trenutku v zvezi s proizvodi, postopki in storitvami, ki temelji na ustreznih konsolidiranih ugotovitvah na podlagi znanosti, tehnologije in izkušenj;

Sprememba 211

Predlog uredbe

Člen 3 – odstavek 1 – točka 44 n (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(44n)

„testiranje v dejanskih razmerah“ pomeni začasno testiranje umetnointeligenčnega sistema za predvideni namen v dejanskih razmerah zunaj laboratorijskega ali drugače simuliranega okolja;

Sprememba 212

Predlog uredbe

Člen 4

Besedilo, ki ga predlaga Komisija

Sprememba

Člen 4

črtano

Spremembe Priloge I

 

Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za spremembo seznama tehnik in pristopov iz Priloge I, da se navedeni seznam posodobi glede na tržni in tehnološki razvoj na podlagi značilnosti, ki so podobne tam navedenim tehnikam in pristopom.

 

Sprememba 213

Predlog uredbe

Člen 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 4a

 

Splošna načela, ki se uporabljajo za vse umetnointeligenčne sisteme

 

1.     Vsi operaterji, za katere velja ta uredba, si po najboljših močeh prizadevajo za razvoj in uporabo umetnointeligenčnih sistemov ali temeljnih modelov v skladu z naslednjimi splošnimi načeli, ki vzpostavljajo okvir na visoki ravni, ki spodbuja skladen in na človeka osredotočen evropski pristop k etični in zaupanja vredni umetni inteligenci popolnoma v skladu z Listino ter vrednotami, na katerih temelji Unija:

 

(a)

„človeško delovanje in nadzor“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo kot orodje, ki služi ljudem, spoštuje človeško dostojanstvo in osebno avtonomijo ter deluje tako, da ga ljudje lahko ustrezno upravljajo in nadzorujejo;

 

(b)

„tehnična robustnost in varnost“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo tako, da se čim bolj zmanjša nenamerna in nepričakovana škoda, ter da so robustni v primeru nenamernih težav in odporni proti poskusom spreminjanja njihove uporabe ali vedenja, ki bi omogočalo nezakonito uporabo s strani zlonamernih tretjih oseb;

 

(c)

„zasebnost in upravljanje podatkov“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo v skladu z veljavnimi pravili o zasebnosti in varstvu podatkov, hkrati pa obdelujejo podatke, ki izpolnjujejo visoke standarde v smislu kakovosti in celovitosti;

 

(d)

„preglednost“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo na način, ki omogoča ustrezno sledljivost in razložljivost, obenem pa so ljudje seznanjeni s tem, da komunicirajo ali da so v stiku z umetnointeligenčnim sistemom, uporabniki so ustrezno obveščeni o zmogljivostih in omejitvah zadevnega umetnointeligenčnega sistema, izpostavljene osebe pa o svojih pravicah;

 

(e)

„raznolikost, nediskriminacija in pravičnost“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo na način, ki vključuje različne akterje in spodbuja enakopraven dostop, enakost spolov in kulturno raznolikost, hkrati pa se preprečujejo diskriminatorni učinki in nepravični predsodki, ki jih zakonodaja Unije ali držav članic prepoveduje;

 

(f)

„družbena in okoljska blaginja“ pomeni, da se umetnointeligenčni sistemi razvijajo in uporabljajo na trajnosten in okolju prijazen način ter v korist vseh ljudi, hkrati pa se spremljajo in ocenjujejo dolgoročni vplivi na posameznika, družbo in demokracijo.

 

2.     Odstavek 1 ne posega v obveznosti, ki jih določa obstoječa zakonodaja Unije in držav članic. Za umetnointeligenčne sisteme velikega tveganja splošna načela prenesejo in izvajajo ponudniki ali uvajalci v skladu z zahtevami iz členov 8 do 15 ter ustreznimi obveznostmi iz poglavja 3 naslova III te uredbe. Za temeljne modele splošna načela prenesejo in izvajajo ponudniki ali uporabniki v skladu z zahtevami iz členov 28 do 15 te uredbe. Za vse umetnointeligenčne sisteme se lahko uporaba načel iz odstavka 1, kot je ustrezno, doseže z določbami člena 28 in člena 52 ali z uporabo harmoniziranih standardov, tehničnih specifikacij in kodeksov ravnanja iz člena 69, ne da bi pri tem nastale nove obveznosti na podlagi te uredbe.

 

3.     Komisija in urad za umetno inteligenco ta vodilna načela vključita v zahteve za standardizacijo in priporočila, ki vsebujejo tehnične smernice za pomoč ponudnikom in uvajalcem pri razvoju in uporabi umetnointeligenčnih sistemov. Evropske organizacije za standardizacijo upoštevajo splošna načela iz odstavka 1 tega člena kot cilje, ki temeljijo na rezultatih, pri razvoju ustreznih harmoniziranih standardov za umetnointeligenčne sisteme velikega tveganja iz člena 40(2b).

Sprememba 214

Predlog uredbe

Člen 4 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 4b

 

Opismenjenost na področju umetne inteligence

 

1.     Unija in države članice pri izvajanju te uredbe spodbujajo ukrepe za razvoj zadostne ravni opismenjenosti na področju umetne inteligence v vseh sektorjih in upoštevaje različne potrebe skupin ponudnikov, uvajalcev in zadevnih izpostavljenih oseb, med drugim s programi izobraževanja in usposabljanja ter izpopolnjevanja in preusposabljanja, ter ob zagotavljanju ustrezne uravnotežene zastopanosti spolov in starostne uravnoteženosti, da se omogoči demokratičen nadzor nad umetnointeligenčnimi sistemi.

 

2.     Ponudniki in uvajalci umetnointeligenčnih sistemov sprejmejo ukrepe za zagotovitev zadostne ravni pismenosti na področju umetne inteligence tako svojega osebja kot tudi drugih oseb, ki se v njihovem imenu ukvarjajo z obratovanjem in uporabo umetnointeligenčnih sistemov, upoštevajoč njihovo tehnično znanje, izkušnje, izobrazbo in usposobljenost ter okolje, v katerem se bodo uporabljali umetnointeligenčni sistemi, pa tudi osebe ali skupine oseb, na katerih se bodo uporabljali ti sistemi.

 

3.     Ti ukrepi za opismenjevanje vključujejo zlasti poučevanje osnovnih pojmov in veščin v zvezi z umetnointeligenčnimi sistemi in njihovim delovanjem, vključno z različnimi vrstami proizvodov in uporab, njihovimi tveganji in koristmi.

 

4.     Zadostna raven pismenosti na področju umetne inteligence je takšna, da po potrebi prispeva k zmožnosti ponudnikov in uvajalcev, da zagotovijo skladnost in izvrševanje te uredbe.

Sprememba 215

Predlog uredbe

Člen 5 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

dajanje na trg, v  uporabo ali v  obratovanje umetnointeligenčnega sistema, ki uporablja subliminalne tehnike, ki presegajo zavest osebe, da bi bistveno izkrivili vedenje osebe na način, ki tej osebi ali drugi osebi povzroči ali bi ji lahko povzročil fizično ali psihično škodo;

(a)

dajanje na trg, v  obratovanje ali v  uporabo umetnointeligenčnega sistema, ki uporablja subliminalne tehnike, ki presegajo zavest osebe, ali namerno manipulativne ali zavajajoče tehnike, katerih cilj ali vpliv je bistveno izkrivljanje vedenja osebe ali skupine oseb, tako da se znatno zmanjša njena sposobnost, da sprejme informirano odločitev, zaradi česar oseba sprejme odločitev, ki je sicer ne bi sprejela, na način, ki tej osebi , drugi osebi ali skupini oseb povzroči ali bi ji lahko povzročil znatno škodo;

 

Prepoved umetnointeligenčnega sistema, ki uporablja subliminalne tehnike iz prvega pododstavka, se ne uporablja za umetnointeligenčne sisteme, namenjene uporabi za odobrene terapevtske namene na podlagi posebne informirane privolitve posameznikov, ki so jim izpostavljeni, ali po potrebi njihovega zakonitega skrbnika;

Sprememba 216

Predlog uredbe

Člen 5 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

dajanje na trg, v  uporabo ali v  obratovanje umetnointeligenčnega sistema, ki izkorišča katere koli šibke točke določene skupine oseb zaradi njihove starosti , telesne ali duševne invalidnosti , da bi bistveno izkrivili vedenje osebe, ki spada v to skupino, na način, ki tej osebi ali drugi osebi povzroči ali bi ji lahko povzročil fizično ali psihično škodo ;

(b)

dajanje na trg, v  obratovanje ali v  uporabo umetnointeligenčnega sistema, ki izkorišča katere koli šibke točke osebe ali določene skupine oseb , vključno z znanimi ali predvidljivimi osebnostnimi lastnostmi te osebe ali skupine, ali družbeno ali ekonomsko situacijo , starost, telesno ali duševno sposobnost , da bi bistveno izkrivili vedenje te osebe ali osebe, ki spada v to skupino, na način, ki tej osebi ali drugi osebi povzroči ali bi ji lahko povzročil znatno škodo, oziroma vplivali na to ;

Sprememba 217

Predlog uredbe

Člen 1 – odstavek 1 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

dajanje sistemov za biometrično kategorizacijo, ki razvrščajo fizične osebe na podlagi občutljivih ali zaščitenih lastnosti ali značilnosti ali sklepanja na te lastnosti ali značilnosti, na trg, v obratovanje ali uporabo. Ta prepoved se ne uporablja za umetnointeligenčne sisteme, namenjene uporabi za odobrene terapevtske namene na podlagi posebne informirane privolitve posameznikov, ki so jim izpostavljeni, ali po potrebi njihovega zakonitega skrbnika.

Sprememba 218

Predlog uredbe

Člen 5 – odstavek 1 – točka c – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

dajanje umetnointeligenčnih sistemov na trg, v  uporabo ali v obratovanje s strani javnih organov ali v  njihovem imenu za ocenjevanje ali razvrščanje fizičnih oseb po tem, koliko so vredne zaupanja, v določenem časovnem obdobju na podlagi njihovega družbenega vedenja ali znanih ali predvidenih osebnih ali osebnostnih značilnosti, pri čemer število družbenih točk vodi do ene ali obeh naslednjih možnosti:

(c)

dajanje umetnointeligenčnih sistemov na trg, v obratovanje ali v  uporabo za ocenjevanje družbenega točkovanja ali razvrščanje fizičnih oseb oziroma skupin teh oseb v določenem časovnem obdobju na podlagi njihovega družbenega vedenja ali znanih , predpostavljenih ali predvidenih osebnih ali osebnostnih značilnosti, pri čemer število družbenih točk vodi do ene ali obeh naslednjih možnosti:

Sprememba 219

Predlog uredbe

Člen 5 – odstavek 1 – točka c – točka i

Besedilo, ki ga predlaga Komisija

Sprememba

(i)

škodljiva ali neugodna obravnava nekaterih fizičnih oseb ali njihovih celotnih skupin v družbenih okoliščinah, ki niso povezane z okoliščinami, v katerih so bili podatki prvotno ustvarjeni ali zbrani;

(Ne zadeva slovenske različice.)

Sprememba 220

Predlog uredbe

Člen 5 – odstavek 1 – točka d – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen če je taka uporaba nujno potrebna za enega od naslednjih ciljev:

(d)

uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih;

Sprememba 221

Predlog uredbe

Člen 5 – odstavek 1 – točka d – točka i

Besedilo, ki ga predlaga Komisija

Sprememba

(i)

usmerjeno iskanje določenih potencialnih žrtev kaznivih dejanj, vključno s pogrešanimi otroki;

črtano

Sprememba 222

Predlog uredbe

Člen 5 – odstavek 1 – točka d – točka ii

Besedilo, ki ga predlaga Komisija

Sprememba

(ii)

preprečitev konkretne, znatne in neposredne nevarnosti za življenje ali fizično varnost fizičnih oseb ali preprečitev terorističnega napada;

črtano

Sprememba 223

Predlog uredbe

Člen 5 – odstavek 1 – točka d – točka iii

Besedilo, ki ga predlaga Komisija

Sprememba

(iii)

odkrivanje, lokalizacijo, identifikacijo ali pregon storilca ali osumljenca kaznivega dejanja iz člena 2(2) Okvirnega sklepa Sveta 2002/584/PNZ  (62) , ki se v zadevni državi članici kaznuje z zaporno kaznijo ali ukrepom, vezanim na odvzem prostosti najmanj treh let, kot je določeno z zakonodajo te države članice.

črtano

Sprememba 224

Predlog uredbe

Člen 5 – odstavek 1 – točka d a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(da)

dajanje umetnointeligenčnih sistemov na trg ali v uporabo ali v obratovanje za ocenjevanje tveganja pri posameznih fizičnih osebah ali skupinah teh oseb, pri katerem se ocenjuje tveganje, da bo fizična oseba storila ali ponovila kaznivo dejanje ali prekršek, ali za napovedovanje storitve ali ponovitve dejanskega ali potencialnega kaznivega dejanja ali prekrška, in sicer na podlagi profiliranja fizičnih oseb ali ocene osebnostnih lastnosti in značilnosti ali preteklega kaznivega ravnanja fizičnih oseb ali skupin fizičnih oseb;

Sprememba 225

Predlog uredbe

Člen 5 – odstavek 1 – točka d b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(db)

dajanje na trg ali v uporabo ali v obratovanje umetnointeligenčnih sistemov, ki ustvarjajo ali širijo podatkovne zbirke za prepoznavanje obrazov z neciljnim odvzemom podob obraza z interneta ali posnetkov sistema televizije zaprtega kroga;

Sprememba 226

Predlog uredbe

Člen 5 – odstavek 1 – točka d c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(dc)

dajanje na trg, v uporabo ali v obratovanje umetnointeligenčnih sistemov za sklepanje o čustvih fizične osebe na področjih preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, upravljanja meja, na delovnem mestu in v izobraževalnih ustanovah;

Sprememba 227

Predlog uredbe

Člen 5 – odstavek 1 – točka d d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(dd)

dajanje v obratovanje ali uporabo umetnointeligenčnih sistemov za analizo posnetkov javno dostopnih prostorov prek sistemov za naknadno biometrično identifikacijo na daljavo, razen če je zanje potrebna predhodna sodna odobritev v skladu s pravom Unije in so nujno potrebna za usmerjeno iskanje, povezano z določenim že storjenim hudim kaznivim dejanjem, kot je opredeljeno v členu 83(1) PDEU, za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.

Sprememba 228

Predlog uredbe

Člen 5 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Ta člen ne vpliva na prepovedi, ki se uporabljajo, kadar praksa umetne inteligence krši drugo pravo Unije, vključno s pravom Unije o varstvu podatkov, nediskriminaciji, varstvu potrošnikov ali konkurenci.

Sprememba 229

Predlog uredbe

Člen 5 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.     Pri uporabi sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz točke (d) odstavka 1 se upoštevajo naslednji elementi:

črtano

(a)

narava razmer, ki povzročajo morebitno uporabo, zlasti resnost, verjetnost in obseg škode, povzročene v odsotnosti uporabe sistema;

 

(b)

posledice uporabe sistema za pravice in svoboščine vseh zadevnih oseb, zlasti resnost, verjetnost in obseg teh posledic.

 

Poleg tega je uporaba sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj za katerega koli od ciljev iz točke (d) odstavka 1 skladna s potrebnimi in sorazmernimi zaščitnimi ukrepi in pogoji v zvezi z uporabo, zlasti glede časovnih, geografskih in osebnih omejitev.

 

Sprememba 230

Predlog uredbe

Člen 5 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.     V zvezi s točko (d) odstavka 1 in odstavkom 2 je za vsako posamezno uporabo sistema za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj treba pridobiti predhodno dovoljenje pravosodnega organa ali neodvisnega upravnega organa države članice, v kateri bo potekala uporaba, izdano na podlagi obrazložene zahteve in v skladu s podrobnimi pravili nacionalnega prava iz odstavka 4. Vendar se lahko v ustrezno utemeljenih nujnih primerih uporaba sistema začne brez dovoljenja, dovoljenje pa se lahko zahteva šele med uporabo ali po njej.

črtano

Pristojni sodni ali upravni organ izda dovoljenje le, če se na podlagi objektivnih dokazov ali jasnih navedb, ki so mu bili predloženi, prepriča, da je uporaba zadevnega sistema za biometrično identifikacijo na daljavo v realnem času potrebna in sorazmerna za doseganje enega od ciljev iz točke (d) odstavka 1, kot je opredeljeno v zahtevi. Pristojni sodni ali upravni organ pri odločanju o zahtevi upošteva elemente iz odstavka 2.

 

Sprememba 231

Predlog uredbe

Člen 5 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.     Država članica se lahko odloči, da v okviru omejitev in pod pogoji iz točke (d) odstavka 1 ter odstavkov 2 in 3 v celoti ali delno dovoli uporabo sistemov za biometrično identifikacijo na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj. Ta država članica v svoji nacionalni zakonodaji določi potrebna podrobna pravila za zahtevo, izdajo in izvajanje ter nadzor v zvezi z dovoljenji iz odstavka 3. Ta pravila poleg tega določajo, za katere od ciljev iz točke (d) odstavka 1, med drugim tudi, za katera kazniva dejanja iz točke (iii), se lahko pristojnim organom dovoli uporaba teh sistemov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj.

črtano

Sprememba 232

Predlog uredbe

Člen 6 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistem je namenjen uporabi kot varnostna komponenta proizvoda ali pa je sam proizvod, ki ga zajema harmonizacijska zakonodaja Unije iz Priloge II;

(a)

umetnointeligenčni sistem je namenjen uporabi kot varnostna komponenta proizvoda ali pa je sam umetnointeligenčni sistem proizvod, ki ga zajema harmonizacijsko pravo Unije iz Priloge II;

Sprememba 233

Predlog uredbe

Člen 6 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

za proizvod, katerega varnostna komponenta je umetnointeligenčni sistem, ali pa je sam umetnointeligenčni sistem kot proizvod, je treba opraviti ugotavljanje skladnosti s strani tretje osebe zaradi dajanja tega proizvoda na trg ali v uporabo v skladu s  harmonizacijsko zakonodajo Unije iz Priloge II.

(b)

za proizvod, katerega varnostna komponenta je v skladu s točko (a) umetnointeligenčni sistem, ali pa je sam umetnointeligenčni sistem kot proizvod, je treba opraviti ugotavljanje skladnosti s strani tretje osebe v zvezi s tveganji za zdravje in varnost zaradi dajanja tega proizvoda na trg ali v uporabo v skladu s  harmonizacijskim pravom Unije iz Priloge II.

Sprememba 234

Predlog uredbe

Člen 6 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Poleg umetnointeligenčnih sistemov velikega tveganja iz odstavka 1 se za umetnointeligenčne sisteme velikega tveganja štejejo tudi umetnointeligenčni sistemi iz Priloge III.

2.   Poleg umetnointeligenčnih sistemov velikega tveganja iz odstavka 1 se za umetnointeligenčne sisteme velikega tveganja štejejo tudi umetnointeligenčni sistemi , ki spadajo v eno od področij in primerov uporabe iz Priloge III , če predstavljajo znatno tveganje škode za zdravje ljudi, varnost ali temeljne pravice . Kadar umetnointeligenčni sistem spada na področje uporabe točke 2 Priloge III, se šteje za sistem velikega tveganja, če predstavlja znatno tveganje škode za okolje.

 

Komisija šest mesecev pred začetkom veljavnosti te uredbe po posvetovanju z uradom za umetno inteligenco in ustreznimi deležniki zagotovi smernice, v katerih jasno opredeli okoliščine, v katerih bi izhodni podatki umetnointeligenčnih sistemov iz Priloge III predstavljali znatno tveganje škode za zdravje, varnost ali temeljne pravice fizičnih oseb, ali primere, v katerih ne bi predstavljali takšnega tveganja.

Sprememba 235

Predlog uredbe

Člen 6 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Kadar ponudniki, ki spadajo na eno ali več kritičnih področij in primerov uporabe iz Priloge III menijo, da njihov umetnointeligenčni sistem ne predstavlja znatnega tveganja, kot je opisano v odstavku 2, nacionalnemu nadzornemu organu predložijo utemeljeno priglasitev, da zanje ne veljajo zahteve iz poglavja 2 naslova III te uredbe. Kadar je umetnointeligenčni sistem namenjen uporabi v dveh ali več državah članicah, se priglasitev naslovi na urad za umetno inteligenco. Brez poseganja v člen 65 nacionalni nadzorni organ v treh mesecih neposredno ali prek urada za umetno inteligenco pregleda priglasitev in nanjo odgovori, če meni, da je bil umetnointeligenčni sistem napačno razvrščen.

Sprememba 236

Predlog uredbe

Člen 6 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2b.     Ponudnikom, ki svoj umetnointeligenčni sistem napačno razvrstijo kot sistem, za katerega ne veljajo zahteve iz poglavja 2 naslova III te uredbe, in ga dajo na trg pred rokom za ugovor nacionalnih nadzornih organov, se v skladu s členom 71 naložijo globe.

Sprememba 237

Predlog uredbe

Člen 6 – odstavek 2 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2c.     Nacionalni nadzorni organi Uradu za umetno inteligenco predložijo letno poročilo, v katerem podrobno navedejo število prejetih priglasitev, povezana zadevna področja velikega tveganja in odločitve glede prejetih priglasitev.

Sprememba 238

Predlog uredbe

Člen 7 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za posodobitev seznama iz Priloge III z dodajanjem umetnointeligenčnih sistemov velikega tveganja, če sta izpolnjena oba naslednja pogoja:

1.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za spremembo Priloge III , tako da doda ali spremeni področja ali primere uporabe umetnointeligenčnih sistemov velikega tveganja, kadar ti predstavljajo znatno tveganje škode za zdravje in varnost, tveganje škodljivega vpliva na temeljne pravice, okolje, demokracijo in pravno državo ter je to tveganje po resnosti in verjetnosti, da se uresniči, enako ali večje od tveganja škode ali škodljivega vpliva umetnointeligenčnih sistemov velikega tveganja, ki so že navedeni Prilogi III.

Sprememba 239

Predlog uredbe

Člen 7 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi so namenjeni uporabi na katerem koli območju iz točk 1 do 8 Priloge III;

črtano

Sprememba 240

Predlog uredbe

Člen 7 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetnointeligenčni sistemi predstavljajo tveganje škode za zdravje in varnost ali tveganje škodljivega vpliva na temeljne pravice, ki je glede na resnost in verjetnost nastanka enako ali večje od tveganja škode ali škodljivega vpliva umetnointeligenčnih sistemov velikega tveganja, ki so že navedeni v Prilogi III.

črtano

Sprememba 241

Predlog uredbe

Člen 7 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Na Komisijo se prenese tudi pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za črtanje primerov uporabe umetnointeligenčnih sistemov velikega tveganja s seznama v Prilogi III, če pogoji iz odstavka 1 ne veljajo več;

Sprememba 242

Predlog uredbe

Člen 7 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Komisija pri ocenjevanju za namene odstavka 1 , ali umetnointeligenčni sistem predstavlja tveganje škode za zdravje in varnost ali tveganje škodljivega vpliva na temeljne pravice, ki je enako ali večje od tveganja škode umetnointeligenčnih sistemov velikega tveganja, ki so že navedeni v Prilogi III, upošteva naslednja merila:

2.   Komisija pri ocenjevanju umetnointeligenčnega sistema za namene odstavka 1 in 1a upošteva naslednja merila:

Sprememba 243

Predlog uredbe

Člen 7 – odstavek 2 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

splošne zmogljivosti in funkcionalnosti umetnointeligenčnega sistema ne glede na njegov predvideni namen;

Sprememba 244

Predlog uredbe

Člen 7 – odstavek 2 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

naravo in količino podatkov, ki jih umetnointeligenčni sistem obdeluje in uporablja;

Sprememba 245

Predlog uredbe

Člen 7 – odstavek 2 – točka b b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bb)

obseg, v katerem umetnointeligenčni sistem deluje avtonomno;

Sprememba 246

Predlog uredbe

Člen 7 – odstavek 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

obseg, v katerem je uporaba umetnointeligenčnega sistema že povzročila škodo za zdravje in varnost ali škodljiv vpliv na temeljne pravice ali povzročila resno zaskrbljenost glede uresničitve take škode ali škodljivega vpliva, kot je razvidno iz poročil ali dokumentiranih trditev, predloženih pristojnim nacionalnim organom;

(c)

obseg, v katerem je uporaba umetnointeligenčnega sistema povzročila škodo za zdravje in varnost , škodljivo vplivala na temeljne pravice , okolje, demokracijo in pravno državo ali povzročila resno zaskrbljenost v zvezi z verjetnostjo take škode ali škodljivega vpliva, kot je na primer razvidno iz poročil ali dokumentiranih trditev, predloženih nacionalnim nadzornim organom , Komisiji, uradu za umetno inteligenco, Evropskemu nadzorniku za varstvo podatkov ali Agenciji Evropske unije za temeljne pravice ;

Sprememba 247

Predlog uredbe

Člen 7 – odstavek 2 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

morebitni obseg take škode ali takega škodljivega vpliva, zlasti v smislu njene intenzivnosti in zmožnosti, da vpliva na pluralnost oseb;

(d)

morebitni obseg take škode ali takega škodljivega vpliva, zlasti v smislu njene intenzivnosti in zmožnosti, da vpliva na pluralnost oseb ali nesorazmerno vpliva na določeno skupino ljudi ;

Sprememba 248

Predlog uredbe

Člen 7 – odstavek 2 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

obseg, v katerem so potencialno oškodovane ali oškodovane osebe odvisne od izida , doseženega s sistemom umetne inteligence, zlasti ker iz praktičnih ali pravnih razlogov ni mogoče razumno odstopiti od tega izida ;

(e)

obseg, v katerem so potencialno oškodovane ali oškodovane osebe odvisne od izhodnih podatkov , doseženih z vključitvijo sistema umetne inteligence, izhodni podatki pa so v zvezi z zadevnim ukrepom ali odločitvijo, ki jo je treba sprejeti, zgolj pomožni, zlasti ker iz praktičnih ali pravnih razlogov ni mogoče razumno odstopiti od teh izhodnih podatkov ;

Sprememba 249

Predlog uredbe

Člen 7 – odstavek 2 – točka e a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ea)

morebitno zlorabo in zlonamerno uporabo umetnointeligenčnega sistema in tehnologije, na kateri temelji;

Sprememba 250

Predlog uredbe

Člen 7 – odstavek 2 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

obseg, v katerem so potencialno oškodovane ali prizadete osebe v ranljivem položaju v odnosu do uporabnika umetnointeligenčnega sistema, zlasti zaradi neravnovesja moči , znanja, ekonomskih ali socialnih okoliščin ali starosti;

(f)

obseg, v katerem obstaja neravnovesje moči ali so potencialno oškodovane ali prizadete osebe v ranljivem položaju v odnosu do uporabnika umetnointeligenčnega sistema, zlasti zaradi statusa, organa , znanja, ekonomskih ali socialnih okoliščin ali starosti;

Sprememba 251

Predlog uredbe

Člen 7 – odstavek 2 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

obseg, v katerem je izid, ustvarjen s sistemom umetne inteligence, mogoče zlahka odpraviti, pri čemer se izidi, ki vplivajo na zdravje ali varnost oseb , ne štejejo za take, ki je mogoče zlahka odpraviti;

(g)

obseg, v katerem je izid, ustvarjen z vključitvijo sistema umetne inteligence, mogoče zlahka odpraviti ali izboljšati , pri čemer se izidi, ki škodljivo vplivajo na zdravje , varnost, temeljne pravice oseb, okolje ali na demokracijo in pravno državo , ne štejejo za take, ki jih je mogoče zlahka odpraviti;

Sprememba 252

Predlog uredbe

Člen 7 – odstavek 2 – točka g a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ga)

obseg razpoložljivosti in uporabe učinkovitih tehničnih rešitev in mehanizmov za nadzor, zanesljivost in omogočanje popravkov umetnointeligenčnega sistema;

Sprememba 253

Predlog uredbe

Člen 7 – odstavek 2 – točka g b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(gb)

razsežnost in verjetnost, da bo uvedba umetnointeligenčnega sistema koristila posameznikom, skupinam ali družbi na splošno, vključno z možnimi izboljšavami glede varnosti proizvodov;

Sprememba 254

Predlog uredbe

Člen 7 – odstavek 2 – točka g c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(gc)

obseg človekovega nadzora in možnost njegovega posredovanja, da bi razveljavil odločitev ali priporočila, ki bi lahko povzročila morebitno škodo;

Sprememba 255

Predlog uredbe

Člen 7 – odstavek 2 – točka h

Besedilo, ki ga predlaga Komisija

Sprememba

(i)

učinkovite ukrepe sodnega varstva zvezi s tveganji, ki jih predstavlja umetnointeligenčni sistem, razen odškodninskih zahtevkov;

(h)

obseg, katerem obstoječi zakoni Unije določajo:

 

 

(i)

učinkovite ukrepe sodnega varstva v zvezi s škodo, ki jo povzroči umetnointeligenčni sistem, razen odškodninskih zahtevkov za neposredno ali posredno škodo;

 

 

(ii)

učinkovite ukrepe za preprečevanje ali bistveno zmanjšanje teh tveganj.

Sprememba 256

Predlog uredbe

Člen 7 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Komisija se pri ocenjevanju umetnointeligenčnega sistema za namene odstavkov 1 ali 1a po potrebi posvetuje z uradom za umetno inteligenco, s predstavniki skupin, na katere vpliva umetnointeligenčni sistem, industrijo, neodvisnimi strokovnjaki, socialnimi partnerji in organizacijami civilne družbe. Komisija v zvezi s tem organizira tudi javna posvetovanja ter objavi rezultate teh posvetovanj in končne ocene;

Sprememba 257

Predlog uredbe

Člen 7 – odstavek 2 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2b.     Urad za umetno inteligenco, nacionalni nadzorni organi ali Evropski parlament lahko od Komisije zahtevajo, da ponovno oceni in ponovno razvrsti kategorizacijo tveganja umetnointeligenčnega sistema v skladu z odstavkoma 1 in 1a. Komisija navede razloge za svojo odločitev in jih objavi.

Sprememba 258

Predlog uredbe

Člen 8 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Pri izpolnjevanju zahtev iz tega poglavja se ustrezno upoštevajo smernice, pripravljene v skladu s členom 82b, splošno priznano najsodobnejšo tehnologijo, tudi kot je razvidno iz ustreznih harmoniziranih standardov in skupnih specifikacij iz členov 40 in 41 ali tistih, ki so že določene v harmonizacijskem pravu Unije;

Sprememba 259

Predlog uredbe

Člen 8 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Predvideni namen umetnointeligenčnega sistema velikega tveganja in sistema obvladovanja tveganja iz člena 9 se upošteva pri zagotavljanju skladnosti z navedenimi zahtevami.

2.   Predvideni namen umetnointeligenčnega sistema velikega tveganja , predvidljiva in razumno predvidljiva napačna uporaba, in sistem obvladovanja tveganja iz člena 9 se upoštevajo pri zagotavljanju skladnosti z navedenimi zahtevami.

Sprememba 260

Predlog uredbe

Člen 8 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Dokler se zahteve iz poglavij 2 in 3 naslova III ali poglavij 1, 2 in 3 naslova VIII za umetnointeligenčne sisteme velikega tveganja obravnavajo v harmonizacijskem pravu Unije iz oddelka A Priloge II, se zahteve ali obveznosti iz navedenih poglavij te uredbe štejejo za izpolnjene, če vključujejo komponento umetne inteligence. Zahteve iz poglavij 2 in 3 naslova III ali poglavij 1, 2 in 3 naslova VIII za umetnointeligenčne sisteme velikega tveganja, ki niso zajeti v harmonizacijskem pravu Unije iz Priloge II, oddelek A, se po potrebi vključijo v navedeno harmonizacijsko pravo Unije. Ustrezno ugotavljanje skladnosti se izvede kot del postopkov, določenih v harmonizacijskem pravu Unije, navedenih v oddelku A Priloge II.

Sprememba 261

Predlog uredbe

Člen 9 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   V zvezi z umetnointeligenčnimi sistemi velikega tveganja se vzpostavi, izvaja, dokumentira in vzdržuje sistem obvladovanja tveganja.

1.   V zvezi z umetnointeligenčnimi sistemi velikega tveganja se za celotni življenjski cikel umetnointeligenčnega sistema vzpostavi, izvaja, dokumentira in vzdržuje sistem obvladovanja tveganja. Sistem obvladovanja tveganja se lahko vključi v že obstoječe postopke obvladovanja tveganja v zvezi s sektorskim pravom Unije ali njihov del, če izpolnjuje zahteve iz tega člena.

Sprememba 262

Predlog uredbe

Člen 9 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Sistem obvladovanja tveganja je sestavljen iz neprekinjenega ponavljajočega se procesa, ki se izvaja med celotno življenjsko dobo umetnointeligenčnega sistema velikega tveganja in ga je treba redno sistematično posodabljati . Obsegati mora naslednje korake:

2.   Sistem obvladovanja tveganja je sestavljen iz neprekinjenega ponavljajočega se procesa, ki se izvaja med celotno življenjsko dobo umetnointeligenčnega sistema velikega tveganja in zahteva redno pregledovanje in posodabljanje postopka obvladovanja tveganj, da se zagotovi njegova stalna učinkovitost, ter dokumentiranje vseh pomembnih sprejetih odločitev in ukrepov iz tega člena . Obsegati mora naslednje korake:

Sprememba 263

Predlog uredbe

Člen 9 – odstavek 2 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

ugotovitev in analizo znanih in predvidljivih tveganj, povezanih vsakim sistemom umetne inteligence velikega tveganja;

(a)

ugotovitev , oceno in ovrednotenje znanih in razumno predvidljivih tveganj, ki jih lahko umetnointeligenčni sistem velikega tveganja pomeni za zdravje ali varnost fizičnih oseb, njihove temeljne pravice, vključno enakim dostopom in priložnostmi, demokracijo in pravno državo ali okolje, kadar se umetnointeligenčni sistem velikega tveganja uporablja v skladu s predvidenim namenom in v razmerah razumno predvidljive napačne uporabe ;

Sprememba 264

Predlog uredbe

Člen 9 – odstavek 2 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

oceno in ovrednotenje tveganj, ki se lahko pojavijo pri uporabi umetnointeligenčnega sistema velikega tveganja v skladu s predvidenim namenom in v razmerah razumno predvidljive napačne uporabe;

črtano

Sprememba 265

Predlog uredbe

Člen 9 – odstavek 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

ovrednotenje drugih morebitnih tveganj na podlagi analize podatkov, zbranih iz sistema spremljanja po dajanju na trg iz člena 61;

(c)

ovrednotenje novih pomembnih tveganj , kot so opisana v točki (a) in ugotovljena na podlagi analize podatkov, zbranih iz sistema spremljanja po dajanju na trg iz člena 61;

Sprememba 266

Predlog uredbe

Člen 9 – odstavek 2 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

sprejetje ustreznih ukrepov za obvladovanje tveganja v skladu z določbami naslednjih odstavkov.

(d)

sprejetje ustreznih in ciljno usmerjenih ukrepov za obvladovanje tveganja , namenjenih reševanju ugotovljenih tveganj iz točk a in b tega odstavka, v skladu z določbami naslednjih odstavkov.

Sprememba 267

Predlog uredbe

Člen 9 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Pri ukrepih za obvladovanje tveganja iz točke (d) odstavka 2 se ustrezno upoštevajo učinki in možni medsebojni vplivi, ki izhajajo iz skupne uporabe zahtev iz tega poglavja 2. Upoštevajo splošno priznano stanje tehnike , vključno s tistim , kar se odraža v ustreznih harmoniziranih standardih ali skupnih specifikacijah .

3.   Pri ukrepih za obvladovanje tveganja iz točke (d) odstavka 2 se ustrezno upoštevajo učinki in možni medsebojni vplivi, ki izhajajo iz skupne uporabe zahtev iz tega poglavja 2 , da bi se tveganja učinkovito zmanjšala, hkrati pa zagotovilo ustrezno in sorazmerno izvajanje zahtev .

Sprememba 268

Predlog uredbe

Člen 9 – odstavek 4 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Ukrepi za obvladovanje tveganja iz točke (d) odstavka 2 so taki, da se vsako preostalo tveganje, povezano z vsako nevarnostjo, in celotno preostalo tveganje umetnointeligenčnih sistemov velikega tveganja štejeta za sprejemljiva pod pogojem, da se umetnointeligenčni sistem velikega tveganja uporablja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe. O teh preostalih tveganjih je treba obvestiti uporabnika .

4.   Ukrepi za obvladovanje tveganja iz točke (d) odstavka 2 so taki, da se pomembno preostalo tveganje, povezano z vsako nevarnostjo, in celotno preostalo tveganje umetnointeligenčnih sistemov velikega tveganja razumno štejeta za sprejemljiva pod pogojem, da se umetnointeligenčni sistem velikega tveganja uporablja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe. O teh preostalih tveganjih in razumnih presojah je treba obvestiti uvajalca .

 

Pri določanju najustreznejših ukrepov za obvladovanje tveganja se zagotovi naslednje:

Sprememba 269

Predlog uredbe

Člen 9 – odstavek 4 – pododstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

z ustrezno zasnovo in razvojem odpraviti tveganja ali jih kar najbolj zmanjšati ;

(a)

z ustrezno zasnovo in razvojem umetnointeligenčnega sistema velikega tveganja, odpraviti ugotovljena tveganja ali jih zmanjšati, kolikor je to tehnološko izvedljivo, pri čemer so po potrebi vključeni strokovnjaki in zunanji deležniki ;

Sprememba 270

Predlog uredbe

Člen 9 – odstavek 4 – pododstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

po potrebi izvajati ustrezne ukrepe za blažitev in nadzor v zvezi s tveganji , ki jih ni mogoče odpraviti;

(b)

po potrebi izvajati ustrezne ukrepe za blažitev in nadzor , s katerimi bi obravnavali pomembna tveganja , ki jih ni mogoče odpraviti;

Sprememba 271

Predlog uredbe

Člen 9 – odstavek 4 – pododstavek 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

zagotoviti ustrezne informacije v skladu s členom 13 , zlasti v zvezi s tveganji iz točke (b) odstavka 2 tega člena, in po potrebi zagotoviti usposabljanje uporabnikov .

(c)

zagotoviti potrebne informacije v skladu s členom 13 in po potrebi usposabljanje uvajalcev .

Sprememba 272

Predlog uredbe

Člen 9 – odstavek 4 – pododstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

Pri odpravljanju ali zmanjševanju tveganj, povezanih z uporabo umetnointeligenčnega sistema velikega tveganja, se ustrezno upoštevajo tehnično znanje, izkušnje, izobraževanje, usposabljanje, ki ga lahko pričakuje uporabnik, in okolje , v katerem naj bi se sistem uporabljal .

Pri odpravljanju ali zmanjševanju tveganj, povezanih z uporabo umetnointeligenčnega sistema velikega tveganja, ponudniki ustrezno upoštevajo tehnično znanje, izkušnje, izobraževanje in usposabljanje, ki bi jih uvajalec lahko potreboval , tudi v zvezi s predvidenim kontekstom uporabe .

Sprememba 273

Predlog uredbe

Člen 9 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Umetnointeligenčni sistemi velikega tveganja se testirajo, da se določijo najprimernejši ukrepi za obvladovanje tveganja. S testiranjem se zagotovi, da umetnointeligenčni sistemi velikega tveganja delujejo dosledno za predvideni namen in izpolnjujejo zahteve iz tega poglavja.

5.   Umetnointeligenčni sistemi velikega tveganja se testirajo, da se določijo najprimernejši in ciljno usmerjeni ukrepi za obvladovanje tveganja , ki se jih primerja z morebitnimi koristmi in začrtanimi cilji sistema . S testiranjem se zagotovi, da umetnointeligenčni sistemi velikega tveganja delujejo dosledno za predvideni namen in izpolnjujejo zahteve iz tega poglavja.

Sprememba 274

Predlog uredbe

Člen 9 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Postopki testiranja so primerni za doseganje predvidenega namena umetnointeligenčnega sistema in jim ni treba presegati tistega, kar je potrebno za doseganje navedenega namena .

6.   Postopki testiranja so primerni za doseganje predvidenega namena umetnointeligenčnega sistema.

Sprememba 275

Predlog uredbe

Člen 9 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.   Testiranje umetnointeligenčnih sistemov velikega tveganja se po potrebi izvede kadar koli v celotnem razvojnem procesu, vsekakor pa pred dajanjem na trg ali v uporabo. Testiranje se opravi na podlagi predhodno opredeljenih metrik in verjetnostnih pragov, ki ustrezajo predvidenemu namenu umetnointeligenčnega sistema velikega tveganja.

7.   Testiranje umetnointeligenčnih sistemov velikega tveganja se izvede pred dajanjem na trg ali v uporabo. Testiranje se opravi na podlagi predhodno opredeljenih metrik in verjetnostnih pragov, ki ustrezajo predvidenemu namenu ali razumno predvideni napačni uporabi umetnointeligenčnega sistema velikega tveganja.

Sprememba 276

Predlog uredbe

Člen 9 – odstavek 8

Besedilo, ki ga predlaga Komisija

Sprememba

8.   Pri izvajanju sistema obvladovanja tveganja iz odstavkov 1–7 se posebej preuči , ali je verjetno, da bodo do umetnointeligenčnega sistema velikega tveganja dostopali otroci oziroma ali bo sistem vplival nanje .

8.   Pri izvajanju sistema obvladovanja tveganja iz odstavkov 1–7 ponudniki posebej preučijo , ali je verjetno, da bodo umetnointeligenčni sistemi velikega tveganja negativno vplivali na ranljive skupine ali otroke .

Sprememba 277

Predlog uredbe

Člen 9 – odstavek 9

Besedilo, ki ga predlaga Komisija

Sprememba

9.   Za kreditne institucije, ki jih ureja Direktiva 2013/36/EU, so vidiki iz odstavkov 1–8 del postopkov obvladovanja tveganja, ki jih določijo navedene institucije v skladu s členom 74 navedene direktive .

9.   Za ponudnike in umetnointeligenčne sisteme, za katere akti prava Unije že določajo, da morajo vzpostaviti posebno obvladovanje tveganja, vštevši kreditne institucije, ki jih ureja Direktiva 2013/36/EU, so vidiki iz odstavkov 1–8 del postopkov obvladovanja tveganja, ki jih določijo navedeni akti prava Unije, ali povezani z njimi .

Sprememba 278

Predlog uredbe

Člen 10 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Umetnointeligenčni sistemi velikega tveganja, ki uporabljajo tehnike, ki vključujejo učenje modelov s podatki, se razvijejo na podlagi naborov učnih podatkov, podatkov za potrditev in testnih podatkov, ki izpolnjujejo merila kakovosti iz odstavkov 2–5.

1.   Umetnointeligenčni sistemi velikega tveganja, ki uporabljajo tehnike, ki vključujejo učenje modelov s podatki, se razvijejo na podlagi naborov učnih podatkov, podatkov za potrditev in testnih podatkov, ki izpolnjujejo merila kakovosti iz odstavkov 2–5 , če je to tehnično izvedljivo, odvisno od posameznega segmenta trga ali področja uporabe .

 

Tehnike, ki ne zahtevajo označenih vhodnih podatkov, kot sta nenadzorovano učenje in spodbujevano učenje, se razvijejo na podlagi nabora podatkov, na primer za testiranje in preverjanje, ki izpolnjujejo merila kakovosti iz odstavkov 2 do 5.

Sprememba 279

Predlog uredbe

Člen 10 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Za nabore učnih in testnih podatkov ter podatkov za potrditev veljajo ustrezne prakse vodenja in upravljanja podatkov . Te prakse zadevajo zlasti:

2.   Za nabore učnih in testnih podatkov ter podatkov za potrditev veljajo ustrezne prakse vodenja podatkov, ki so primerne za kontekst uporabe in predvideni namen umetnointeligenčnega sistema . Ti ukrepi zadevajo zlasti:

Sprememba 280

Predlog uredbe

Člen 10 – odstavek 2 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

preglednost glede prvotnega namena zbiranja podatkov;

Sprememba 281

Predlog uredbe

Člen 10 – odstavek 2 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

zbiranje podatkov;

(b)

postopke zbiranja podatkov;

Sprememba 282

Predlog uredbe

Člen 10 – odstavek 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

ustrezne postopke obdelave za pripravo podatkov, kot so dodajanje opomb, označevanje, čiščenje, obogatitev in združevanje;

(c)

postopke obdelave za pripravo podatkov, kot so dodajanje opomb, označevanje, čiščenje , posodabljanje , obogatitev in združevanje;

Sprememba 283

Predlog uredbe

Člen 10 – odstavek 2 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

oblikovanje ustreznih predpostavk, zlasti v zvezi z informacijami, ki naj bi jih podatki merili in predstavljali;

(d)

oblikovanje predpostavk, zlasti v zvezi z informacijami, ki naj bi jih podatki merili in predstavljali;

Sprememba 284

Predlog uredbe

Člen 10 – odstavek 2 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

predhodno oceno razpoložljivosti, količine in primernosti potrebnih naborov podatkov;

(e)

oceno razpoložljivosti, količine in primernosti potrebnih naborov podatkov;

Sprememba 285

Predlog uredbe

Člen 10 – odstavek 2 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

preučitev morebitnih pristranskosti;

(f)

preučitev morebitnih pristranskosti , ki bi lahko vplivale na zdravje in varnost oseb, negativno vplivale na temeljne pravice ali privedle do diskriminacije, ki je v skladu s pravom Unije prepovedana, zlasti kadar izhodni podatki vplivajo na vhodne podatke za prihodnje operacije („povratne zanke“) in ustrezne ukrepe za odkrivanje, preprečevanje in ublažitev morebitnih pristranskosti ;

Sprememba 286

Predlog uredbe

Člen 10 – odstavek 2 – točka f a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(fa)

ustrezne ukrepe za odkrivanje, preprečevanje in zmanjševanje morebitnih pristranskosti;

Sprememba 287

Predlog uredbe

Člen 10 – odstavek 2 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

prepoznavanje morebitnih vrzeli ali pomanjkljivosti v podatkih ter način za odpravljanje teh vrzeli in pomanjkljivosti.

(g)

prepoznavanje ustreznih vrzeli ali pomanjkljivosti v podatkih , ki preprečujejo skladnost s to uredbo, ter način za odpravljanje teh vrzeli in pomanjkljivosti;

Sprememba 288

Predlog uredbe

Člen 10 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Nabori učnih in testnih podatkov ter podatkov za potrditev so ustrezni, reprezentativni, brez napak in popolni. Imeti morajo tudi ustrezne statistične lastnosti, tudi v zvezi z osebami ali skupinami oseb, kadar je primerno, na katerih naj bi se uporabljal umetnointeligenčni sistem velikega tveganja. Te značilnosti naborov podatkov se lahko izpolnijo na ravni posameznih naborov podatkov ali njihovih kombinacij.

3.   Nabori učnih podatkov in kje se uporabljajo, testnih podatkov ter podatkov za potrditev , vključno z oznakami, bi morali biti ustrezni, dovolj reprezentativni, ustrezno preverjeni, da ne vsebujejo napak , ter čim bolj popolni glede na predvideni namen sistema . Imeti morajo tudi ustrezne statistične lastnosti, tudi v zvezi z osebami ali skupinami oseb, kadar je primerno, v zvezi s katerimi naj bi se uporabljal umetnointeligenčni sistem velikega tveganja. Te značilnosti naborov podatkov se izpolnijo na ravni posameznih naborov podatkov ali njihovih kombinacij.

Sprememba 289

Predlog uredbe

Člen 10 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Nabori učnih in testnih podatkov ter podatkov za potrditev morajo v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevati značilnosti ali elemente, ki so značilni za posebno geografsko, vedenjsko ali funkcionalno okolje, v katerem naj bi se umetnointeligenčni sistem velikega tveganja uporabljal.

4.   Nabori podatkov morajo v obsegu, ki se zahteva glede na njihov predvideni namen, upoštevati razumno predvidljivo napačno uporabo umetnointeligenčnih sistemov, značilnosti ali elemente, ki so značilni za posebno geografsko , kontekstualno , vedenjsko ali funkcionalno okolje, v katerem naj bi se umetnointeligenčni sistem velikega tveganja uporabljal.

Sprememba 290

Predlog uredbe

Člen 10 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Če je to nujno potrebno za namene zagotavljanja spremljanja, odkrivanja in odpravljanja pristranskosti v zvezi z umetnointeligenčnimi sistemi velikega tveganja, lahko ponudniki takih sistemov obdelujejo posebne kategorije osebnih podatkov iz člena 9(1) Uredbe (EU) 2016/679, člena 10 Direktive (EU) 2016/680 in člena 10(1) Uredbe (EU) 2018/1725 ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb, vključno s tehničnimi omejitvami ponovne uporabe in uporabe najsodobnejših varnostnih ukrepov in ukrepov za ohranjanje zasebnosti , kot je psevdonimizacija ali šifriranje, kadar lahko anonimizacija bistveno vpliva na želeni namen.

5.   Če je to nujno potrebno za namene zagotavljanja odkrivanja in odpravljanja negativne pristranskosti v zvezi z umetnointeligenčnimi sistemi velikega tveganja, lahko ponudniki takih sistemov obdelujejo posebne kategorije osebnih podatkov iz člena 9(1) Uredbe (EU) 2016/679, člena 10 Direktive (EU) 2016/680 in člena 10(1) Uredbe (EU) 2018/1725 ob upoštevanju ustreznih zaščitnih ukrepov za temeljne pravice in svoboščine fizičnih oseb, vključno s tehničnimi omejitvami ponovne uporabe in uporabe najsodobnejših varnostnih ukrepov in ukrepov za ohranjanje zasebnosti . Za to obdelavo veljajo zlasti vsi naslednji pogoji:

(a)

odkrivanja in popravljanja pristranskosti ni mogoče učinkovito doseči z obdelavo sintetičnih ali anonimiziranih podatkov;

 

(b)

podatki so psevdonimizirani;

 

(c)

ponudnik sprejme ustrezne tehnične in organizacijske ukrepe za zagotovitev, da so podatki, ki se obdelujejo za namene tega odstavka, zavarovani, zaščiteni, da zanje veljajo ustrezni zaščitni ukrepi in da imajo dostop do teh podatkov samo pooblaščene osebe z ustreznimi obveznostmi glede zaupnosti;

 

(d)

podatki, obdelani za namene tega odstavka, ne smejo biti posredovani, preneseni ali drugače dostopni drugim strankam;

 

(e)

podatki, obdelani za namene tega odstavka, so zaščiteni z ustreznimi tehničnimi in organizacijskimi ukrepi, se izbrišejo, ko je pristranskost odpravljena ali ko se izteče obdobje hrambe osebnih podatkov;

 

(f)

vzpostavljeni so učinkoviti in ustrezni ukrepi za zagotovitev razpoložljivosti, varnosti in odpornosti sistemov in storitev za obdelavo na tehnične ali fizične incidente;

 

(g)

vzpostavljeni so učinkoviti in ustrezni ukrepi za zagotovitev fizične varnosti lokacij, kjer se podatki hranijo in obdelujejo, notranjega upravljanja in vodenja IT in varnosti IT ter certificiranja postopkov in proizvodov;

 

Ponudniki, ki uporabljajo to določbo, pripravijo dokumentacijo, v kateri pojasnijo, zakaj je bila obdelava posebnih vrst osebnih podatkov potrebna za odkrivanje in odpravo pristranskosti.

Sprememba 291

Predlog uredbe

Člen 10 – odstavek 6 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

6a.     Če ponudnik ne more izpolniti obveznosti iz tega člena, ker nima dostopa do podatkov in podatke hrani izključno uvajalec, je lahko uvajalec na podlagi pogodbe odgovoren za vsako kršitev tega člena.

Sprememba 292

Predlog uredbe

Člen 11 – odstavek 1 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Tehnična dokumentacija se pripravi tako, da dokazuje, da je umetnointeligenčni sistem velikega tveganja skladen z zahtevami iz tega poglavja, ter pristojnim nacionalnim organom in priglašenim organom zagotovi vse potrebne informacije za ugotavljanje skladnosti umetnointeligenčnega sistema z navedenimi zahtevami. Vsebovati mora vsaj elemente iz Priloge IV.

Tehnična dokumentacija se pripravi tako, da dokazuje, da je umetnointeligenčni sistem velikega tveganja skladen z zahtevami iz tega poglavja, ter nacionalnim nadzornim organom in priglašenim organom zagotovi potrebne informacije za ugotavljanje skladnosti umetnointeligenčnega sistema z navedenimi zahtevami. Vsebovati mora vsaj elemente iz Priloge IV , v primeru MSP in zagonskih podjetij pa enakovredno dokumentacijo, ki izpolnjuje iste cilje, če jo odobri nacionalni pristojni organ .

Sprememba 293

Predlog uredbe

Člen 11 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar je umetnointeligenčni sistem velikega tveganja, povezan s proizvodom, za katerega se uporabljajo pravni akti iz oddelka A Priloge II, dan na trg ali v uporabo, se pripravi enotna tehnična dokumentacija, ki vsebuje vse informacije iz Priloge IV in informacije, zahtevane v navedenih pravnih aktih.

2.   Kadar je umetnointeligenčni sistem velikega tveganja, povezan s proizvodom, za katerega se uporabljajo pravni akti iz oddelka A Priloge II, dan na trg ali v uporabo, se pripravi enotna tehnična dokumentacija, ki vsebuje vse informacije iz odstavka 1 in informacije, zahtevane v navedenih pravnih aktih.

Sprememba 294

Predlog uredbe

Člen 11 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Ponudniki, ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, hranijo tehnično dokumentacijo kot del dokumentacije o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

Sprememba 295

Predlog uredbe

Člen 12 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti z zmogljivostmi, ki omogočajo samodejno beleženje dogodkov („dnevniki“), med delovanjem umetnointeligenčnih sistemov velikega tveganja. Te zmogljivosti vodenja dnevnikov so v skladu s priznanimi standardi ali skupnimi specifikacijami.

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti z zmogljivostmi, ki omogočajo samodejno beleženje dogodkov („dnevniki“), med delovanjem umetnointeligenčnih sistemov velikega tveganja. Te zmogljivosti vodenja dnevnikov so v skladu s  stanjem tehnike in priznanimi standardi ali skupnimi specifikacijami.

Sprememba 296

Predlog uredbe

Člen 12 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Zmogljivosti vodenja dnevnikov zagotavljajo raven sledljivosti delovanja umetnointeligenčnega sistema v celotnem življenjskem ciklu , ki ustreza predvidenemu namenu sistema.

2.    Da bi zagotovili raven sledljivosti delovanja umetnointeligenčnega sistema med celotno njegovo življenjsko dobo , ki ustreza predvidenemu namenu sistema , morajo zmogljivosti vodenja dnevnikov olajšati spremljanje delovanja, kot je navedeno v členu 29(4), pa tudi spremljanje po dajanju na trg iz člena 61 . Zlasti omogočajo beleženje dogodkov, pomembnih za opredelitev situacij, ki lahko privedejo do:

 

(a)

tega, da umetnointeligenčni sistem predstavlja tveganje v smislu člena 65(1); ali

 

(b)

bistveno spremenijo umetnointeligenčni sistem.

Sprememba 297

Predlog uredbe

Člen 12 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti z zmogljivostmi za vodenje dnevnikov, ki omogočajo beleženje porabe energije, merjenje ali izračun rabe virov in okoljskega vpliva umetnointeligenčnega sistema velikega tveganja v vseh fazah življenjskega cikla sistema.

Sprememba 298

Predlog uredbe

Člen 12 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.     Zlasti zmogljivosti vodenja dnevnikov omogočajo spremljanje delovanja umetnointeligenčnega sistema velikega tveganja v zvezi s pojavom situacij, ki lahko povzročijo, da bi sistem umetne inteligence predstavljal tveganje v smislu člena 65(1), pa se zaradi njih izvedejo bistvene spremembe, in olajšujejo spremljanje po dajanju na trg iz člena 61.

črtano

Sprememba 299

Predlog uredbe

Člen 13 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Preglednost in zagotavljanje informacij uporabnikom

Preglednost in zagotavljanje informacij

Sprememba 300

Predlog uredbe

Člen 13 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti tako, da je njihovo delovanje dovolj pregledno, da lahko uporabniki razlagajo izhodne podatke sistema in jih ustrezno uporabijo. Zagotovita se ustrezna vrsta in stopnja preglednosti , da se doseže skladnost z ustreznimi obveznostmi uporabnika in ponudnika iz poglavja 3 tega naslova.

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti tako, da je njihovo delovanje dovolj pregledno, da lahko ponudniki in uporabniki smiselno razumejo delovanje sistema . V skladu s predvideno uporabo umetnointeligenčnega sistema se zagotovi ustrezna preglednost , da se doseže skladnost z ustreznimi obveznostmi uporabnika in ponudnika iz poglavja 3 tega naslova.

 

Preglednost tako pomeni, da se v času, ko je umetnointeligenčni sistem velikega tveganja dan na trg, uporabijo vsa tehnična sredstva, ki so na voljo v skladu s splošno priznano najsodobnejšo tehnologijo, da bi zagotovili, da lahko ponudnik in uporabnik razlagata rezultate umetnointeligenčnega sistema. Uporabniku mora biti omogočeno, da razume in ustrezno uporablja umetnointeligenčni sistem, s tem, da na splošno ve, kako umetnointeligenčni sistem deluje in katere podatke obdeluje, kar uporabniku omogoča, da v skladu s členom 68(c) zadevni osebi razloži odločitve, ki jih je sprejel umetnointeligenčni sistem.

Sprememba 301

Predlog uredbe

Člen 13 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Umetnointeligenčnim sistemom velikega tveganja so priložena navodila za uporabo v ustrezni digitalni obliki ali kako drugače , ki vključujejo jedrnate, popolne , pravilne in jasne informacije, ki so pomembne, dostopne in razumljive uporabnikom.

2.   Umetnointeligenčnim sistemom velikega tveganja so priložena ali kako drugače dana na voljo razumljiva navodila za uporabo v ustrezni digitalni obliki ali na trajnem nosilcu , ki vključujejo jedrnate, pravilne , jasne in , kolikor je to mogoče, popolne informacije, ki pomagajo pri upravljanju in vzdrževanju umetnointeligenčnega sistema, podpirajo uporabnike pri informiranem odločanju in so ustrezno pomembne, dostopne in razumljive uporabnikom.

Sprememba 302

Predlog uredbe

Člen 13 – odstavek 3 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Informacije iz odstavka 2 določajo:

3.    Za doseganje ciljev iz odstavka 1 informacije iz odstavka 2 določajo:

Sprememba 303

Predlog uredbe

Člen 13 – odstavek 3 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

istovetnost in kontaktne podatke ponudnika in njegovega pooblaščenega zastopnika , kadar ta obstaja ;

(a)

istovetnost in kontaktne podatke ponudnika in njegovih pooblaščenih zastopnikov , kadar ti obstajajo ;

Sprememba 304

Predlog uredbe

Člen 13 – odstavek 3 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

če niso enaki kot za ponudnika, istovetnost in kontaktne podatke subjekta, ki je izvedel ugotavljanje skladnosti, in njegovega pooblaščenega zastopnika, kadar ta obstaja;

Sprememba 305

Predlog uredbe

Člen 13 – odstavek 3 – točka b – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

značilnosti, zmogljivosti in omejitve delovanja umetnointeligenčnega sistema velikega tveganja, ki vključujejo:

(b)

značilnosti, zmogljivosti in omejitve delovanja umetnointeligenčnega sistema velikega tveganja, ki po potrebi vključujejo:

Sprememba 306

Predlog uredbe

Člen 13 – odstavek 3 – točka b – točka ii

Besedilo, ki ga predlaga Komisija

Sprememba

(ii)

raven točnosti, robustnosti in kibernetske varnosti iz člena 15, na podlagi katere je bil umetnointeligenčni sistem velikega tveganja testiran ter potrjen in katero se lahko pričakuje, ter vse znane in predvidljive okoliščine, ki bi lahko vplivale na to pričakovano raven točnosti, robustnosti in kibernetske varnosti;

(ii)

raven točnosti, robustnosti in kibernetske varnosti iz člena 15, na podlagi katere je bil umetnointeligenčni sistem velikega tveganja testiran ter potrjen in katero se lahko pričakuje, ter vse očitno znane in predvidljive okoliščine, ki bi lahko vplivale na to pričakovano raven točnosti, robustnosti in kibernetske varnosti;

Sprememba 307

Predlog uredbe

Člen 13 – odstavek 3 – točka b – točka iii

Besedilo, ki ga predlaga Komisija

Sprememba

(iii)

vse znane ali predvidljive okoliščine, povezane z uporabo umetnointeligenčnega sistema velikega tveganja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, ki lahko pripeljejo do tveganj za zdravje in varnost ali za temeljne pravice ;

(iii)

vse očitno znane ali predvidljive okoliščine, povezane z uporabo umetnointeligenčnega sistema velikega tveganja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, ki lahko pripeljejo do tveganj za zdravje in varnost , za temeljne pravice ali okolje, po potrebi vključno s ponazoritvenimi primeri takih omejitev in scenarijev, za katere se sistem ne bi smel uporabljati ;

Sprememba 308

Predlog uredbe

Člen 13 – odstavek 3 – točka b – točka iii a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(iiia)

raven, do katere lahko umetnointeligenčni sistem pojasni odločitve, ki jih sprejema;

Sprememba 309

Predlog uredbe

Člen 13 – odstavek 3 – točka b – točka v

Besedilo, ki ga predlaga Komisija

Sprememba

(v)

kadar je to primerno , specifikacije za vhodne podatke ali katere koli druge ustrezne informacije v zvezi z uporabljenimi nabori učnih in testnih podatkov ter podatkov za potrditev, ob upoštevanju predvidenega namena umetnointeligenčnega sistema;

(v)

ustrezne informacije o ukrepih uporabnikov , ki lahko vplivajo na delovanje sistema, vključno z vrsto ali kakovostjo vhodnih podatkov, ali katere koli druge ustrezne informacije v zvezi z uporabljenimi nabori učnih in testnih podatkov ter podatkov za potrditev, ob upoštevanju predvidenega namena umetnointeligenčnega sistema;

Sprememba 310

Predlog uredbe

Člen 13 – odstavek 3 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

pričakovano življenjsko dobo umetnointeligenčnega sistema velikega tveganja ter vse potrebne vzdrževalne in negovalne ukrepe za zagotovitev pravilnega delovanja tega umetnointeligenčnega sistema, tudi v zvezi s posodobitvami programske opreme.

(e)

vse potrebne vzdrževalne in negovalne ukrepe za zagotovitev pravilnega delovanja tega umetnointeligenčnega sistema, tudi v zvezi s posodobitvami programske opreme , skozi pričakovano življenjsko dobo .

Sprememba 311

Predlog uredbe

Člen 13 – odstavek 3 – točka e a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ea)

opis mehanizmov v umetnointeligenčnem sistemu, na podlagi katerega lahko uporabniki pravilno zbirajo, hranijo in razlagajo dnevnike v skladu s členom 12(1).

Sprememba 312

Predlog uredbe

Člen 13 – odstavek 3 – točka e b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(eb)

Informacije se zagotovijo vsaj v jeziku države, v kateri se umetnointeligenčni sistem uporablja.

Sprememba 313

Predlog uredbe

Člen 13 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Za namene izpolnjevanja obveznosti iz tega člena ponudniki in uporabniki poskrbijo za zadostno raven pismenosti na področju umetne inteligence v skladu s členom 4b.

Sprememba 314

Predlog uredbe

Člen 14 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti tako, da jih lahko fizične osebe v  obdobju uporabe umetnointeligenčnega sistema učinkovito nadzorujejo , vključno z ustreznimi orodji za vmesnik med človekom in strojem .

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti tako, tudi z uporabo ustreznih orodij za vmesnik človek-stroj, da jih fizične osebe učinkovito nadzorujejo sorazmerno s tveganji, povezani s temi sistemi. Fizične osebe , pristojne za izvajanje človekovega nadzora, imajo zadostno raven pismenosti na področju umetne inteligence skladu s členom 4b ter potrebno podporo in pooblastila , da lahko izvajajo to funkcijo v obdobju uporabe umetnointeligenčnega sistema in odredijo temeljito preiskavo v primeru incidenta .

Sprememba 315

Predlog uredbe

Člen 14 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Namen človekovega nadzora je preprečiti ali čim bolj zmanjšati tveganja za zdravje, varnost ali temeljne pravice, ki se lahko pojavijo pri uporabi umetnointeligenčnega sistema velikega tveganja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, zlasti če taka tveganja niso odpravljena kljub uporabi drugih zahtev iz tega poglavja.

2.   Namen človekovega nadzora je preprečiti ali čim bolj zmanjšati tveganja za zdravje, varnost, temeljne pravice ali okolje , ki se lahko pojavijo pri uporabi umetnointeligenčnega sistema velikega tveganja v skladu s predvidenim namenom ali v razmerah razumno predvidljive napačne uporabe, zlasti če taka tveganja niso odpravljena kljub uporabi drugih zahtev iz tega poglavja in kadar odločitve, ki temeljijo izključno na avtomatizirani obdelavi umetnointeligenčnih sistemov, povzročijo pravne ali kako drugače pomembne učinke na osebe ali skupine oseb, za katere naj bi se sistem uporabljal .

Sprememba 316

Predlog uredbe

Člen 14 – odstavek 3 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

3.    Človekov nadzor se zagotovi z enim ali vsemi naslednjimi ukrepi :

3.    Človek pri nadzoru upošteva specifična tveganja, stopnjo avtomatizacije in kontekst umetnointeligenčnega sistema, izvaja pa ga z enim ali vsemi naslednjimi vrstami ukrepov :

Sprememba 317

Predlog uredbe

Člen 14 – odstavek 4 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

4.    Ukrepi iz odstavka  3 posameznikom , ki jim je dodeljen človekov nadzor, omogočajo, da glede na okoliščine storijo naslednje :

4.    Za namene izvajanja odstavkov 1 do 3 se umetnointeligenčni sistem velikega tveganja uporabniku zagotovi tako , da lahko fizične osebe, zadolžene za človekov nadzor, kot je ustrezno in sorazmerno z okoliščinami :

Sprememba 318

Predlog uredbe

Člen 14 – odstavek 4 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

v celoti razumejo zmogljivosti in omejitve umetnointeligenčnega sistema velikega tveganja ter so sposobni ustrezno spremljati njegovo delovanje, da se lahko čim prej odkrijejo in odpravijo znaki nepravilnosti, motenj in nepričakovanega delovanja;

(a)

poznajo in dovolj dobro razumejo ustrezne zmogljivosti in omejitve umetnointeligenčnega sistema velikega tveganja ter lahko ustrezno spremljajo njegovo delovanje, da se lahko čim prej odkrijejo in odpravijo znaki nepravilnosti, motenj in nepričakovanega delovanja;

Sprememba 319

Predlog uredbe

Člen 14 – odstavek 4 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

so sposobni poseči v delovanje umetnointeligenčnega sistema velikega tveganja ali ga prekiniti s tipko „stop“ ali podobnim postopkom.

(e)

posežejo v delovanje umetnointeligenčnega sistema velikega tveganja ali ga prekinejo s tipko „stop“ ali podobnim postopkom , ki omogoča, da se sistem varno ustavi, razen če človekov poseg poveča tveganja ali bi negativno vplival na zmogljivost, pri čemer se upošteva splošno priznana najsodobnejša tehnologija .

Sprememba 320

Predlog uredbe

Člen 14 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Za umetnointeligenčne sisteme velikega tveganja iz točke 1(a) Priloge III so ukrepi iz odstavka 3 taki, da zagotavljajo, da uporabnik poleg tega ne izvede nobenega dejanja ali ne sprejme nobenega ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, razen če to preverita in potrdita vsaj dve fizični osebi.

5.   Za umetnointeligenčne sisteme velikega tveganja iz točke 1(a) Priloge III so ukrepi iz odstavka 3 taki, da zagotavljajo, da uporabnik poleg tega ne izvede nobenega dejanja ali ne sprejme nobenega ukrepa ali odločitve na podlagi identifikacije, ki izhaja iz sistema, razen če to preverita in potrdita vsaj dve fizični osebi z ustreznimi kompetencami, usposobljenostjo in pooblastili .

Sprememba 321

Predlog uredbe

Člen 15 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti tako, da glede na predvideni namen dosegajo ustrezno raven točnosti, robustnosti in kibernetske varnosti ter v teh vidikih delujejo dosledno v svojem celotnem življenjskem ciklu.

1.   Umetnointeligenčni sistemi velikega tveganja so zasnovani in razviti v skladu z načelom vgrajene in privzete varnosti. Glede na predvideni namen bi morali doseči ustrezno raven točnosti, robustnosti , varnosti in kibernetske varnosti ter v teh vidikih dosledno delovati v svojem celotnem življenjskem ciklu. Izpolnjevanje teh zahtev mora biti povezano z izvajanjem najsodobnejših ukrepov, odvisno od posameznega segmenta trga ali področja uporabe.

Sprememba 322

Predlog uredbe

Člen 15 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Urad za umetno inteligenco za obravnavo tehničnih vidikov merjenja ustreznih ravni točnosti in robustnosti iz odstavka 1 tega člena združuje nacionalne in mednarodne meroslovne organe in organe za primerjalno analizo ter v skladu s členom 56, odstavek 2, točka (a), izdaja ustrezne nezavezujoče smernice.

Sprememba 323

Predlog uredbe

Člen 15 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1b.     V obravnavo morebitnih problemov, ki se na notranjem trgu pojavijo v zvezi s kibernetsko varnostjo, se poleg Agencije Evropske unije za kibernetsko varnost (ENISA) v skladu s členom 56, odstavek 2, odstavek (b), vključi tudi Evropski odbor za umetno inteligenco.

Sprememba 324

Predlog uredbe

Člen 15 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Ravni točnosti in ustrezna merila točnosti umetnointeligenčnih sistemov velikega tveganja se navedejo v priloženih navodilih za uporabo.

2.   Ravni točnosti in ustrezna merila točnosti umetnointeligenčnih sistemov velikega tveganja se navedejo v priloženih navodilih za uporabo. Jezik, uporabljen v njih, mora biti jasen, ne sme privesti do nesporazumov ali vsebovati zavajajočih trditev.

Sprememba 325

Predlog uredbe

Člen 15 – odstavek 3 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Umetnointeligenčni sistemi velikega tveganja so odporni na napake, okvare ali neskladnosti, ki se lahko pojavijo v sistemu ali okolju, v katerem sistem deluje, zlasti zaradi njihove interakcije s fizičnimi osebami ali drugimi sistemi.

Sprejmejo se tehnični in organizacijski ukrepi za zagotovitev, da so umetnointeligenčni sistemi velikega tveganja kar najbolj odporni na napake, okvare ali neskladnosti, ki se lahko pojavijo v sistemu ali okolju, v katerem sistem deluje, zlasti zaradi njihove interakcije s fizičnimi osebami ali drugimi sistemi.

Sprememba 326

Predlog uredbe

Člen 15 – odstavek 3 – pododstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

Robustnost umetnointeligenčnih sistemov velikega tveganja se lahko doseže s tehničnimi redundantnimi rešitvami, ki lahko vključujejo rezervne načrte ali načrte varne odpovedi.

Ustrezni ponudnik lahko – po potrebi s prispevkom uporabnika – doseže robustnost umetnointeligenčnih sistemov velikega tveganja s tehničnimi redundantnimi rešitvami, ki lahko vključujejo rezervne načrte ali načrte varne odpovedi.

Sprememba 327

Predlog uredbe

Člen 15 – odstavek 3 – pododstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

Umetnointeligenčne sisteme velikega tveganja, ki se po dajanju na trg ali v uporabo še naprej učijo, je treba razviti tako, da se morebitni pristranski izhodni podatki zaradi izhodnih podatkov , ki se uporabljajo kot vhodni podatki za prihodnje operacije („povratne zanke“), ustrezno obravnavajo s primernimi blažilnimi ukrepi.

Umetnointeligenčne sisteme velikega tveganja, ki se po dajanju na trg ali v uporabo še naprej učijo, je treba razviti tako, da se morebitni pristranski izhodni podatki, ki vplivajo na vhodne podatke za prihodnje operacije („povratne zanke“) , in zlonamerna manipulacija vhodnih podatkov, ki se uporabljajo pri učenju med operacijo , ustrezno obravnavajo s primernimi blažilnimi ukrepi.

Sprememba 328

Predlog uredbe

Člen 15 – odstavek 4 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Umetnointeligenčni sistemi velikega tveganja morajo biti odporni na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njihovo uporabo ali zmogljivost.

Umetnointeligenčni sistemi velikega tveganja morajo biti odporni na poskuse nepooblaščenih tretjih oseb, da z izkoriščanjem šibkih točk sistema spremenijo njihovo uporabo , vedenje, izhodne podatke ali zmogljivost.

Sprememba 329

Predlog uredbe

Člen 15 – odstavek 4 – pododstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

Tehnične rešitve za odpravljanje šibkih točk, značilnih za umetno inteligenco, po potrebi vključujejo ukrepe za preprečevanje in nadzor napadov, ki poskušajo manipulirati z naborom učnih podatkov („zastrupitev podatkov“), vhodne podatke, katerih namen je povzročiti napako modela („nasprotovalni primer“), ali pomanjkljivosti modela.

Tehnične rešitve za odpravljanje šibkih točk, značilnih za umetno inteligenco, po potrebi vključujejo ukrepe za preprečevanje , odkrivanje, odzivanje, reševanje in nadzor napadov, ki poskušajo manipulirati z naborom učnih podatkov („zastrupitev podatkov“) ali prednaučenimi komponentami, uporabljenimi pri učenju („zastrupitev modelov“) , vhodne podatke, katerih namen je povzročiti napako modela („nasprotovalni primer“ ali „izmikanje modelu“ ), napade na zaupnost ali pomanjkljivosti modela , ki utegnejo privesti do škodljivega odločanja .

Sprememba 330

Predlog uredbe

Naslov III – poglavje 3 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

OBVEZNOSTI PONUDNIKOV IN UPORABNIKOV UMETNOINTELIGENČNIH SISTEMOV VELIKEGA TVEGANJA in drugih strank

OBVEZNOSTI PONUDNIKOV IN UVAJALCEV UMETNOINTELIGENČNIH SISTEMOV VELIKEGA TVEGANJA IN DRUGIH STRANK

Sprememba 331

Predlog uredbe

Člen 16 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Obveznosti ponudnikov umetnointeligenčnih sistemov velikega tveganja

Obveznosti ponudnikov in uvajalcev umetnointeligenčnih sistemov velikega tveganja in drugih strank

Sprememba 332

Predlog uredbe

Člen 16 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

zagotovijo, da so njihovi umetnointeligenčni sistemi velikega tveganja skladni z zahtevami iz poglavja 2 tega naslova;

(a)

zagotovijo, da so njihovi umetnointeligenčni sistemi velikega tveganja skladni z zahtevami iz poglavja 2 tega naslova , preden jih dajo na trg ali v uporabo ;

Sprememba 333

Predlog uredbe

Člen 16 – odstavek 1 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

na umetnointeligenčnem sistemu velikega tveganja ali, kadar to ni mogoče, v spremni dokumentaciji, kot je ustrezno, navedejo svoje ime, registrirano trgovsko ime ali registrirano blagovno znamko ter naslov in kontaktne podatke;

Sprememba 334

Predlog uredbe

Člen 16 – odstavek 1 – točka a b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ab)

poskrbijo, da so fizične osebe, zadolžene za to, da izvajajo človekov nadzor nad umetnointeligenčnimi sistemi velikega tveganja, izrecno opozorjene na tveganje pristranskosti zaradi avtomatizacije in potrditvene pristranskosti;

Sprememba 335

Predlog uredbe

Člen 16 – odstavek 1 – točka a c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ac)

zagotovijo specifikacije za vhodne podatke ali druge ustrezne informacije v zvezi z uporabljenimi nabori podatkov, vključno z njihovimi omejitvami in predpostavkami, pri tem pa upoštevajo predvideni namen ter predvidljivo in razumno predvidljivo napačno uporabo umetnointeligenčnega sistema;

Sprememba 336

Predlog uredbe

Člen 16 – odstavek 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

pripravijo tehnično dokumentacijo umetnointeligenčnega sistema velikega tveganja;

(c)

pripravijo in hranijo tehnično dokumentacijo umetnointeligenčnega sistema velikega tveganja iz člena 11 ;

Sprememba 337

Predlog uredbe

Člen 16 – odstavek 1 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

kadar je to pod njihovim nadzorom, hranijo dnevnike, ki jih samodejno ustvarijo njihovi umetnointeligenčni sistemi velikega tveganja;

(d)

kadar je to pod njihovim nadzorom, v skladu s členom 20 hranijo dnevnike, ki jih samodejno ustvarijo njihovi umetnointeligenčni sistemi velikega tveganja in ki so potrebni za zagotavljanje in dokazovanje skladnosti s to uredbo ;

Sprememba 338

Predlog uredbe

Člen 16 – odstavek 1 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

zagotovijo, da umetnointeligenčni sistem velikega tveganja pred dajanjem na trg ali v uporabo opravi ustrezen postopek ugotavljanja skladnosti;

(e)

zagotovijo, da umetnointeligenčni sistem velikega tveganja pred dajanjem na trg ali v uporabo opravi ustrezen postopek ugotavljanja skladnosti v skladu s členom 43 ;

Sprememba 339

Predlog uredbe

Člen 16 – odstavek 1 – točka e a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ea)

pripravijo izjavo EU o skladnosti v skladu s členom 48;

Sprememba 340

Predlog uredbe

Člen 16 – odstavek 1 – točka e b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(eb)

na svoje umetnointeligenčne sisteme velikega tveganja namestijo oznako CE v skladu s členom 49, da izkažejo skladnost s to uredbo;

Sprememba 341

Predlog uredbe

Člen 16 – odstavek 1 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

sprejmejo potrebne popravne ukrepe , če umetnointeligenčni sistem velikega tveganja ni skladen z zahtevami iz poglavja 2 tega naslova ;

(g)

sprejmejo potrebne popravne ukrepe iz člena 21 in zagotovijo informacije v zvezi s tem ;

Sprememba 342

Predlog uredbe

Člen 16 – odstavek 1 – točka h

Besedilo, ki ga predlaga Komisija

Sprememba

(h)

obvestijo pristojne nacionalne organe držav članic, v katerih so dali umetnointeligenčni sistem na voljo ali v uporabo, ter, kadar je to primerno, obvestijo priglašeni organ o neskladnosti in sprejetih popravnih ukrepih;

črtano

Sprememba 343

Predlog uredbe

Člen 16 – odstavek 1 – točka i

Besedilo, ki ga predlaga Komisija

Sprememba

(i)

namestijo oznako CE na svoje umetnointeligenčne sisteme velikega tveganja, da v skladu s členom 49 označijo skladnost s to uredbo;

črtano

Sprememba 344

Predlog uredbe

Člen 16 – odstavek 1 – točka j

Besedilo, ki ga predlaga Komisija

Sprememba

(j)

na zahtevo pristojnega nacionalnega organa dokažejo skladnost umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova.

(j)

na obrazloženo zahtevo pristojnega nacionalnega nadzornega organa dokažejo skladnost umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova.

Sprememba 345

Predlog uredbe

Člen 16 – odstavek 1 – točka j a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ja)

poskrbijo, da umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve glede dostopnosti.

Sprememba 346

Predlog uredbe

Člen 17 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ponudniki umetnointeligenčnih sistemov velikega tveganja vzpostavijo sistem upravljanja kakovosti, ki zagotavlja skladnost s to uredbo. Ta sistem se sistematično in urejeno dokumentira v obliki pisnih politik, postopkov in navodil ter vključuje vsaj naslednje vidike:

1.   Ponudniki umetnointeligenčnih sistemov velikega tveganja imajo vzpostavljen sistem upravljanja kakovosti, ki zagotavlja skladnost s to uredbo. Sistematično in urejeno se dokumentira v obliki pisnih politik, postopkov ali navodil ter se lahko vključi v obstoječi sistem upravljanja kakovosti v sklopu sektorskih zakonodajnih aktov Unije. Vključuje vsaj naslednje vidike:

Sprememba 347

Predlog uredbe

Člen 17 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

strategijo za skladnost z zakonodajo, tudi skladnost s postopki za ugotavljanje skladnosti in postopki za upravljanje sprememb umetnointeligenčnega sistema velikega tveganja;

črtano

Sprememba 348

Predlog uredbe

Člen 17 – odstavek 1 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

tehnične specifikacije, vključno s standardi, ki jih je treba uporabiti, in, kadar se ustrezni harmonizirani standardi ne uporabljajo v celoti, sredstva, ki se uporabljajo za zagotovitev, da je umetnointeligenčni sistem velikega tveganja skladen z zahtevami iz poglavja 2 tega naslova;

(e)

tehnične specifikacije, vključno s standardi, ki jih je treba uporabiti, in, kadar se ustrezni harmonizirani standardi ne uporabljajo v celoti oziroma ne zajemajo vseh ustreznih zahtev , sredstva, ki se uporabljajo za zagotovitev, da je umetnointeligenčni sistem velikega tveganja skladen z zahtevami iz poglavja 2 tega naslova;

Sprememba 349

Predlog uredbe

Člen 17 – odstavek 1 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

sisteme in postopke za upravljanje podatkov, vključno z zbiranjem podatkov , analizo podatkov , označevanjem podatkov , shranjevanjem podatkov, filtriranjem podatkov, podatkovnim rudarjenjem, združevanjem podatkov, hrambo podatkov ter vsemi drugimi postopki v zvezi s podatki, ki se izvajajo pred dajanjem na trg ali v uporabo in za namene dajanja na trg ali v uporabo umetnointeligenčnih sistemov velikega tveganja ;

(f)

sisteme in postopke za upravljanje podatkov, vključno s pridobivanjem, zbiranjem, analizo, označevanjem, shranjevanjem in filtriranjem podatkov, podatkovnim rudarjenjem, združevanjem in hrambo podatkov ter vsemi drugimi postopki v zvezi s podatki, ki se izvajajo pred dajanjem umetnointeligenčnih sistemov velikega tveganja na trg ali v uporabo in za namene njihovega dajanja na trg ali v uporabo;

Sprememba 350

Predlog uredbe

Člen 17 – odstavek 1 – točka j

Besedilo, ki ga predlaga Komisija

Sprememba

(j)

vodenje komunikacije s pristojnimi nacionalnimi organi, pristojnimi organi, vključno s sektorskimi , ki zagotavljajo ali podpirajo dostop do podatkov, priglašenimi organi, drugimi operaterji, strankami ali drugimi zainteresiranimi stranmi ;

(j)

vodenje komunikacije z zadevnimi pristojnimi organi, vključno s sektorskimi;

Sprememba 351

Predlog uredbe

Člen 17 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Izvajanje vidikov iz odstavka 1 je sorazmerno z velikostjo organizacije ponudnika.

2.   Izvajanje vidikov iz odstavka 1 je sorazmerno z velikostjo organizacije ponudnika. V vsakem primeru pa ponudniki spoštujejo stopnjo strogosti in zaščite, ki se zahtevata za skladnost njihovih umetnointeligenčnih sistemov s to uredbo.

Sprememba 352

Predlog uredbe

Člen 18 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Obveznost priprave tehnične dokumentacije

črtano

Sprememba 353

Predlog uredbe

Člen 18 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.     Ponudniki umetnointeligenčnih sistemov velikega tveganja pripravijo tehnično dokumentacijo iz člena 11 v skladu s Prilogo IV.

črtano

Sprememba 354

Predlog uredbe

Člen 18 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.     Ponudniki, ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, hranijo tehnično dokumentacijo kot del dokumentacije o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

črtano

Sprememba 355

Predlog uredbe

Člen 19

Besedilo, ki ga predlaga Komisija

Sprememba

Člen 19

črtano

Ugotavljanje skladnosti

 

1.     Ponudniki umetnointeligenčnih sistemov velikega tveganja zagotovijo, da njihovi sistemi pred dajanjem na trg ali v uporabo opravijo ustrezen postopek ugotavljanja skladnosti v skladu s členom 43. Kadar je bila po navedenem ugotavljanju skladnosti dokazana skladnost umetnointeligenčnih sistemov z zahtevami iz poglavja 2 tega naslova, ponudniki pripravijo izjavo EU o skladnosti v skladu s členom 48 in namestijo oznako skladnosti v skladu s členom 49.

 

2.     Za umetnointeligenčne sisteme velikega tveganja iz točke 5(b) Priloge III, ki jih dajejo na trg ali v uporabo ponudniki, ki so kreditne institucije, urejene z Direktivo 2013/36/EU, se ugotavljanje skladnosti izvede kot del postopka iz členov 97 do 101 navedene direktive.

 

Sprememba 356

Predlog uredbe

Člen 20 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ponudniki umetnointeligenčnih sistemov velikega tveganja vodijo dnevnike, ki jih samodejno ustvarijo njihovi umetnointeligenčni sistemi velikega tveganja, če so ti dnevniki pod njihovim nadzorom na podlagi pogodbenega dogovora z uporabnikom ali drugače po zakonu. Dnevniki se hranijo za obdobje , ki je primerno glede na predvideni namen umetnointeligenčnega sistema velikega tveganja in veljavne pravne obveznosti v skladu s pravom Unije ali nacionalnim pravom .

1.   Ponudniki umetnointeligenčnih sistemov velikega tveganja vodijo dnevnike, ki jih samodejno ustvarijo njihovi umetnointeligenčni sistemi velikega tveganja, če so ti dnevniki pod njihovim nadzorom . Brez poseganja v veljavno pravo Unije ali nacionalno pravo se dnevniki hranijo vsaj šest mesecev. Obdobje hrambe je v skladu s panožnimi standardi in je primerno glede na predvideni namen umetnointeligenčnega sistema velikega tveganja.

Sprememba 357

Predlog uredbe

Člen 21 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Ponudniki umetnointeligenčnih sistemov velikega tveganja, ki menijo ali utemeljeno domnevajo, da umetnointeligenčni sistem velikega tveganja, ki so ga dali na trg ali v uporabo, ni v skladu s to uredbo, nemudoma sprejmejo potrebne popravne ukrepe, da zagotovijo skladnost sistema ali pa ga po potrebi umaknejo ali prekličejo. O tem ustrezno obvestijo distributerje zadevnega umetnointeligenčnega sistema velikega tveganja ter po potrebi pooblaščenega zastopnika in uvoznike.

Ponudniki umetnointeligenčnih sistemov velikega tveganja, ki menijo ali utemeljeno domnevajo, da umetnointeligenčni sistem velikega tveganja, ki so ga dali na trg ali v uporabo, ni v skladu s to uredbo, nemudoma sprejmejo potrebne popravne ukrepe, da zagotovijo skladnost sistema ali pa ga po potrebi umaknejo , onemogočijo ali prekličejo.

 

V primerih iz prvega odstavka ponudniki nemudoma obvestijo:

 

(a)

distributerje;

 

(b)

uvoznike;

 

(c)

pristojne nacionalne organe držav članic, v katerih so dali svoj umetnointeligenčni sistem na voljo ali v uporabo; ter

 

(d)

uvajalce, kadar je to mogoče.

Sprememba 358

Predlog uredbe

Člen 21 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Ponudniki poleg tega obvestijo pooblaščenega zastopnika, kadar je bil v skladu s členom 25 imenovan, in priglašeni organ, ali je bilo treba za umetnointeligenčni sistem velikega tveganja opraviti ugotavljanje skladnosti s strani tretje osebe v skladu s členom 43. V sodelovanju z uvajalcem po potrebi tudi raziščejo vzroke.

Sprememba 359

Predlog uredbe

Člen 22 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1) in je to tveganje ponudniku sistema znano , ta ponudnik nemudoma obvesti pristojne nacionalne organe držav članic, v katerih je dal sistem na voljo, ter, kadar je to primerno, priglašeni organ, ki je izdal potrdilo za umetnointeligenčni sistem velikega tveganja, zlasti o neskladnosti in vseh sprejetih popravnih ukrepih.

Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1) in ponudnik sistema ugotovi to tveganje , ta ponudnik nemudoma obvesti nacionalne nadzorne organe držav članic, v katerih je dal sistem na voljo, ter, kadar je to primerno, priglašeni organ, ki je izdal potrdilo za umetnointeligenčni sistem velikega tveganja, zlasti o  naravi neskladnosti in vseh ustreznih sprejetih popravnih ukrepih.

Sprememba 360

Predlog uredbe

Člen 22 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

V primerih iz prvega odstavka ponudniki umetnointeligenčnega sistema velikega tveganja nemudoma obvestijo:

 

(a)

distributerje;

 

(b)

uvoznike;

 

(c)

pristojne nacionalne organe držav članic, v katerih so dali svoj umetnointeligenčni sistem na voljo ali v uporabo; ter

 

(d)

uvajalce.

Sprememba 361

Predlog uredbe

Člen 22 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Ponudniki obvestijo tudi pooblaščenega zastopnika, če je bil v skladu s členom 25 imenovan.

Sprememba 362

Predlog uredbe

Člen 23 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Sodelovanje s pristojnimi organi

Sodelovanje s pristojnimi organi , uradom in Komisijo

Sprememba 363

Predlog uredbe

Člen 23 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Ponudniki umetnointeligenčnih sistemov velikega tveganja na zahtevo pristojnega nacionalnega organa zagotovijo temu organu vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, v uradnem jeziku Unije, ki ga določi zadevna država članica. Ponudniki na podlagi obrazložene zahteve pristojnega nacionalnega organa temu organu omogočijo tudi dostop do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod njihovim nadzorom na podlagi pogodbenega dogovora z uporabnikom ali drugače po zakonu.

Ponudniki umetnointeligenčnih sistemov velikega tveganja in, kadar je to ustrezno, njihovi uvajalci pristojnemu nacionalnemu organu ali, kadar je to ustrezno, uradu za umetno inteligenco ali Komisiji na obrazloženo zahtevo zagotovijo vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, v uradnem jeziku Unije, ki ga določi zadevna država članica.

Sprememba 364

Predlog uredbe

Člen 23 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Ponudniki ali, kadar je to ustrezno, uvajalci pristojnemu nacionalnemu organu ali, kadar je to ustrezno, Komisiji na obrazloženo zahtevo omogočijo tudi dostop do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod njihovim nadzorom.

Sprememba 365

Predlog uredbe

Člen 23 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Vse informacije, ki jih pristojni nacionalni organi ali Komisija prejmejo na podlagi določb tega člena, se štejejo za poslovne skrivnosti in se obravnavajo v skladu z obveznostmi glede zaupnosti iz člena 70.

Sprememba 366

Predlog uredbe

Člen 25 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Kadar ni mogoče ugotoviti, kdo je uvoznik, ponudniki s sedežem zunaj Unije pred dajanjem svojih sistemov na trg Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.

1.   Ponudniki s sedežem zunaj Unije pred dajanjem svojih sistemov na trg Unije s pisnim pooblastilom imenujejo pooblaščenega zastopnika s sedežem v Uniji.

Sprememba 367

Predlog uredbe

Člen 25 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Pooblaščeni zastopnik ima stalno prebivališče ali sedež v eni od držav članic, v katerih se izvajajo dejavnosti v skladu s členom 2, odstavek 1cb.

Sprememba 368

Predlog uredbe

Člen 25 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1b.     Ponudnik svojemu pooblaščenemu zastopniku zagotovi pooblastila in vire, ki jih potrebuje za izpolnjevanje svojih nalog v skladu s to uredbo.

Sprememba 369

Predlog uredbe

Člen 25 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Pooblastilo omogoča pooblaščenemu zastopniku, da opravlja naslednje naloge:

2.   Pooblaščeni zastopnik opravlja naloge, določene v pooblastilu, ki ga prejme od ponudnika. Če organi za nadzor trga to zahtevajo, jim predloži izvod pooblastila, in sicer v uradnem jeziku Unije, ki ga določi pristojni nacionalni organ. Za namen te uredbe pooblastilo pooblaščenemu zastopniku omogoča , da opravlja naslednje naloge:

Sprememba 370

Predlog uredbe

Člen 25 – odstavek 2 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

hrani izvod izjave EU o skladnosti in tehnične dokumentacije, ki je na voljo pristojnim nacionalnim organom in nacionalnim organom iz člena 63(7) ;

(a)

poskrbi, da sta izjava EU o skladnosti in tehnična dokumentacija pripravljeni in da ponudnik opravi ustrezen postopek ugotavljanja skladnosti ;

Sprememba 371

Predlog uredbe

Člen 25 – odstavek 2 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

za pristojne nacionalne organe in nacionalne organe iz člena 63(7) hrani izvod izjave EU o skladnosti, tehnično dokumentacijo in, če je ustrezno, potrdilo, ki ga je izdal priglašeni organ;

Sprememba 372

Predlog uredbe

Člen 25 – odstavek 2 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

pristojnemu nacionalnemu organu na podlagi obrazložene zahteve zagotovi vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, vključno z dostopom do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod nadzorom ponudnika na podlagi pogodbenega dogovora z uporabnikom ali drugače po zakonu ;

(b)

pristojnemu nacionalnemu organu na obrazloženo zahtevo zagotovi vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, vključno z dostopom do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod nadzorom ponudnika;

Sprememba 373

Predlog uredbe

Člen 25 – odstavek 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

na podlagi obrazložene zahteve sodeluje s pristojnimi nacionalnimi organi pri vseh ukrepih, ki jih slednji sprejmejo v zvezi z umetnointeligenčnim sistemom velikega tveganja.

(c)

na obrazloženo zahtevo sodeluje z nacionalnimi nadzornimi organi pri vseh ukrepih, ki jih organ sprejme za zmanjšanje in ublažitev tveganj, ki jih predstavlja umetnointeligenčni sistem velikega tveganja;

Sprememba 374

Predlog uredbe

Člen 25 – odstavek 2 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

kadar je to ustrezno, izpolnjuje obveznosti registracije iz člena 51 ali, če registracijo izvede ponudnik sam, zagotovi, da so informacije iz točke 3 Priloge VIII točne.

Sprememba 375

Predlog uredbe

Člen 25 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Pooblaščeni zastopnik je pooblaščen, da se zlasti nacionalni nadzorni organ ali pristojni nacionalni organi obrnejo nanj – poleg na ponudnika ali namesto nanj – glede vseh vprašanj, povezanih z zagotavljanjem skladnosti s to uredbo.

Sprememba 376

Predlog uredbe

Člen 25 – odstavek 2 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2b.     Pooblaščeni zastopnik prekliče pooblastilo, če meni ali utemeljeno domneva, da ponudnik ravna v nasprotju s svojimi obveznostmi iz te uredbe. V tem primeru o preklicu pooblastila in razlogih zanj nemudoma obvesti nacionalni nadzorni organ države članice, v kateri ima sedež, in, kadar je to ustrezno, ustrezni priglašeni organ.

Sprememba 377

Predlog uredbe

Člen 26 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Pred dajanjem umetnointeligenčnega sistema velikega tveganja na trg uvozniki tega sistema zagotovijo:

1.   Pred dajanjem umetnointeligenčnega sistema velikega tveganja na trg uvozniki tega sistema zagotovijo , da je skladen s to uredbo, tako da zagotovijo :

Sprememba 378

Predlog uredbe

Člen 26 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

da je ponudnik umetnointeligenčnega sistema velikega tveganja izvedel ustrezen postopek ugotavljanja skladnosti;

(a)

da je ponudnik tega umetnointeligenčnega sistema izvedel ustrezen postopek ugotavljanja skladnosti iz člena 43 ;

Sprememba 379

Predlog uredbe

Člen 26 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

da je ponudnik pripravil tehnično dokumentacijo v skladu s Prilogo IV;

(b)

da je ponudnik pripravil tehnično dokumentacijo v skladu s  členom 11 in Prilogo IV;

Sprememba 380

Predlog uredbe

Člen 26 – odstavek 1 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

da je ponudnik, kadar je to ustrezno, imenoval pooblaščenega zastopnika v skladu s členom 25(1).

Sprememba 381

Predlog uredbe

Člen 26 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar uvoznik meni ali utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja ni skladen s to uredbo, tega sistema ne da na trg, dokler ni zagotovljena skladnost tega umetnointeligenčnega sistema. Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1), uvoznik o tem obvesti ponudnika umetnointeligenčnega sistema in organe za nadzor trga.

2.   Kadar uvoznik meni ali utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja ni skladen s to uredbo, je ponarejen ali mu je priložena ponarejena dokumentacija, tega sistema ne da na trg, dokler ni zagotovljena skladnost tega umetnointeligenčnega sistema. Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1), uvoznik o tem obvesti ponudnika umetnointeligenčnega sistema in organe za nadzor trga.

Sprememba 382

Predlog uredbe

Člen 26 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Uvozniki navedejo svoje ime, registrirano trgovsko ime ali registrirano blagovno znamko in naslov, na katerem so dosegljivi, v umetnointeligenčnem sistemu velikega tveganja ali, kadar to ni mogoče, na embalaži ali spremni dokumentaciji, kot je ustrezno.

3.   Uvozniki na umetnointeligenčnem sistemu velikega tveganja in na embalaži ali v spremni dokumentaciji, kadar je to ustrezno, navedejo svoje ime , registrirano trgovsko ime ali registrirano blagovno znamko in naslov , na katerem so dosegljivi .

Sprememba 383

Predlog uredbe

Člen 26 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Uvozniki pristojnim nacionalnim organom na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, v jeziku, ki ga ta pristojni nacionalni organ zlahka razume , vključno z dostopom do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod nadzorom ponudnika na podlagi pogodbenega dogovora z uporabnikom ali drugače po zakonu. S temi organi sodelujejo tudi pri vseh ukrepih, ki jih pristojni nacionalni organ sprejme v zvezi s tem sistemom.

5.   Uvozniki pristojnim nacionalnim organom na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova, v jeziku, ki jih ti zlahka razumejo , vključno z dostopom do dnevnikov, ki jih samodejno ustvari umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod nadzorom ponudnika v  skladu členom 20 .

Sprememba 384

Predlog uredbe

Člen 26 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Uvozniki sodelujejo z nacionalnimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo za zmanjšanje in ublažitev tveganj, ki jih predstavlja umetnointeligenčni sistem velikega tveganja.

Sprememba 385

Predlog uredbe

Člen 27 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Preden omogočijo dostopnost umetnointeligenčnega sistema velikega tveganja na trgu, distributerji preverijo, ali je umetnointeligenčni sistem velikega tveganja opremljen z zahtevano oznako skladnosti, ali mu je priložena zahtevana dokumentacija in navodila za uporabo ter ali je ponudnik oziroma uvoznik sistema izpolnil obveznosti iz te uredbe.

1.   Preden omogočijo dostopnost umetnointeligenčnega sistema velikega tveganja na trgu, distributerji preverijo, ali je umetnointeligenčni sistem velikega tveganja opremljen z zahtevano oznako skladnosti, ali mu je priložena zahtevana dokumentacija in navodila za uporabo ter ali je ponudnik oziroma uvoznik sistema izpolnil svoje obveznosti iz te uredbe iz člena 16 in člena 26 .

Sprememba 386

Predlog uredbe

Člen 27 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar distributer meni ali utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja ni skladen z zahtevami iz poglavja 2 tega naslova, za umetnointeligenčni sistem velikega tveganja ne omogoči dostopnosti na trgu, dokler ni zagotovljena skladnost tega sistema z navedenimi zahtevami. Kadar sistem predstavlja tveganje v smislu člena 65(1), distributer o tem obvesti ponudnika oziroma uvoznika sistema.

2.   Kadar distributer meni ali na podlagi informacij, ki jih ima, utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja ni skladen z zahtevami iz poglavja 2 tega naslova, za umetnointeligenčni sistem velikega tveganja ne omogoči dostopnosti na trgu, dokler ni zagotovljena skladnost tega sistema z navedenimi zahtevami. Kadar sistem predstavlja tveganje v smislu člena 65(1), distributer o tem obvesti ponudnika oziroma uvoznika sistema , ustrezen pristojni nacionalni organ, kot je ustrezno .

Sprememba 387

Predlog uredbe

Člen 27 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Distributer, ki meni ali utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja, za katerega je omogočil dostopnost na trgu, ni skladen z zahtevami iz poglavja 2 tega naslova, sprejme popravne ukrepe, potrebne za uskladitev tega sistema z navedenimi zahtevami, ga umakne ali prekliče ali zagotovi, da te popravne ukrepe sprejme ponudnik, uvoznik ali kateri koli zadevni operater, kakor je ustrezno. Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1), distributer o tem nemudoma obvesti pristojne nacionalne organe držav članic, v katerih je dal proizvod na voljo, ter navede podrobnosti, zlasti o neskladnosti in vseh sprejetih popravnih ukrepih.

4.   Distributer, ki na podlagi informacij, ki jih ima, meni ali utemeljeno domneva, da umetnointeligenčni sistem velikega tveganja, za katerega je omogočil dostopnost na trgu, ni skladen z zahtevami iz poglavja 2 tega naslova, sprejme popravne ukrepe, potrebne za uskladitev tega sistema z navedenimi zahtevami, ga umakne ali prekliče ali zagotovi, da te popravne ukrepe sprejme ponudnik, uvoznik ali kateri koli zadevni operater, kakor je ustrezno. Kadar umetnointeligenčni sistem velikega tveganja predstavlja tveganje v smislu člena 65(1), distributer o tem nemudoma obvesti ponudnika ali uvoznika sistema in pristojne nacionalne organe držav članic, v katerih je dal proizvod na voljo, ter navede podrobnosti, zlasti o neskladnosti in vseh sprejetih popravnih ukrepih.

Sprememba 388

Predlog uredbe

Člen 27 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Distributerji umetnointeligenčnih sistemov velikega tveganja pristojnemu nacionalnemu organu na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova . Distributerji s tem pristojnim nacionalnim organom sodelujejo tudi pri vseh ukrepih, ki jih sprejme ta organ.

5.   Distributerji umetnointeligenčnega sistema velikega tveganja pristojnemu nacionalnemu organu na podlagi obrazložene zahteve zagotovijo vse informacije in dokumentacijo, ki jih imajo, potrebne za dokazovanje skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova , v skladu z obveznostmi distributerjev, kot je opisano v odstavku 1 .

Sprememba 389

Predlog uredbe

Člen 27 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Distributerji sodelujejo z nacionalnimi pristojnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo za zmanjšanje in ublažitev tveganj, ki jih predstavlja umetnointeligenčni sistem velikega tveganja.

Sprememba 390

Predlog uredbe

Člen 28 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Obveznosti distributerjev, uvoznikov, uporabnikov ali katere koli druge tretje osebe

Odgovornosti ponudnikov, distributerjev, uvoznikov, uvajalcev ali drugih tretjih oseb v vrednostni verigi umetne inteligence

Sprememba 391

Predlog uredbe

Člen 28 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Vsak distributer, uvoznik, uporabnik ali druga tretja oseba se za namene te uredbe šteje za ponudnika in zanj veljajo obveznosti ponudnika iz člena 16 v kateri koli od naslednjih okoliščin:

1.   Vsak distributer, uvoznik, uvajalec ali druga tretja oseba se za namene te uredbe šteje za ponudnika in zanj veljajo obveznosti ponudnika umetnointeligenčnega sistema velikega tveganja iz člena 16 v kateri koli od naslednjih okoliščin:

Sprememba 392

Predlog uredbe

Člen 28 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistem velikega tveganja dajo na trg ali v uporabo pod svojim imenom ali blagovno znamko ;

(a)

svoje ime ali blagovno znamko dajo umetnointeligenčnemu sistemu velikega tveganja, ki je že dan na trg ali v uporabo ;

Sprememba 393

Predlog uredbe

Člen 28 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

spremenijo predvideni namen umetnointeligenčnega sistema velikega tveganja, ki je že dan na trg ali v uporabo;

(b)

bistveno spremenijo umetnointeligenčni sistem velikega tveganja, ki je že bil dan na trg ali v uporabo , tako da ostane umetnointeligenčni sistem velikega tveganja v skladu s členom 6 ;

Sprememba 394

Predlog uredbe

Člen 28 – odstavek 1 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

bistveno spremenijo umetnointeligenčni sistem, tudi umetnointeligenčni sistem za splošno rabo, ki ni bil razvrščen kot sistem velikega tveganja in je že bil dan na trg ali v uporabo ali je dan v uporabo na način, da postane umetnointeligenčni sistem velikega tveganja v skladu s členom 6;

Sprememba 395

Predlog uredbe

Člen 28 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar nastopijo okoliščine iz točke ( b ) ali  ( c ) odstavka 1 , se ponudnik, ki je prvotno dal umetnointeligenčni sistem velikega tveganja na trg ali v uporabo, za namene te uredbe ne šteje več za ponudnika.

2.   Kadar nastopijo okoliščine iz odstavka 1, točke ( a ) do  ( ba ), se ponudnik, ki je prvotno dal umetnointeligenčni sistem na trg ali v uporabo, za namene te uredbe ne šteje več za ponudnika tega posameznega umetnointeligenčnega sistema . Ta nekdanji ponudnik novemu ponudniku priskrbi tehnično dokumentacijo in vse druge ustrezne in razumno pričakovane informacijske zmogljivosti umetnointeligenčnega sistema, tehnični dostop ali drugo pomoč na podlagi splošno priznanega najsodobnejšega tehnološkega razvoja, ki so potrebni za izpolnjevanje obveznosti iz te uredbe.

 

Ta odstavek se uporablja tudi za ponudnike temeljnih modelov, kot so opredeljeni v členu 3, kadar je temeljni model neposredno integriran v umetnointeligenčni sistem velikega tveganja.

Sprememba 396

Predlog uredbe

Člen 28 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Ponudnik umetnointeligenčnega sistema velikega tveganja in tretja oseba, ki dobavlja orodja, storitve, komponente ali procese, ki se uporabljajo ali integrirajo v umetnointeligenčni sistem velikega tveganja, s pisnim dogovorom določita informacije, zmogljivosti, tehnični dostop in/ali drugo pomoč na podlagi splošno priznanega najnovejšega tehnološkega razvoja, ki jo mora priskrbeti tretja oseba, da se ponudniku umetnointeligenčnega sistema velikega tveganja omogoči, da v celoti izpolnjuje obveznosti iz te uredbe.

 

Komisija pripravi in priporoči nezavezujoče vzorčne pogodbene pogoje med ponudniki umetnointeligenčnih sistemov velikega tveganja in tretjimi osebami, ki dobavljajo orodja, storitve, komponente ali procese, ki se uporabljajo ali integrirajo v umetnointeligenčne sisteme velikega tveganja, da bi obema stranema pomagala pri pripravi in pogajanjih o pogodbah z uravnoteženimi pogodbenimi pravicami in obveznostmi, skladnimi z ravnjo nadzora vsake strani. Komisija pri oblikovanju nezavezujočih vzorčnih pogodbenih pogojev upošteva morebitne pogodbene zahteve, ki se uporabljajo v posameznih sektorjih ali poslovnih primerih. Nezavezujoči pogodbeni pogoji se objavijo in so brezplačno na voljo v lahko uporabni elektronski obliki na spletišču urada za umetno inteligenco.

Sprememba 397

Predlog uredbe

Člen 28 – odstavek 2 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2b.     Za namene tega člena se poslovne skrivnosti varujejo in se razkrijejo le, če so vnaprej sprejeti vsi potrebni posebni ukrepi v skladu z Direktivo (EU) 2016/943 za ohranitev njihove zaupnosti, zlasti v zvezi s tretjimi osebami. Po potrebi se je mogoče dogovoriti o ustreznih tehničnih in organizacijskih ureditvah za zaščito pravic intelektualne lastnine ali poslovnih skrivnosti.

Sprememba 398

Predlog uredbe

Člen 28 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 28a

 

Nepošteni pogodbeni pogoji, ki se enostransko nalagajo malim in srednjim podjetjem ali zagonskim podjetjem

 

1.     Pogodbeni pogoj v zvezi z dobavo orodij, storitev, komponent ali procesov, ki se uporabljajo ali so integrirani v umetnointeligenčni sistem velikega tveganja, ali pravnimi sredstvi za kršitev ali prenehanje povezanih obveznosti, ki jih je podjetje enostransko naložilo MSP ali zagonskemu podjetju, za slednjega ni zavezujoč, če je nepošten.

 

2.     Pogodbeni pogoj se ne šteje za nepoštenega, če izhaja iz veljavnega prava Unije.

 

3.     Pogodbeni pogoj je nepošten, če je tak, da objektivno omejuje zmožnost stranke, ki ji je bil enostransko naložen, da zaščiti svoj legitimni poslovni interes v zvezi z zadevno informacijo ali da njegova uporaba močno odstopa od dobre poslovne prakse pri dobavi orodij, storitev, komponent ali procesov, ki se uporabljajo ali so integrirani v umetnointeligenčni sistem velikega tveganja, v nasprotju z dobro vero in poštenim ravnanjem ali če ustvarja znatno neravnovesje med pravicami in obveznostmi pogodbenih strank. Pogodbeni pogoj je nepošten tudi, če povzroči prenos kazni iz člena 71 ali povezanih stroškov pravdnega postopka med pogodbenimi strankami, kot je navedeno v členu 71(8).

 

4.     Pogodbeni pogoj se za namene tega člena šteje za nepoštenega, če je njegov cilj ali posledica:

 

(a)

izključitev ali omejitev odgovornosti stranke, ki je enostransko naložila pogoj, v primeru naklepnih ravnanj ali hude malomarnosti;

 

(b)

izključitev pravnih sredstev, ki so na voljo stranki, ki ji je bil pogoj enostransko naložen, v primeru neizpolnjevanja pogodbenih obveznosti, ali odgovornosti stranke, ki je enostransko naložila pogoj, v primeru kršitve teh obveznosti;

 

(c)

izključna pravica stranke, ki je enostransko naložila pogoj, da določi, ali so tehnična dokumentacija, posredovane informacije v skladu s pogodbo, ali da razlaga kateri koli pogodbeni pogoj.

 

5.     Šteje se, da je pogodbeni pogoj enostransko naložen v smislu tega člena, če ga je določila ena pogodbena stranka, druga pogodbena stranka pa ni mogla vplivati na njegovo vsebino, čeprav se je skušala pogajati o njem. Pogodbena stranka, ki je določila pogodbeni pogoj, nosi dokazno breme, da ta pogoj ni bil enostransko naložen.

 

6.     Če je nepošteni pogodbeni pogoj mogoče ločiti od preostalih pogodbenih pogojev, ostanejo preostali pogoji zavezujoči. Stranka, ki je predložila sporni pogoj, ne trdi, da je pogoj nepošten.

 

7.     Ta člen se uporablja za vse nove pogodbe, ki začnejo veljati po … [datum začetka veljavnosti te uredbe]. Podjetja pregledajo obstoječe pogodbene obveznosti, za katere velja ta uredba, do … [tri leta po datumu začetka veljavnosti te uredbe].

 

8.     Glede na hitrost inovacij na trgih Komisija redno pregleduje seznam nepoštenih pogodbenih pogojev iz člena 28a in ga po potrebi posodablja novim poslovnim praksam.

Sprememba 399

Predlog uredbe

Člen 28 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 28b

 

Obveznosti ponudnika temeljnega modela

 

1.     Ponudnik temeljnega modela, preden omogoči njegovo dostopnost na trgu ali v uporabo, poskrbi, da je skladen z zahtevami iz tega člena, ne glede na to, ali se zagotavlja kot samostojni model ali vgrajen v umetnointeligenčni sistem ali proizvod ali se zagotavlja na podlagi brezplačnih in odprtokodnih licenc kot storitev ali kot drugi distribucijski kanali.

 

2.     Za namene odstavka 1 ponudnik temeljnega modela:

 

(a)

z ustreznim oblikovanjem, testiranjem in analizo z ustreznimi metodami, na primer s sodelovanjem neodvisnih strokovnjakov ter dokumentacijo o preostalih tveganjih, ki jih ni mogoče ublažiti po razvoju, dokazati opredelitev, zmanjšanje in ublažitev razumno predvidljivih tveganj za zdravje, varnost, temeljne pravice, okolje in demokracijo ter pravno državo pred razvojem in med njim;

 

(b)

obdeluje in vključuje samo nabore podatkov, za katere veljajo ustrezni ukrepi za upravljanje podatkov za temeljne modele, še posebej ukrepe za preučitev ustreznosti virov podatkov in morebitnih pristranskosti ter ustrezne blažitve;

 

(c)

oblikuje in razvije temeljni model, da se v celotnem življenjskem ciklu dosežejo ustrezne ravni zmogljivosti, predvidljivosti, razložljivosti, doslednosti, varnosti in kibernetske varnosti, ocenjene z ustreznimi metodami, kot so ocena modela s sodelovanjem neodvisnih strokovnjakov, dokumentirana analiza in obsežno testiranje med zasnovo, oblikovanjem in razvojem;

 

(d)

oblikuje in razvije temeljni model z uporabo veljavnih standardov za zmanjšanje porabe energije, rabe virov in odpadkov ter povečanje energijske učinkovitosti in splošne učinkovitosti sistema, brez poseganja v ustrezno veljavno zakonodajo Unije in nacionalno zakonodajo. Ta obveznost ne velja pred objavo standardov iz člena 40. Temeljni modeli so oblikovani z zmogljivostmi, ki omogočajo merjenje in beleženje porabe energije in virov ter kjer je to tehnično mogoče, drugih okoljskih učinkov, ki bi jih lahko imela uvedba in uporaba sistemov med njihovim celotnim življenjskim ciklom;

 

(e)

pripravi obsežno tehnično dokumentacijo in razumljiva navodila za uporabo, da se ponudnikom, ki so nižje v prodajni verigi omogoči izpolnjevanje njihovih obveznosti v skladu s členoma 16 in 28(1);

 

(f)

vzpostavi sistem upravljanja kakovosti, da zagotovi in dokumentira skladnost s tem členom, z možnostjo preizkušanja izpolnjevanja te zahteve;

 

(g)

registrira ta temeljni model v podatkovno zbirko EU iz člena 60 v skladu z navodili iz Priloge VIII, točka C.

 

Pri izpolnjevanju teh zahtev se upoštevajo splošno priznani najsodobnejši tehnični razvoj, tudi kot je razvidno iz ustreznih harmoniziranih standardov ali skupnih specifikacij ter najnovejše metode ocenjevanja in merjenja, ki se odražajo predvsem v smernicah za primerjalno analizo in zmogljivostih iz člena 58a;

 

3.     Ponudniki temeljnih modelov še 10 let po tem, ko so bili njihovi temeljni modeli dani na trg ali v uporabo, za pristojni nacionalni organ hrani tehnično dokumentacijo iz odstavka 2(e);

 

4.     Ponudniki temeljnih modelov, ki se uporabljajo v umetnointeligenčnih sistemih, ki so posebej namenjeni ustvarjanju vsebin z različnimi stopnjami avtonomije, kot so kompleksno besedilo, slike, avdio ali video (generativna umetna inteligenca), in ponudniki, ki so specializirani za spremembo temeljnega modela v generativni umetnointeligenčni sistem, poleg tega:

 

(a)

izpolnjujejo obveznosti glede preglednosti iz člena 52(1);

 

(b)

usposabljajo in po potrebi oblikujejo in razvijejo temeljni model tako, da se zagotovijo ustrezni zaščitni ukrepi proti ustvarjanju vsebin, ki so v nasprotju s pravom Unije, v skladu s splošno priznanim najsodobnejšim tehničnim razvojem in brez poseganja v temeljne pravice, tudi v svobodo izražanja;

 

(c)

brez poseganja v zakonodajo Unije ali nacionalno zakonodajo ali zakonodajo Unije o avtorskih pravicah dokumentira in da javnosti dostopen dovolj podroben povzetek uporabe učnih podatkov, zaščitenih po avtorskem pravu.

Sprememba 400

Predlog uredbe

Člen 29 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Uporabniki umetnointeligenčnih sistemov velikega tveganja uporabljajo take sisteme v skladu s priloženimi navodili za uporabo, v skladu z odstavkoma  2 in 5.

1.    Uvajalci umetnointeligenčnih sistemov velikega tveganja sprejmejo ustrezne tehnične in organizacijske ukrepe, s katerimi poskrbijo, da uporabljajo take sisteme v skladu s priloženimi navodili za uporabo, na podlagi odstavkov  2 in 5 tega člena .

Sprememba 401

Predlog uredbe

Člen 29 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Če uvajalci izvajajo nadzor nad umetnointeligenčnim sistemom velikega tveganja:

 

(i)

izvajajo človeški nadzor v skladu z zahtevami iz te uredbe;

 

(ii)

zagotovijo, da so fizične osebe, ki imajo človeški nadzor nad umetno inteligenco velikega tveganja, za to pristojne in ustrezno usposobljene in da imajo ustrezne vire za zagotovitev učinkovitega nadzora sistema v skladu s členom 14;

 

(iii)

zagotovijo, da se učinkovitost ustreznih ukrepov za zanesljivost in kibernetsko varnost redno spremlja ter da se redno prilagajajo ali posodabljajo.

Sprememba 402

Predlog uredbe

Člen 29 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Obveznosti iz odstavka  1 ne posegajo v druge obveznosti uporabnikov v skladu s pravom Unije ali nacionalnim pravom ter v pravico uporabnika , da organizira lastna sredstva in dejavnosti za izvajanje ukrepov za človekov nadzor, ki jih navede ponudnik.

2.   Obveznosti iz odstavkov  1 in 1a ne posegajo v druge obveznosti uvajalcev v skladu s pravom Unije ali nacionalnim pravom ter v pravico uvajalca , da organizira lastna sredstva in dejavnosti za izvajanje ukrepov za človekov nadzor, ki jih navede ponudnik.

Sprememba 403

Predlog uredbe

Člen 29 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Brez poseganja v  odstavek  1 uporabnik , kolikor izvaja nadzor nad vhodnimi podatki, zagotovi, da so vhodni podatki ustrezni glede na predvideni namen umetnointeligenčnega sistema velikega tveganja.

3.   Brez poseganja v  odstavka  1 in 1a uvajalec , če izvaja nadzor nad vhodnimi podatki, zagotovi, da so vhodni podatki ustrezni in dovolj reprezentativni glede na predvideni namen umetnointeligenčnega sistema velikega tveganja.

Sprememba 404

Predlog uredbe

Člen 29 – odstavek 4 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

4.    Uporabniki spremljajo delovanje umetnointeligenčnega sistema velikega tveganja na podlagi navodil za uporabo. Kadar imajo razloge za domnevo, da lahko uporaba v skladu z navodili za uporabo povzroči, da umetnointeligenčni sistem predstavlja tveganje v smislu člena 65(1), o tem obvestijo ponudnika ali distributerja in začasno ustavijo uporabo sistema. Ponudnika ali distributerja obvestijo tudi , ko ugotovijo kakršen koli hud incident ali kakršno koli okvaro v smislu člena 62 in prekinejo uporabo umetnointeligenčnega sistema. Če uporabnik ne more priti v stik s ponudnikom, se smiselno uporablja člen 62.

4.    Uvajalci spremljajo delovanje umetnointeligenčnega sistema velikega tveganja na podlagi navodil za uporabo in po potrebi obvestijo ponudnike v skladu s členom 61 . Kadar imajo razloge za domnevo, da lahko uporaba v skladu z navodili za uporabo povzroči, da umetnointeligenčni sistem predstavlja tveganje v smislu člena 65(1), o tem brez neupravičenega zavlačevanja obvestijo ponudnika ali distributerja in ustrezne nacionalne nadzorne organe ter začasno ustavijo uporabo sistema. Nemudoma tudi najprej obvestijo ponudnika , potem uvoznika ali distributerja in ustrezne nacionalne nadzorne organe , ko ugotovijo kakršen koli hud incident ali kakršno koli okvaro v smislu člena 62, in prekinejo uporabo umetnointeligenčnega sistema. Če uvajalec ne more priti v stik s ponudnikom, se smiselno uporablja člen 62.

Sprememba 405

Predlog uredbe

Člen 29 – odstavek 4 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Za uporabnike , ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, se šteje, da je obveznost spremljanja iz prvega pododstavka izpolnjena z upoštevanjem pravil o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

Za uvajalce , ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, se šteje, da je obveznost spremljanja iz prvega pododstavka izpolnjena z upoštevanjem pravil o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

Sprememba 406

Predlog uredbe

Člen 29 – odstavek 5 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

5.    Uporabniki umetnointeligenčnih sistemov velikega tveganja vodijo dnevnike, ki jih samodejno ustvari ta umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod njihovim nadzorom . Dnevniki se hranijo za obdobje , ki je primerno glede na predvideni namen umetnointeligenčnega sistema velikega tveganja in veljavne pravne obveznosti v skladu s  pravom Unije ali nacionalnim pravom .

5.    Uvajalci umetnointeligenčnih sistemov velikega tveganja vodijo dnevnike, ki jih samodejno ustvari ta umetnointeligenčni sistem velikega tveganja, če so ti dnevniki pod njihovim nadzorom , in so potrebni za zagotavljanje in dokazovanje skladnosti s to uredbo , za naknadne revizije vseh razumno predvidljivih okvar, incidentov ali napačnih uporab sistema ali za zagotavljanje in spremljanje pravilnega delovanja sistema v njegovem celotnem življenjskem ciklu. Brez poseganja v veljavno pravo Unije ali nacionalno pravo se dnevniki hranijo vsaj šest mesecev. Obdobje hrambe je v skladu s  panožnimi standardi in je primerno glede na predvideni namen umetnointeligenčnega sistema velikega tveganja .

Sprememba 407

Predlog uredbe

Člen 29 – odstavek 5 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Uporabniki , ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, hranijo dnevnike kot del dokumentacije o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

Uvajalci , ki so kreditne institucije, ki jih ureja Direktiva 2013/36/EU, hranijo dnevnike kot del dokumentacije o ureditvah, procesih in mehanizmih notranjega upravljanja v skladu s členom 74 navedene direktive.

Sprememba 408

Predlog uredbe

Člen 29 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Pred dajanjem v uporabo ali uporabo umetnointeligenčnega sistema velikega tveganja na delovnem mestu se uvajalci posvetujejo s predstavniki delavcev, da bi dosegli dogovor v skaldu z Direktivo 2002/14/EC ter obvestijo izpostavljene delavce, da se bo zanje uporabljal ta sistem.

Sprememba 409

Predlog uredbe

Člen 29 – odstavek 5 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5b.     Uvajalci umetnointeligenčnih sistemov velikega tveganja, ki so javni organi ali institucije, organi, uradi in agencije Unije ali podjetja iz člena 51(1a)(b), izpolnjujejo obveznosti registracije iz člena 51.

Sprememba 410

Predlog uredbe

Člen 29 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.    Uporabniki umetnointeligenčnih sistemov velikega tveganja uporabijo informacije iz člena 13, da izpolnijo svojo obveznost izvedbe ocene učinka v zvezi z varstvom podatkov v skladu s členom 35 Uredbe (EU) 2016/679 ali členom 27 Direktive (EU) 2016/680, kadar je to primerno .

6.    Uvajalci umetnointeligenčnih sistemov velikega tveganja po potrebi uporabijo informacije iz člena 13, da izpolnijo svojo obveznost izvedbe ocene učinka v zvezi z varstvom podatkov v skladu s členom 35 Uredbe (EU) 2016/679 ali členom 27 Direktive (EU) 2016/680, katere povzetek objavijo, pri čemer upoštevajo specifično uporabo in specifičen kontekst, v katerem naj bi umetnointeligenčni sistem deloval . Uvajalci se lahko pri izpolnjevanju nekaterih obveznosti iz tega člena delno vrnejo k navedenim ocenam učinka v zvezi z varstvom podatkov, če ocena zadosti obveznostim.

Sprememba 411

Predlog uredbe

Člen 29 – odstavek 6 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

6a.     Brez poseganja v člen 52 uvajalci umetnointeligenčnih sistemov velikega tveganja iz Priloge III, ki sprejemajo odločitve, ali pomagajo pri njihovem sprejemanju v zvezi s fizičnimi osebami, slednje obvestijo, da se zanje uporablja umetnointeligenčni sistem velikega tveganja. Te informacije vključujejo njegov predvideni namen in vrsto odločitev, ki jih sprejema. Uvajalec fizično osebo obvesti tudi o njeni pravici do obrazložitve iz člena 68c.

Sprememba 412

Predlog uredbe

Člen 29 – odstavek 6 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

6b.     Uvajalci sodelujejo z ustreznimi pristojnimi nacionalnimi organi pri vseh ukrepih, ki jih ti organi sprejmejo v zvezi z umetnointeligenčnim sistemom velikega tveganja, da bi uresničili to uredbo.

Sprememba 413

Predlog uredbe

Člen 29 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 29a

 

Ocene učinka na temeljne pravice za umetnointeligenčne sisteme velikega tveganja

 

Uvajalci pred začetkom uporabe umetnointeligenčnega sistema velikega tveganja, kot je opredeljen v členu 6(2), razen umetnointeligenčnih sistemov, ki so namenjeni uporabi na področju 2 Priloge III, opravijo oceno učinka sistema v specifičnem okviru uporabe. Ocena zajema vsaj naslednje:

 

(a)

jasen opis predvidenega namena, za katerega se bo sistem uporabljal;

 

(b)

jasen opis predvidenega geografskega in časovnega obsega uporabe sistema;

 

(c)

kategorije fizičnih oseb in skupin, na katere bo verjetno vplivala uporaba sistema;

 

(d)

preverjanje, da je uporaba sistema v skladu z ustreznim pravom Unije in nacionalnim pravom o temeljnih pravicah;

 

(e)

razumno predvidljiv učinek uporabe umetnointeligenčnega sistema velikega tveganja na temeljne pravice;

 

(f)

posebno tveganje za škodo, ki bi lahko vplivala na marginalizirane osebe ali ranljive skupine;

 

(g)

razumno predvidljivi škodljivi učinek uporabe sistema na okolje;

 

(h)

podroben načrt o tem, kako zmanjšati škodo ali negativen učinek na temeljne pravice;

 

(j)

sistem upravljanja, ki ga bo vzpostavil uvajalec, vključno s človeškim nadzorom, obravnavo pritožb in pravnimi sredstvi.

 

2.     Če ni mogoče določiti podrobnega načrta za zmanjšanje tveganj, ugotovljenih med ocenjevanjem iz odstavka 1, uvajalec umetnointeligenčnega sistema velikega tveganja ne da v uporabo ter o tem nemudoma obvesti nacionalne nadzorne organe. Nacionalni nadzorni organi trga v skladu s členoma 65 in 67 upoštevajo te informacije pri preiskavah sistemov, ki predstavljajo tveganje na nacionalni ravni.

 

3.     Obveznost iz odstavka 1 se uporablja za prvo uporabo umetnointeligenčnega sistema velikega tveganja. Uvajalec lahko v podobnih primerih uporabi predhodno izvedeno oceno učinka na temeljne pravice ali obstoječo oceno, ki so jo izvedli ponudniki. Če uvajalec med uporabo umetnointeligenčnega sistema velikega tveganja meni, da merila iz odstavka 1 niso več izpolnjena, izvede novo oceno učinka na temeljne pravice.

 

4.     Uvajalec pri oceni učinka, razen MSP, obvesti nacionalni nadzorni organ in ustrezne deležnike ter v največji možni meri vključi predstavnike oseb ali skupin oseb, na katere bo verjetno vplival umetnointeligenčni sistem velikega tveganja, kot je opredeljeno v odstavku 1, med drugim tudi organe za enakost, organe za varstvo potrošnikov, socialne partnerje in organe za varstvo podatkov, da bi dobil prispevek k oceni učinka. Uvajalec mora organom omogočiti šesttedenski rok za odgovor. MSP lahko prostovoljno uporabljajo določbe iz tega odstavka.

 

V primeru iz člena 47(1) so lahko javni organi izvzeti iz teh obveznosti.

 

5.     Uvajalec, ki je javni organ, ali podjetje iz člena 51(1a)(b) objavi povzetek rezultatov ocene učinka pri registraciji uporabe v skladu z obveznostjo iz člena 51(2).

 

6.     Kadar je uvajalec že dolžan opraviti oceno učinka v zvezi z varstvom podatkov v skladu s členom 35 Uredbe (EU) 2016/679 ali členom 27 Direktive (EU) 2016/680, se ocena učinka temeljnih pravic iz odstavka 1 izvede skupaj z oceno učinka v zvezi z varstvom podatkov. Ocena učinka v zvezi z varstvom podatkov se objavi kot dodatek.

Sprememba 414

Predlog uredbe

Člen 30 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Vsaka država članica imenuje ali vzpostavi priglasitveni organ, odgovoren za vzpostavitev in izvajanje potrebnih postopkov za ocenjevanje, imenovanje in priglasitev organov za ugotavljanje skladnosti ter za njihovo spremljanje.

1.   Vsaka država članica imenuje ali vzpostavi priglasitveni organ, odgovoren za vzpostavitev in izvajanje potrebnih postopkov za ocenjevanje, imenovanje in priglasitev organov za ugotavljanje skladnosti ter za njihovo spremljanje. Tovrstni postopki se razvijejo v sodelovanju med priglasitvenimi organi vseh držav članic.

Sprememba 415

Predlog uredbe

Člen 30 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.   Priglasitveni organi imajo na voljo zadostno število strokovnega osebja za pravilno izvajanje svojih nalog.

7.   Priglasitveni organi imajo na voljo zadostno število strokovnega osebja za pravilno izvajanje svojih nalog. Po potrebi ima pristojno osebje potrebno strokovno znanje, na primer diplomo na ustreznem pravnem področju, na področju nadzora nad temeljnimi pravicami, zapisanimi v Listini Evropske unije o temeljnih pravicah.

Sprememba 416

Predlog uredbe

Člen 30 – odstavek 8

Besedilo, ki ga predlaga Komisija

Sprememba

8.   Priglasitveni organi zagotovijo, da se ugotavljanje skladnosti izvaja sorazmerno, pri čemer se izognejo nepotrebnim bremenom za ponudnike, ter da priglašeni organi izvajajo svoje dejavnosti ob ustreznem upoštevanju velikosti podjetja, sektorja, v katerem deluje, njegove strukture in stopnje zapletenosti zadevnega umetnointeligenčnega sistema.

8.   Priglasitveni organi zagotovijo, da se ugotavljanje skladnosti izvaja sorazmerno in pravočasno , pri čemer se izognejo nepotrebnim bremenom za ponudnike, ter da priglašeni organi izvajajo svoje dejavnosti ob ustreznem upoštevanju velikosti podjetja, sektorja, v katerem deluje, njegove strukture in stopnje zapletenosti zadevnega umetnointeligenčnega sistema. Posebna pozornost se nameni zmanjšanju upravnega bremena in stroškov usklajevanja za mikro- in mala podjetja, kot so opredeljena v Prilogi k Priporočilu Komisije 2003/361/ES.

Sprememba 417

Predlog uredbe

Člen 32 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Priglasitveni organi lahko priglasijo samo tiste organe za ugotavljanje skladnosti, ki izpolnjujejo zahteve iz člena 33.

1.   Priglasitveni organi priglasijo samo tiste organe za ugotavljanje skladnosti, ki izpolnjujejo zahteve iz člena 33.

Sprememba 418

Predlog uredbe

Člen 32 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Priglasitveni organi obveščajo Komisijo in ostale države članice z uporabo elektronskega orodja za priglasitev, ki ga je razvila in ga upravlja Komisija.

2.   Priglasitveni organi Komisiji in ostalim državam članicam priglasijo vsak organ za ugotavljanje skladnosti iz odstavka 1 z uporabo elektronskega orodja za priglasitev, ki ga je razvila in ga upravlja Komisija.

Sprememba 419

Predlog uredbe

Člen 32 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Priglasitev vključuje vse podrobnosti o dejavnostih za ugotavljanje skladnosti, modul ali module za ugotavljanje skladnosti in zadevne umetnointeligenčne tehnologije.

3.   Priglasitev iz odstavka 2 vključuje vse podrobnosti o dejavnostih za ugotavljanje skladnosti, modul ali module za ugotavljanje skladnosti in zadevne umetnointeligenčne tehnologije ter ustrezno potrdilo o usposobljenosti .

Sprememba 420

Predlog uredbe

Člen 32 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Zadevni organ za ugotavljanje skladnosti lahko izvaja dejavnosti priglašenega organa le, če Komisija ali druge države članice ne vložijo ugovora v  enem mesecu od priglasitve.

4.   Zadevni organ za ugotavljanje skladnosti lahko izvaja dejavnosti priglašenega organa le, če Komisija ali druge države članice ne vložijo ugovora v  dveh tednih od potrditve priglasitve, pri kateri je uporabljen certifikat o akreditaciji iz člena 31(2), ali v dveh mesecih od priglasitve , pri kateri so uporabljena dokumentarna dokazila iz člena 31(3) .

Sprememba 421

Predlog uredbe

Člen 32 – odstavek 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.     Kadar so vloženi ugovori, se Komisija nemudoma posvetuje z zadevnimi državami članicami in organom za ugotavljanje skladnosti. Glede na to odloči, ali je dovoljenje upravičeno ali ne. Komisija svojo odločitev naslovi na zadevno državo članico in ustrezni organ za ugotavljanje skladnosti.

Sprememba 422

Predlog uredbe

Člen 32 – odstavek 4 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4b.     Države članice Komisiji in ostalim državam članicam priglasijo organe za ugotavljanje skladnosti.

Sprememba 423

Predlog uredbe

Člen 33 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Priglašeni organi izpolnjujejo organizacijske zahteve, zahteve glede upravljanja kakovosti, virov in procesov, potrebnih za izpolnjevanje njihovih nalog.

2.   Priglašeni organi izpolnjujejo organizacijske zahteve, zahteve glede upravljanja kakovosti, virov in procesov, potrebnih za izpolnjevanje njihovih nalog , ter minimalne zahteve glede kibernetske varnosti, določene za subjekte javne uprave, ki so opredeljeni kot izvajalci bistvenih storitev v skladu z Direktivo (EU) 2022/2555 .

Sprememba 424

Predlog uredbe

Člen 33 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Priglašeni organi so neodvisni od ponudnika umetnointeligenčnega sistema velikega tveganja, v zvezi s katerim izvajajo dejavnosti ugotavljanja skladnosti. Priglašeni organi so neodvisni tudi od vseh drugih operaterjev, ki imajo gospodarski interes pri ocenjevanem umetnointeligenčnem sistemu velikega tveganja, in od vseh konkurentov ponudnika.

4.   Priglašeni organi so neodvisni od ponudnika umetnointeligenčnega sistema velikega tveganja, v zvezi s katerim izvajajo dejavnosti ugotavljanja skladnosti. Priglašeni organi so neodvisni tudi od vseh drugih operaterjev, ki imajo gospodarski interes pri ocenjevanem umetnointeligenčnem sistemu velikega tveganja, in od vseh konkurentov ponudnika. To ne izključuje uporabe ocenjenih umetnointeligenčnih sistemov, nujnih za delovanje organa za ugotavljanje skladnosti, ali uporabe teh sistemov v zasebne namene.

Sprememba 425

Predlog uredbe

Člen 33 – odstavek 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.     Ugotavljanje skladnosti v skladu z odstavkom 1 izvedejo zaposleni iz priglašenih organov, ki ponudniku umetnointeligenčnega sistema velikega tveganja ali pravni osebi, povezani s tem ponudnikom umetnointeligenčnega sistema velikega tveganja, ali kateri koli pravni osebi, povezani z navedenim ponudnikom, v 12 mesecih pred ugotavljanjem niso zagotovili nobene druge storitve, povezane z ocenjeno zadevo, in so se zavezali, da jim takih storitev ne bodo zagotavljali v 12 mesecih po zaključku ugotavljanja.

Sprememba 426

Predlog uredbe

Člen 33 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Priglašeni organi vzpostavijo dokumentirane postopke za zagotovitev, da njihovo osebje, odbori, odvisne družbe, podizvajalci, kateri koli povezan organ ali osebje zunanjih organov spoštuje zaupnost informacij, pridobljenih med opravljanjem dejavnosti ugotavljanja skladnosti, razen kadar njihovo razkritje zahteva zakon. Osebje priglašenih organov je zavezano k varovanju poklicnih skrivnosti v zvezi z vsemi informacijami, pridobljenimi med izvajanjem nalog v skladu s to uredbo, razen v zvezi s priglasitvenimi organi države članice, v kateri izvajajo svoje dejavnosti.

6.   Priglašeni organi vzpostavijo dokumentirane postopke za zagotovitev, da njihovo osebje, odbori, odvisne družbe, podizvajalci, kateri koli povezan organ ali osebje zunanjih organov spoštuje zaupnost informacij, pridobljenih med opravljanjem dejavnosti ugotavljanja skladnosti, razen kadar njihovo razkritje zahteva zakon. Osebje priglašenih organov je zavezano k varovanju poklicnih skrivnosti v zvezi z vsemi informacijami, pridobljenimi med izvajanjem nalog v skladu s to uredbo, razen v zvezi s priglasitvenimi organi države članice, v kateri izvajajo svoje dejavnosti. Vse informacije in dokumentacija, ki jih priglašeni organi pridobijo na podlagi določb tega člena, se obravnavajo v skladu z obveznostmi glede zaupnosti iz člena 70.

Sprememba 427

Predlog uredbe

Člen 34 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Dejavnosti se lahko prenesejo na podizvajalca ali odvisno družbo samo, če ponudnik s tem soglaša.

3.   Dejavnosti se lahko prenesejo na podizvajalca ali odvisno družbo samo, če ponudnik s tem soglaša. Priglašeni organi pripravijo seznam svojih podizvajalcev, ki ga dajo na voljo javnosti.

Sprememba 428

Predlog uredbe

Člen 34 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Priglašeni organi hranijo ter omogočajo priglasitvenemu organu dostop do zadevnih dokumentov v zvezi z ocenjevanjem usposobljenosti podizvajalca ali odvisne družbe ter nalogami, ki jih izvaja v skladu s to uredbo.

4.   Priglašeni organi hranijo ter omogočajo priglasitvenemu organu dostop do zadevnih dokumentov v zvezi s preverjanjem usposobljenosti podizvajalca ali odvisne družbe ter nalogami, ki jih izvaja v skladu s to uredbo.

Sprememba 429

Predlog uredbe

Člen 35 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Identifikacijske številke in seznami priglašenih organov , imenovanih v skladu s to uredbo

Identifikacijske številke in seznami priglašenih organov

Sprememba 430

Predlog uredbe

Člen 36 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Kadar priglasitveni organ sumi ali je obveščen, da priglašeni organ ne izpolnjuje več zahtev iz člena 33 ali da ne izpolnjuje svojih obveznosti, zadevo brez odlašanja razišče z največjo skrbnostjo. V tem okviru obvesti zadevni priglašeni organ o vloženih ugovorih in mu omogoči, da izrazi svoja stališča. Kadar priglasitveni organ ugotovi, da priglašeni organ, ki je predmet preiskave, ne izpolnjuje več zahtev iz člena 33 ali da ne izpolnjuje svojih obveznosti, priglasitveni organ omeji, začasno prekliče ali umakne priglasitev, kot je primerno glede na resnost kršitve. O tem tudi nemudoma ustrezno obvesti Komisijo in druge države članice.

1.   Kadar priglasitveni organ sumi ali je obveščen, da priglašeni organ ne izpolnjuje več zahtev iz člena 33 ali da ne izpolnjuje svojih obveznosti, zadevo brez odlašanja razišče z največjo skrbnostjo. V tem okviru obvesti zadevni priglašeni organ o vloženih ugovorih in mu omogoči, da izrazi svoja stališča. Kadar priglasitveni organ ugotovi, da priglašeni organ, ne izpolnjuje več zahtev iz člena 33 ali da ne izpolnjuje svojih obveznosti, priglasitveni organ omeji, začasno prekliče ali umakne priglasitev, kot je primerno glede na resnost kršitve. O tem tudi nemudoma ustrezno obvesti Komisijo in druge države članice.

Sprememba 431

Predlog uredbe

Člen 36 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   V primeru omejitve, začasnega preklica ali umika priglasitve ali če je priglašeni organ prenehal z dejavnostjo, priglasitveni organ izvede ustrezne ukrepe za zagotovitev, da gradivo tega priglašenega organa prevzame drug priglašeni organ ali da je na voljo pristojnim priglasitvenim organom na njihovo zahtevo.

2.   V primeru omejitve, začasnega preklica ali umika priglasitve ali če je priglašeni organ prenehal z dejavnostjo, priglasitveni organ izvede ustrezne ukrepe za zagotovitev, da gradivo tega priglašenega organa prevzame drug priglašeni organ ali da je na voljo pristojnim priglasitvenim organom in organu za nadzor trga na njihovo zahtevo.

Sprememba 432

Predlog uredbe

Člen 37 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Komisija po potrebi razišče vse primere, v katerih obstajajo razlogi za dvom, ali priglašeni organ izpolnjuje zahteve iz člena 33 .

1.   Komisija po potrebi razišče vse primere, v katerih obstajajo razlogi za dvom, da ima priglašeni organ ustrezne pristojnosti oziroma da priglašeni organ še vedno izpolnjuje ustrezne zahteve in obveznosti .

Sprememba 433

Predlog uredbe

Člen 37 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Priglasitveni organ Komisiji na zahtevo predloži vse ustrezne informacije v zvezi s priglasitvijo zadevnega priglašenega organa.

2.   Priglasitveni organ Komisiji na zahtevo predloži vse ustrezne informacije v zvezi s priglasitvijo ali ohranitvijo pristojnosti zadevnega priglašenega organa.

Sprememba 434

Predlog uredbe

Člen 37 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Komisija zagotovi, da se vse zaupne informacije, ki jih pridobi med preiskavami v skladu s tem členom, obravnavajo zaupno.

3.   Komisija zagotovi, da se vse občutljive informacije, ki jih pridobi med preiskavami v skladu s tem členom, obravnavajo zaupno.

Sprememba 435

Predlog uredbe

Člen 37 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Kadar Komisija ugotovi, da priglašeni organ ne izpolnjuje ali ne izpolnjuje več zahtev iz člena 33 , sprejme utemeljen sklep, s katerim zahteva od države članice priglasiteljice , da izvede potrebne popravne ukrepe, vključno z  umikom priglasitve, če je to potrebno . Ta izvedbeni akt se sprejme v skladu s postopkom pregleda iz člena 74(2).

4.   Kadar Komisija ugotovi, da priglašeni organ ne izpolnjuje ali ne izpolnjuje več zahtev za priglasitev , o tem obvesti državo članico priglasiteljico in od nje zahteva , da sprejme potrebne korektivne ukrepe, po potrebi vključno z  začasnim preklicem ali umikom priglasitve . Če država članica ne sprejme potrebnih korektivnih ukrepov, lahko Komisija z izvedbenim aktom začasno prekliče, omeji, ali prekliče imenovanje. Ta izvedbeni akt se sprejme v skladu s postopkom pregleda iz člena 74(2).

Sprememba 436

Predlog uredbe

Člen 38 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Komisija omogoči izmenjavo znanja in primerov dobre prakse med nacionalnimi organi držav članic, ki so pristojni za politiko glede priglasitev.

Sprememba 437

Predlog uredbe

Člen 40 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Za umetnointeligenčne sisteme velikega tveganja, ki so v skladu s harmoniziranimi standardi ali njihovimi deli, katerih sklici so bili objavljeni v Uradnem listu Evropske unije, se domneva, da so skladni z zahtevami iz poglavja 2 tega naslova, kolikor ti standardi zajemajo te zahteve.

Za umetnointeligenčne sisteme velikega tveganja in temeljne modele , ki so v skladu s harmoniziranimi standardi ali njihovimi deli, katerih sklici so bili objavljeni v Uradnem listu Evropske unije v skladu z Uredbo (EU) št. 1025/2012 , se domneva, da so skladni z zahtevami iz poglavja 2 tega naslova ali člena 28(b) , kolikor ti standardi zajemajo te zahteve.

Sprememba 438

Predlog uredbe

Člen 40 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Komisija v skladu s členom 10 Uredbe (EU) št. 1025/2012 izda zahteve za standardizacijo, ki vključujejo vse zahteve te uredbe do … [dva meseca po datumu začetka veljavnosti te uredbe]. Komisija se pri pripravi zahteve za standardizacijo posvetuje z uradom za umetno inteligenco in svetovalnim forumom;

Sprememba 439

Predlog uredbe

Člen 40 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Komisija pri izdaji zahteve za standardizacijo evropskim organizacijam za standardizacijo določi, da morajo biti standardi skladni, tudi s sektorskim pravom iz Priloge II, in namenjeni zagotavljanju, da umetnointeligenčni sistemi ali temeljni modeli, ki so dani na trg ali v uporabo v Uniji, izpolnjujejo ustrezne zahteve iz te uredbe;

Sprememba 440

Predlog uredbe

Člen 40 – odstavek 1 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Akterji, vključeni v postopek standardizacije, upoštevajo splošna načela za zaupanja vredno umetno inteligenco iz člena 4(a), si prizadevajo spodbujati naložbe in inovacije na področju umetne inteligence ter konkurenčnost in rast trga Unije ter prispevajo k izboljšanju globalnega sodelovanja na področju standardizacije in upoštevajo obstoječe mednarodne standarde na področju umetne inteligence, ki so skladni z vrednotami, temeljnimi pravicami in interesi Unije, ter zagotavljajo uravnoteženo zastopanost interesov in učinkovito sodelovanje vseh ustreznih deležnikov v skladu s členi 5, 6 in 7 Uredbe (EU) št. 1025/2012.

Sprememba 441

Predlog uredbe

Člen 41 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.     Kadar harmonizirani standardi iz člena 40 ne obstajajo ali kadar Komisija meni, da ustrezni harmonizirani standardi ne zadostujejo ali da je treba obravnavati posebne pomisleke glede varnosti ali temeljnih pravic, lahko Komisija z izvedbenimi akti sprejme skupne specifikacije v zvezi z zahtevami iz poglavja 2 tega naslova. Ti izvedbeni akti se sprejmejo v skladu s postopkom pregleda iz člena 74(2).

črtano

Sprememba 442

Predlog uredbe

Člen 41 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Komisija lahko z izvedbenim aktom, sprejetim v skladu s postopkom pregleda iz člena 74(2), ter po posvetovanju z uradom za umetno inteligenco in svetovalnim forumom za umetno inteligenco sprejme skupne specifikacije v zvezi z zahtevami iz poglavja 2 tega naslova ali člena 28(b), če so izpolnjeni vsi naslednji pogoji:

 

(a)

ni sklica na harmonizirane standarde, ki so že bili objavljeni v Uradnem listu Evropske unije v zvezi z bistvenimi zahtevami, razen če je zadevni harmonizirani standard obstoječi standard, ki ga je treba spremeniti;

 

(b)

če je Komisija od ene ali več evropskih organizacij za standardizacijo zahtevala, naj pripravijo harmonizirani standard za bistvene zahteve iz poglavja 2;

 

(c)

zahteve iz točke (b) ni sprejela nobena evropska organizacija za standardizacijo; ali prihaja do neupravičenega zavlačevanja pri oblikovanju ustreznega harmoniziranega standarda; ali zagotovljeni standard ne izpolnjuje zahtev ustreznega prava Unije ali ni v skladu z zahtevo Komisije.

Sprememba 443

Predlog uredbe

Člen 41 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1b.     Kadar Komisija meni, da je treba obravnavati posebne pomisleke v zvezi s temeljnimi pravicami, se v skupnih specifikacijah, ki jih sprejme v skladu z odstavkom 1a, obravnavajo tudi ta specifična vprašanja v zvezi s temeljnimi pravicami.

Sprememba 444

Predlog uredbe

Člen 41 – odstavek 1 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1c.     Komisija razvije skupne specifikacije za metodologijo za izpolnitev zahtev glede poročanja in dokumentacije o porabi energije in virov med razvojem, usposabljanjem in uvajanjem umetnointeligenčnega sistema velikega tveganja.

Sprememba 445

Predlog uredbe

Člen 41 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Komisija pri pripravi skupnih specifikacij iz odstavka  1 zbere mnenja ustreznih organov ali strokovnih skupin , ustanovljenih v skladu z ustreznim sektorskim pravom Unije.

2.   Komisija se med celotnim postopkom priprave skupnih specifikacij iz odstavkov 1 a in 1b redno posvetuje z uradom za umetno inteligenco in svetovalnim forumom, evropskimi organizacijami in organi za standardizacijo ali strokovnimi skupinami , ustanovljenimi v skladu z ustreznim sektorskim pravom Unije , ter drugimi ustreznimi deležniki . Komisija izpolni cilje iz člena 40(1c) in ustrezno utemelji, zakaj se je odločila za uporabo skupnih specifikacij.

 

Kadar namerava Komisija sprejeti skupne specifikacije v skladu z odstavkom 1(a) tega člena, jasno opredeli tudi posebna vprašanja v zvezi s temeljnimi pravicami, ki jih je treba obravnavati.

 

Komisija pri sprejemanju skupnih specifikacij v skladu z odstavkoma 1a in 1b tega člena upošteva mnenje urada za umetno inteligenco iz člena 56e(b) te uredbe. Če se Komisija odloči, da ne bo upoštevala mnenja urada za umetno inteligenco, uradu za umetno inteligenco predloži utemeljeno obrazložitev.

Sprememba 446

Predlog uredbe

Člen 41 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Za umetnointeligenčne sisteme velikega tveganja, ki so v skladu s skupnimi specifikacijami iz odstavka 1, se domneva, da so skladni z zahtevami iz poglavja 2 tega naslova, kolikor te skupne specifikacije zajemajo te zahteve.

3.   Za umetnointeligenčne sisteme velikega tveganja, ki so v skladu s skupnimi specifikacijami iz odstavka 1 a in 1b , se domneva, da so skladni z zahtevami iz poglavja 2 tega naslova, kolikor te skupne specifikacije zajemajo te zahteve.

Sprememba 447

Predlog uredbe

Člen 41 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Ko evropska organizacija za standardizacijo sprejme harmonizirani standard in ga predloži Komisiji, da se sklic nanj objavi v Uradnem listu Evropske unije, Komisija harmonizirani standard oceni v skladu z Uredbo št. 1025/2012. Ko se sklic na harmonizirani standard objavi v Uradnem listu Evropske unije, Komisija razveljavi akte iz odstavka 1 in 1b ali njihove dele, ki zajemajo enake zahteve iz poglavja 2 tega naslova.

Sprememba 448

Predlog uredbe

Člen 41 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Kadar ponudniki ne izpolnjujejo skupnih specifikacij iz odstavka 1, ustrezno utemeljijo, da so sprejeli tehnične rešitve, ki so jim vsaj enakovredne.

4.   Kadar ponudniki umetnointeligenčnih sistemov velikega tveganja ne izpolnjujejo skupnih specifikacij iz odstavka 1, ustrezno utemeljijo, da so sprejeli tehnične rešitve, ki izpolnjujejo zahteve iz poglavja 2 v tolikšni meri, da so jim vsaj enakovredne.

Sprememba 449

Predlog uredbe

Člen 42 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ob upoštevanju predvidenega namena se za umetnointeligenčne sisteme velikega tveganja, ki so bili naučeni in testirani na podlagi podatkov o posebnem geografskem, vedenjskem in funkcionalnem okolju, v katerem naj bi se uporabljali, domneva, da izpolnjujejo zahteve iz člena 10(4).

1.   Ob upoštevanju predvidenega namena se za umetnointeligenčne sisteme velikega tveganja, ki so bili naučeni in testirani na podlagi podatkov o posebnem geografskem, vedenjskem , vsebinskem in funkcionalnem okolju, v katerem naj bi se uporabljali, domneva, da izpolnjujejo ustrezne zahteve iz člena 10(4).

Sprememba 450

Predlog uredbe

Člen 43 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Za umetnointeligenčne sisteme velikega tveganja iz točke 1 Priloge III, pri katerih je ponudnik pri dokazovanju skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova uporabil harmonizirane standarde iz člena 40 ali, kadar je to primerno, skupne specifikacije iz člena 41, uporabi enega od naslednjih postopkov:

1.   Za umetnointeligenčne sisteme velikega tveganja iz točke 1 Priloge III, pri katerih je ponudnik pri dokazovanju skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova uporabil harmonizirane standarde iz člena 40 ali, kadar je to primerno, skupne specifikacije iz člena 41, se odloči za enega od naslednjih postopkov;

Sprememba 451

Predlog uredbe

Člen 43 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

postopek ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI;

(a)

postopek ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI, ali

Sprememba 452

Predlog uredbe

Člen 43 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

postopek ugotavljanja skladnosti na podlagi ocenjevanja sistema upravljanja kakovosti in ocenjevanja tehnične dokumentacije s sodelovanjem priglašenega organa iz Priloge VII.

(b)

postopek ugotavljanja skladnosti na podlagi ocenjevanja sistema upravljanja kakovosti in tehnične dokumentacije s sodelovanjem priglašenega organa iz Priloge VII.

Sprememba 453

Predlog uredbe

Člen 43 – odstavek 1 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Kadar ponudnik pri dokazovanju skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova ni uporabil harmoniziranih standardov iz člena 40 ali jih je uporabil le delno ali kadar taki harmonizirani standardi ne obstajajo in skupne specifikacije iz člena 41 niso na voljo, uporabi postopek ugotavljanja skladnosti iz Priloge VII.

Pri dokazovanju skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 tega naslova ponudnik uporabi postopek ugotavljanja skladnosti iz Priloge VII v naslednjih primerih:

 

(a)

kadar harmonizirani standardi iz člena 40, katerih referenčna številka je objavljena v Uradnem listu Evropske unije in ki zajemajo vse ustrezne varnostne zahteve za umetnointeligenčni sistem, ne obstajajo in skupne specifikacije iz člena 41 niso na voljo;

 

(b)

kadar tehnične specifikacije iz točke (a) obstajajo, vendar jih ponudnik ni uporabil ali jih je uporabil le deloma;

 

(c)

kadar je bila ena ali več tehničnih specifikacij iz točke (a) objavljena z omejitvijo in samo v zvezi z delom standardom, ki je bil omejen;

 

(d)

kadar ponudnik meni, da narava, zasnova, izdelava ali namen umetnointeligenčnega sistema zahtevajo preverjanje s strani tretje strani, ne glede na stopnjo tveganja tega sistema.

Sprememba 454

Predlog uredbe

Člen 43 – odstavek 1 – pododstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

Za namen postopka ugotavljanja skladnosti iz Priloge VII lahko ponudnik izbere katerega koli od priglašenih organov. Kadar pa naj bi sistem dali v uporabo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali azilni organi ter institucije, organi ali agencije EU, kot priglašeni organ deluje organ za nadzor trga iz člena 63(5) ali (6), kot je ustrezno.

Za namen izvajanja postopka ugotavljanja skladnosti iz Priloge VII lahko ponudnik izbere katerega koli od priglašenih organov. Kadar pa naj bi sistem dali v uporabo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali azilni organi ter institucije, organi ali agencije EU, kot priglašeni organ deluje organ za nadzor trga iz člena 63(5) ali (6), kot je ustrezno.

Sprememba 455

Predlog uredbe

Člen 43 – odstavek 4 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Pri umetnointeligenčnih sistemih velikega tveganja se opravi nov postopek ugotavljanja skladnosti, kadar koli so bistveno spremenjeni, ne glede na to, ali je spremenjeni sistem namenjen nadaljnji distribuciji ali ga še naprej uporablja sedanji uporabnik .

4.   Pri umetnointeligenčnih sistemih velikega tveganja , pri katerih je bil že opravljen postopek ugotavljanja skladnosti, se opravi nov postopek ugotavljanja skladnosti, kadar koli so bistveno spremenjeni, ne glede na to, ali je spremenjeni sistem namenjen nadaljnji distribuciji ali ga še naprej uporablja sedanji uvajalec .

Sprememba 456

Predlog uredbe

Člen 43 – odstavek 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.     Pri določanju pristojbin za ugotavljanje skladnosti, ki ga opravi tretja stran v skladu s tem členom, se upoštevajo posebni interesi in potrebe MSP, pri čemer se te pristojbine znižajo sorazmerno z njihovo velikostjo in velikostjo trga;

Sprememba 457

Predlog uredbe

Člen 43 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za posodobitev prilog VI in VII za uvedbo elementov postopkov ugotavljanja skladnosti, ki postanejo potrebni zaradi tehničnega napredka.

5.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za posodobitev prilog VI in VII za uvedbo elementov postopkov ugotavljanja skladnosti, ki postanejo potrebni zaradi tehničnega napredka. Komisija se pri pripravi teh delegiranih aktov posvetuje z uradom za umetno inteligenco in deležniki, ki jih to zadeva.

Sprememba 458

Predlog uredbe

Člen 43 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov za spremembo odstavkov 1 in 2, da se za umetnointeligenčne sisteme velikega tveganja iz točk 2 do 8 Priloge III uvede postopek ugotavljanja skladnosti iz Priloge VII ali njenih delov. Komisija sprejme take delegirane akte ob upoštevanju učinkovitosti postopka ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI pri preprečevanju ali zmanjševanju tveganj za zdravje in varnost ter varstva temeljnih pravic, ki jih predstavljajo taki sistemi, ter razpoložljivosti ustreznih zmogljivosti in virov med priglašenimi organi.

6.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov za spremembo odstavkov 1 in 2, da se za umetnointeligenčne sisteme velikega tveganja iz točk 2 do 8 Priloge III uvede postopek ugotavljanja skladnosti iz Priloge VII ali njenih delov. Komisija sprejme take delegirane akte ob upoštevanju učinkovitosti postopka ugotavljanja skladnosti na podlagi notranje kontrole iz Priloge VI pri preprečevanju ali zmanjševanju tveganj za zdravje in varnost ter varstva temeljnih pravic, ki jih predstavljajo taki sistemi, ter razpoložljivosti ustreznih zmogljivosti in virov med priglašenimi organi. Komisija se pri pripravi teh delegiranih aktov posvetuje z uradom za umetno inteligenco in deležnikov, ki jih to zadeva.

Sprememba 459

Predlog uredbe

Člen 44 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Potrdila, ki jih izdajo priglašeni organi v skladu s Prilogo VII, so pripravljena v  uradnem jeziku Unije, ki ga določi država članica, v kateri je sedež priglašenega organa, ali v  uradnem jeziku Unije, sicer sprejemljivem za priglašeni organ.

1.   Potrdila, ki jih izdajo priglašeni organi v skladu s Prilogo VII, so pripravljena v  enem ali več uradnih jezikih Unije, ki jih določi država članica, v kateri je sedež priglašenega organa, ali v  enem ali več uradnih jezikih Unije, sicer sprejemljivih za priglašeni organ.

Sprememba 460

Predlog uredbe

Člen 44 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Potrdila so veljavna za navedeno obdobje, ki ne presega pet let. Na predlog ponudnika se lahko veljavnost potrdila na podlagi ponovne ocene v skladu z veljavnimi postopki za ugotavljanje skladnosti podaljša za nadaljnja obdobja, ki ne presegajo pet let .

2.   Potrdila so veljavna za navedeno obdobje, ki ne presega štirih let. Na predlog ponudnika se lahko veljavnost potrdila na podlagi ponovne ocene v skladu z veljavnimi postopki za ugotavljanje skladnosti podaljša za nadaljnja obdobja, ki posamično ne presegajo štiri leta .

Sprememba 461

Predlog uredbe

Člen 44 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Če priglašeni organ ugotovi, da umetnointeligenčni sistem ne izpolnjuje več zahtev iz poglavja 2 tega naslova, ob upoštevanju načela sorazmernosti začasno prekliče ali umakne izdano potrdilo oziroma ga omeji, razen če se skladnost s temi zahtevami zagotovi z ustreznimi popravnimi ukrepi, ki jih je ponudnik sistema sprejel v ustreznem roku, ki ga določi priglašeni organ. Priglašeni organ obrazloži svojo odločitev.

3.   Če priglašeni organ ugotovi, da umetnointeligenčni sistem ne izpolnjuje več zahtev iz poglavja 2 tega naslova, začasno prekliče ali umakne izdano potrdilo oziroma ga omeji, razen če se skladnost s temi zahtevami zagotovi z ustreznimi popravnimi ukrepi, ki jih je ponudnik sistema sprejel v ustreznem roku, ki ga določi priglašeni organ. Priglašeni organ obrazloži svojo odločitev.

Sprememba 462

Predlog uredbe

Člen 45 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Države članice zagotovijo, da je pritožbeni postopek zoper odločitve priglašenih organov na voljo strankam, ki imajo upravičen interes za to odločitev.

Države članice zagotovijo, da je pritožbeni postopek zoper odločitve priglašenih organov , tudi o izdanih potrdilih o skladnosti, na voljo strankam, ki imajo upravičen interes za to odločitev.

Sprememba 463

Predlog uredbe

Člen 46 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Vsak priglašeni organ drugim priglašenim organom, ki izvajajo podobne dejavnosti ugotavljanja skladnosti v zvezi z istimi umetnointeligenčnimi tehnologijami , predloži ustrezne informacije o vprašanjih v zvezi z negativnimi rezultati ugotavljanja skladnosti, na zahtevo pa tudi pozitivnimi rezultati ugotavljanja skladnosti.

3.   Vsak priglašeni organ drugim priglašenim organom, ki izvajajo podobne dejavnosti ugotavljanja skladnosti, predloži ustrezne informacije o vprašanjih v zvezi z negativnimi rezultati ugotavljanja skladnosti, na zahtevo pa tudi pozitivnimi rezultati ugotavljanja skladnosti.

Sprememba 464

Predlog uredbe

Člen 47 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Z odstopanjem od člena 43 lahko kateri koli organ za nadzor trga dovoli dajanje na trg ali v uporabo posebnih umetnointeligenčnih sistemov velikega tveganja na ozemlju zadevne države članice iz izjemnih razlogov javne varnosti ali varstva življenja in zdravja ljudi, varstva okolja ter varstva ključnih industrijskih in infrastrukturnih sredstev . To dovoljenje velja za omejeno obdobje, dokler se izvajajo potrebni postopki ugotavljanja skladnosti, in preneha veljati, ko so ti postopki zaključeni. Ti postopki se zaključijo brez nepotrebnega odlašanja.

1.   Z odstopanjem od člena 43 lahko vsak nacionalni nadzorni organ zaprosi pravosodni organ za dovoljenje za dajanje na trg ali v uporabo posebnih umetnointeligenčnih sistemov velikega tveganja na ozemlju zadevne države članice iz izjemnih razlogov varstva življenja in zdravja ljudi, varstva okolja ter varstva kritične infrastrukture . To dovoljenje velja za omejeno obdobje, dokler se izvajajo potrebni postopki ugotavljanja skladnosti, in preneha veljati, ko so ti postopki zaključeni. Ti postopki se zaključijo brez nepotrebnega odlašanja.

Sprememba 465

Predlog uredbe

Člen 47 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Dovoljenje iz odstavka 1 se izda le, če organ za nadzor trga ugotovi , da umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve iz poglavja 2 tega naslova. Organ za nadzor trga obvesti Komisijo in druge države članice o vseh dovoljenjih, izdanih v skladu z odstavkom 1.

2.   Dovoljenje iz odstavka 1 se izda le, če nacionalni nadzorni organ in pravosodni organ ugotovita , da umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve iz poglavja 2 tega naslova. Nacionalni nadzorni organ obvesti Komisijo, urad za umetno inteligenco in druge države članice o vseh vloženih prošnjah in kasnejših dovoljenjih, izdanih v skladu z odstavkom 1.

Sprememba 466

Predlog uredbe

Člen 47 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Če v 15 koledarskih dneh po prejemu informacij iz odstavka 2 država članica ali Komisija ne poda nobenega ugovora glede dovoljenja , ki ga je izdal organ za nadzor trga države članice v skladu z odstavkom 1, se šteje, da je dovoljenje upravičeno .

3.   Če v 15 koledarskih dneh po prejemu informacij iz odstavka 2 država članica ali Komisija ne poda nobenega ugovora glede prošnje nacionalnega nadzornega organa za dovoljenje , ki ga je izdal nacionalni nadzorni organ države članice v skladu z odstavkom 1, se šteje, da je prošnja upravičena .

Sprememba 467

Predlog uredbe

Člen 47 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Če v 15 koledarskih dneh po prejemu priglasitve iz odstavka 2 država članica poda ugovore zoper dovoljenje , ki ga je izdal organ za nadzor trga druge države članice, ali če Komisija meni, da je dovoljenje v nasprotju s pravom Unije ali da je sklep držav članic glede skladnosti sistema iz odstavka 2 neutemeljen, se brez odlašanja posvetuje z zadevno državo članico; z zadevnimi operaterji se je treba posvetovati in ti morajo imeti možnost, da predstavijo svoja stališča. Glede na to Komisija odloči, ali je dovoljenje upravičeno ali ne. Komisija svojo odločitev naslovi na zadevno državo članico in ustreznega operaterja ali operaterje.

4.   Če v 15 koledarskih dneh po prejemu priglasitve iz odstavka 2 država članica poda ugovore zoper prošnjo , ki jo je izdal nacionalni nadzorni organ druge države članice, ali če Komisija meni, da je dovoljenje v nasprotju s pravom Unije ali da je sklep držav članic glede skladnosti sistema iz odstavka 2 neutemeljen, se brez odlašanja posvetuje z zadevno državo članico in uradom za umetno inteligenco ; z zadevnimi operaterji se je treba posvetovati in ti morajo imeti možnost, da predstavijo svoja stališča. Glede na to Komisija odloči, ali je dovoljenje upravičeno ali ne. Komisija svojo odločitev naslovi na zadevno državo članico in ustreznega operaterja ali operaterje.

Sprememba 468

Predlog uredbe

Člen 47 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Če se dovoljenje šteje za neupravičeno, ga umakne organ za nadzor trga zadevne države članice.

5.   Če se dovoljenje šteje za neupravičeno, ga nacionalni nadzorni organ zadevne države članice umakne .

Sprememba 469

Predlog uredbe

Člen 48 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ponudnik za vsak umetnointeligenčni sistem sestavi pisno izjavo EU o skladnosti in jo hrani za potrebe pristojnih nacionalnih organov ter jim jo daje na voljo še 10 let po tem, ko je bil umetnointeligenčni sistem dan na trg ali v uporabo. Izjava EU o skladnosti opredeljuje umetnointeligenčni sistem, za katerega je bila sestavljena. Na zahtevo se ustreznim pristojnim nacionalnim organom predloži izvod izjave EU o skladnosti .

1.   Ponudnik za vsak umetnointeligenčni sistem velikega tveganja sestavi strojno berljivo fizično ali elektronsko pisno izjavo EU o skladnosti in jo hrani za potrebe nacionalnega nadzornega organa ter jim jo daje na voljo še 10 let po tem, ko je bil umetnointeligenčni sistem velikega tveganja dan na trg ali v uporabo. Izvod izjave  EU o skladnosti se na zahtevo predloži nacionalnemu nadzornemu organu in ustreznim pristojnim nacionalnim organom.

Sprememba 470

Predlog uredbe

Člen 48 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Izjava EU o skladnosti navaja, da zadevni umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve iz poglavja 2 tega naslova. Izjava EU o skladnosti vsebuje informacije iz Priloge V in se prevede v uradni jezik Unije ali jezike, ki jih zahteva država članica oziroma države članice, v katerih je umetnointeligenčni sistem velikega tveganja dostopen.

2.   Izjava EU o skladnosti navaja, da zadevni umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve iz poglavja 2 tega naslova. Izjava EU o skladnosti vsebuje informacije iz Priloge V in se prevede v uradni jezik Unije ali jezike, ki jih zahteva država članica oziroma države članice, v katerih je umetnointeligenčni sistem velikega tveganja dan na trg ali dostopen.

Sprememba 471

Predlog uredbe

Člen 48 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Kadar za umetnointeligenčne sisteme velikega tveganja velja druga harmonizacijska zakonodaja Unije, ki zahteva tudi izjavo EU o skladnosti, se pripravi enotna izjava EU o skladnosti za vse zakonodaje Unije, ki se uporabljajo za umetnointeligenčni sistem velikega tveganja. Ta izjava vsebuje vse informacije, potrebne za ugotovitev, na katero harmonizirano zakonodajo Unije se izjava nanaša.

3.   Kadar za umetnointeligenčne sisteme velikega tveganja velja druga harmonizacijska zakonodaja Unije, ki zahteva tudi izjavo EU o skladnosti, se lahko pripravi enotna izjava EU o skladnosti za vse zakonodaje Unije, ki se uporabljajo za umetnointeligenčni sistem velikega tveganja. Ta izjava vsebuje vse informacije, potrebne za ugotovitev, na katero harmonizirano zakonodajo Unije se izjava nanaša.

Sprememba 472

Predlog uredbe

Člen 48 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Na Komisijo se prenese pooblastilo za sprejemanje delegiranih aktov v skladu s členom 73 za posodobitev vsebine izjave EU o skladnosti iz Priloge V za uvedbo elementov, ki postanejo potrebni zaradi tehničnega napredka.

5.   Na Komisijo se prenese pooblastilo , da po posvetovanju z uradom za umetno inteligenco sprejme delegirane akte v skladu s členom 73 za posodobitev vsebine izjave EU o skladnosti iz Priloge V za uvedbo elementov, ki postanejo potrebni zaradi tehničnega napredka.

Sprememba 473

Predlog uredbe

Člen 49 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Oznaka CE se vidno, čitljivo in neizbrisno namesti za umetnointeligenčne sisteme velikega tveganja. Kadar to ni mogoče ali ni upravičeno zaradi značilnosti umetnointeligenčnega sistema velikega tveganja, se oznaka namesti na embalažo ali spremno dokumentacijo, kot je ustrezno.

1.    Fizična oznaka CE se vidno, čitljivo in neizbrisno namesti za umetnointeligenčne sisteme velikega tveganja , preden se umetnointeligenčni sistem velikega tveganja da na trg . Kadar to ni mogoče ali ni upravičeno zaradi značilnosti umetnointeligenčnega sistema velikega tveganja, se oznaka namesti na embalažo ali spremno dokumentacijo, kot je ustrezno. Lahko se ji doda piktogram ali drug znak, ki označuje posebno tveganje pri uporabi.

Sprememba 474

Predlog uredbe

Člen 49 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Za samo digitalne umetnointeligenčne sisteme velikega tveganja se digitalna oznaka CE uporablja le, če je do nje mogoče enostavno dostopati prek vmesnika, prek katerega se dostopa do umetnointeligenčnega sistema, ali prek lahko dostopne strojno berljive kode ali drugega elektronskega sredstva.

Sprememba 475

Predlog uredbe

Člen 49 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Oznaki CE po potrebi sledi identifikacijska številka priglašenega organa, odgovornega za postopke ugotavljanja skladnosti, določene v členu 43. Identifikacijska številka je navedena tudi v promocijskem gradivu, v katerem je navedeno, da umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve za oznako CE.

3.   Oznaki CE po potrebi sledi identifikacijska številka priglašenega organa, odgovornega za postopke ugotavljanja skladnosti, določene v členu 43. Identifikacijsko številko priglašenega organa namesti organ sam ali jo v skladu z njegovimi navodili namesti pooblaščeni zastopnik ponudnika. Identifikacijska številka je navedena tudi v promocijskem gradivu, v katerem je navedeno, da umetnointeligenčni sistem velikega tveganja izpolnjuje zahteve za oznako CE.

Sprememba 476

Predlog uredbe

Člen 49 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Če umetnointeligenčne sisteme velikega tveganja ureja drugo pravo Unije, ki prav tako določa pritrditev oznake CE, ta oznaka kaže, da umetnointeligenčni sistemi velikega tveganja izpolnjujejo tudi zahteve tega drugega prava.

Sprememba 477

Predlog uredbe

Člen 50 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

Ponudnik še 10 let po tem, ko je bil umetnointeligenčni sistem dan na trg ali v uporabo, za pristojni nacionalni organ hrani:

Ponudnik še 10 let po tem, ko je bil umetnointeligenčni sistem dan na trg ali v uporabo, za nacionalni nadzorni organi in nacionalni pristojni organ hrani:

Sprememba 478

Predlog uredbe

Člen 51 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Ponudnik ali, kjer je to ustrezno, pooblaščeni zastopnik pred dajanjem umetnointeligenčnega sistema velikega tveganja iz člena 6(2) na trg ali v uporabo ta sistem registrira v podatkovni zbirki EU iz člena 60.

Ponudnik ali, kjer je to ustrezno, pooblaščeni zastopnik pred dajanjem umetnointeligenčnega sistema velikega tveganja iz člena 6(2) na trg ali v uporabo ta sistem registrira v podatkovni zbirki EU iz člena 60 v skladu s členom 60(2) .

Sprememba 479

Predlog uredbe

Člen 51 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Pred začetkom obratovanja ali uporabe umetnointeligenčnega sistema velikega tveganja v skladu s členom 6(2) uporabo tega umetnointeligenčnega sistema v podatkovni zbirki EU iz člena 60 registrirajo naslednje kategorije uvajalcev:

 

(a)

uvajalci, ki so javni organi ali institucije, organi, uradi ali agencije Unije ali uvajalci, ki delujejo v njihovem imenu;

 

(b)

uvajalci, ki so podjetja, imenovana za vratarje v skladu z Uredbo (EU) 2022/1925.

Sprememba 480

Predlog uredbe

Člen 51 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Uvajalci, ki niso zajeti v pododstavku 1a, lahko v podatkovni zbirki EU iz člena 60 uporabo umetnointeligenčnega sistema velikega tveganja iz člena 6(2) registrirajo prostovoljno.

Sprememba 481

Predlog uredbe

Člen 51 – odstavek 1 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Po vsaki bistveni spremembi je treba registrirani vnos posodobiti.

Sprememba 482

Predlog uredbe

Naslov IV

Besedilo, ki ga predlaga Komisija

Sprememba

OBVEZNOSTI GLEDE PREGLEDNOSTI ZA NEKATERE UMETNOINTELIGENČNE SISTEME

OBVEZNOSTI GLEDE PREGLEDNOSTI

Sprememba 483

Predlog uredbe

Člen 52 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Obveznosti glede preglednosti za nekatere umetnointeligenčne sisteme

Obveznosti glede preglednosti

Sprememba 484

Predlog uredbe

Člen 52 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ponudniki zagotovijo, da so umetnointeligenčni sistemi, namenjeni interakciji s fizičnimi osebami, zasnovani in razviti tako, da so fizične osebe obveščene , da so v stiku z umetnointeligenčnim sistemom , razen če je to razvidno iz okoliščin in konteksta uporabe. Ta obveznost se ne uporablja za umetnointeligenčne sisteme , ki so z zakonom pooblaščeni za odkrivanje, preprečevanje, preiskovanje in pregon kaznivih dejanj , razen če so ti sistemi na voljo javnosti za prijavo kaznivega dejanja .

1.   Ponudniki zagotovijo, da so umetnointeligenčni sistemi, namenjeni interakciji s fizičnimi osebami, zasnovani in razviti tako, da umetnointeligenčni sistem , ponudnik sam ali uporabnik fizično osebo , ki je izpostavljena umetnointeligenčnemu sistemu, pravočasno ter na jasen in razumljiv način obvesti , da je v stiku z umetnointeligenčnim sistemom , razen če je to razvidno iz okoliščin in konteksta uporabe .

 

Kadar je ustrezno in primerno, je v teh informacijah navedeno tudi, katere funkcije omogoča umetna inteligenca, ali obstaja človeški nadzor in kdo je odgovoren za postopek odločanja, navedene pa so tudi obstoječe pravice in postopki, ki v skladu s pravom Unije in nacionalnim pravom fizičnim osebam ali njihovim zastopnikom omogočajo, da ugovarjajo uporabi tovrstnih sistemov na njih in zahtevajo sodno varstvo zoper odločitve, ki jih sprejmejo umetnointeligenčni sistemi, ali škodo, ki so jo povzročili, med drugim tudi pravica, da zahtevajo pojasnilo. Ta obveznost se ne uporablja za umetnointeligenčne sisteme, ki so z zakonom pooblaščeni za odkrivanje, preprečevanje, preiskovanje in pregon kaznivih dejanj, razen če so ti sistemi na voljo javnosti za prijavo kaznivega dejanja.

Sprememba 485

Predlog uredbe

Člen 52 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Uporabniki sistema za prepoznavanje čustev ali sistema za biometrično kategorizacijo o delovanju sistema obvestijo fizične osebe, ki so jim bile izpostavljene. Ta obveznost se ne uporablja za umetnointeligenčne sisteme, ki se uporabljajo za biometrično kategorizacijo ter so z zakonom dovoljeni za odkrivanje, preprečevanje in preiskovanje kaznivih dejanj.

2.   Uporabniki sistema za prepoznavanje čustev ali sistema za biometrično kategorizacijo , ki ni prepovedan v skladu s členom 5, o delovanju sistema pravočasno ter na jasen in razumljiv način obvestijo fizične osebe, ki so jim bile izpostavljene , in pridobijo njihovo privolitev pred obdelavo njihovih biometričnih in drugih osebnih podatkov v skladu z Uredbo (EU) 2016/679, Uredbo (EU) 2016/1725 in Direktivo (EU) 2016/280, kot je ustrezno . Ta obveznost se ne uporablja za umetnointeligenčne sisteme, ki se uporabljajo za biometrično kategorizacijo ter so z zakonom dovoljeni za odkrivanje, preprečevanje in preiskovanje kaznivih dejanj.

Sprememba 486

Predlog uredbe

Člen 52 – odstavek 3 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Uporabniki umetnointeligenčnega sistema, ki ustvarja ali manipulira slikovno , zvočno ali videovsebino , ki v znatni meri spominja na obstoječe osebe, predmete, kraje ali druge subjekte ali dogodke in bi se osebi lažno zdela verodostojna ali resnična („globoki ponaredek“), razkrijejo, da je bila vsebina umetno ustvarjena ali manipulirana.

3.   Uporabniki umetnointeligenčnega sistema, ki ustvarja ali manipulira besedilno , zvočno ali vizualno vsebino , ki bi se lažno zdela verodostojna ali resnična in v kateri brez privolitve nastopajo ljudje, ki dozdevno govorijo ali delajo nekaj, česar niso rekli ali naredili („globoki ponaredek“), na primeren način pravočasno ter v jasni in vidni obliki razkrijejo, da je bila vsebina umetno ustvarjena ali manipulirana , kadar je to mogoče, pa tudi ime fizične ali pravne osebe, ki je to vsebino ustvarila ali manipulirala. Razkritje pomeni označevanje vsebine, s katerim se sporoča, da je vsebina nepristna, in ki je prejemniku te vsebine jasno vidno. Za označevanje vsebine uporabniki upoštevajo splošno priznano najsodobnejšo tehnologijo ter ustrezne harmonizirane standarde in specifikacije.

Sprememba 487

Predlog uredbe

Člen 52 – odstavek 3 – pododstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

Vendar se prvi pododstavek ne uporablja, kadar je uporaba z zakonom dovoljena za odkrivanje, preprečevanje, preiskovanje in pregon kaznivih dejanj ali je potrebna za uresničevanje pravice do svobode izražanja in pravice do svobode umetnosti in znanosti, zagotovljene z Listino EU o temeljnih pravicah, ter ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb.

3a.     Odstavek 3 se ne uporablja, kadar je uporaba umetnointeligenčnega sistema, ki ustvarja ali manipulira zvočno ali vizualno vsebino, dovoljena z zakonom ali če je potrebna za uresničevanje pravice do svobode izražanja in pravice do svobode umetnosti in znanosti, zagotovljene z Listino EU o temeljnih pravicah, ter ob upoštevanju ustreznih zaščitnih ukrepov za pravice in svoboščine tretjih oseb. Kadar je vsebina del očitno ustvarjalnega, satiričnega, umetniškega ali fiktivnega kinematografskega ali podobnega dela ali programa ali vizualnih učinkov videoigre, so obveznosti glede preglednosti iz odstavka 3 omejene na razkritje, da gre za tovrstno ustvarjeno ali manipulirano vsebino, in sicer na ustrezen, jasen in viden način, ki ne ovira prikaza dela, in po potrebi na razkritje veljavnih avtorskih pravic. Organom preprečevanja, odkrivanja in preiskovanja kaznivih dejanj tudi ne preprečuje uporabe sistemov umetne inteligence, namenjenih odkrivanju globokih ponaredkov ter preprečevanju, preiskovanju in pregonu kaznivih dejanj, povezanih z njihovo uporabo.

Sprememba 488

Predlog uredbe

Člen 52 – odstavek 3 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3b.     Informacije iz odstavkov 1 do 3 se dajo na voljo fizičnim osebam najpozneje ob prvem stiku ali izpostavljenosti. Dostopne so ranljivim osebam, kot so invalidi ali otroci, po potrebi in kadar je to primerno, pa jih spremlja postopek posredovanja ali označevanja, namenjen izpostavljeni fizični osebi, pri čemer se upoštevajo splošno priznani najsodobnejši in ustrezni harmonizirani standardi in skupne specifikacije.

Sprememba 489

Predlog uredbe

Člen 53 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Regulativni peskovniki za umetno inteligenco, ki jih vzpostavijo pristojni organi ene ali več držav članic ali Evropski nadzornik za varstvo podatkov, zagotavljajo nadzorovano okolje , ki omogoča razvoj, testiranje in potrjevanje inovativnih umetnointeligenčnih sistemov za omejen čas pred dajanjem na trg ali v uporabo v skladu s posebnim načrtom . To se izvaja pod neposrednim nadzorom in smernicami pristojnih organov, da se zagotovi skladnost z zahtevami iz te uredbe ter po potrebi drugo zakonodajo Unije in držav članic, ki se nadzoruje v peskovniku .

1.    Države članice vzpostavijo vsaj en regulativni peskovnik za umetno inteligenco na nacionalni ravni , ki začne delovati najpozneje na dan začetka uporabe te uredbe . Ta peskovnik se lahko vzpostavi tudi skupaj eno ali več drugimi državami članicami .

Sprememba 490

Predlog uredbe

Člen 53 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Na regionalni ali lokalni ravni ali skupaj z drugimi državami članicami se lahko vzpostavijo tudi dodatni regulativni peskovniki za umetno inteligenco.

Sprememba 491

Predlog uredbe

Člen 53 – odstavek 1 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1b.     Komisija in Evropski nadzornik za varstvo podatkov lahko samostojno, skupaj ali v sodelovanju z eno ali več državami članicami vzpostavita tudi regulativne peskovnike za umetno inteligenco na ravni Unije.

Sprememba 492

Predlog uredbe

Člen 53 – odstavek 1 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1c.     Vzpostavitveni organi dodelijo zadostna sredstva za učinkovito in pravočasno izpolnjevanje zahtev tega člena.

Sprememba 493

Predlog uredbe

Člen 53 – odstavek 1 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1d.     Regulativni peskovniki za umetno inteligenco v skladu z merili iz člena 53a zagotavljajo nadzorovano okolje, ki spodbuja inovacije ter omogoča razvoj, testiranje in potrjevanje inovativnih umetnointeligenčnih sistemov za omejen čas pred dajanjem na trg ali v uporabo v skladu s posebnim načrtom, o katerem se dogovorijo potencialni ponudniki in vzpostavitveni organi.

Sprememba 494

Predlog uredbe

Člen 53 – odstavek 1 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1e.     Regulativni peskovniki za umetno inteligenco se vzpostavijo, da bi prispevali k naslednjim ciljem:

 

(a)

da bi pristojni organi potencialnim ponudnikom umetnointeligenčnih sistemov dali smernice za doseganje regulativne skladnosti s to uredbo ali po potrebi z drugo veljavno zakonodajo Unije in držav članic;

 

(b)

da bi potencialni ponudniki omogočili in olajšali testiranje in razvoj inovativnih rešitev, povezanih s sistemi umetne inteligence;

 

(c)

da bi zagotovili regulativno učenje v nadzorovanem okolju.

Sprememba 495

Predlog uredbe

Člen 53 – odstavek 1 f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1f.     Vzpostavitveni organi v peskovniku dajejo smernice in izvajajo nadzor, da bi ugotovili tveganja, zlasti za temeljne pravice, demokracijo in pravno državo, zdravje in varnost ter okolje, testirali in prikazali ukrepe za zmanjšanje ugotovljenih tveganj in njihovo učinkovitost ter poskrbeli za izpolnjevanje zahtev iz te uredbe in po potrebi iz druge zakonodaje Unije in držav članic.

Sprememba 496

Predlog uredbe

Člen 53 – odstavek 1 g (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1g.     Vzpostavitveni organi v peskovniku potencialnim ponudnikom, ki razvijajo umetnointeligenčne sisteme velikega tveganja, dajejo smernice, kako izpolnjevati zahteve iz te uredbe, in jih pri tem nadzorujejo, tako da lahko umetnointeligenčni sistemi izstopijo iz peskovnika in zanje velja domneva o izpolnjevanju posebnih zahtev iz te uredbe, ki so bile ocenjene v peskovniku. Če umetnointeligenčni sistem ob izstopu iz peskovnika te zahteve izpolnjuje, se domneva, da je skladen s to uredbo. V zvezi s tem organi za nadzor trga ali priglašeni organi, kot je ustrezno, v postopkih ugotavljanja skladnosti ali pri pregledih tržnega nadzora upoštevajo poročila o izstopu iz peskovnika, ki jih pripravi vzpostavitveni organ.

Sprememba 497

Predlog uredbe

Člen 53 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Države članice zagotovijo, da so nacionalni organi za varstvo podatkov in ti drugi nacionalni organi povezani z delovanjem regulativnega peskovnika za umetno inteligenco , če inovativni umetnointeligenčni sistemi vključujejo obdelavo osebnih podatkov ali kako drugače spadajo v nadzorno pristojnost drugih nacionalnih organov ali pristojnih organov, ki zagotavljajo ali podpirajo dostop do podatkov.

2.    Vzpostavitveni organi zagotovijo, da so v primeru , da inovativni umetnointeligenčni sistemi vključujejo obdelavo osebnih podatkov ali kako drugače spadajo v nadzorno pristojnost drugih nacionalnih organov ali pristojnih organov, ki zagotavljajo ali podpirajo dostop do osebnih podatkov , nacionalni organi za varstvo podatkov ali – v primerih iz odstavka 1b – ENVP in ti drugi nacionalni organi povezani z delovanjem regulativnega peskovnika za umetno inteligenco in vključeni v nadzor omenjenih vidikov v polni meri glede na svoja pooblastila .

Sprememba 498

Predlog uredbe

Člen 53 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Regulativni peskovniki za umetno inteligenco ne vplivajo na pooblastila pristojnih organov za nadzor in popravne ukrepe. Vsa pomembna tveganja za zdravje in varnost ter temeljne pravice , ugotovljena med razvojem in testiranjem takih sistemov, je treba nemudoma zmanjšati , v nasprotnem primeru pa postopek razvoja in testiranja ustaviti , dokler ne pride do takega zmanjšanja .

3.   Regulativni peskovniki za umetno inteligenco ne vplivajo na pooblastila pristojnih organov za nadzor in popravne ukrepe , tudi na regionalni ali lokalni ravni . Vsa pomembna tveganja za temeljne pravice, demokracijo in pravno državo, zdravje, varnost ali okolje , ugotovljena med razvojem in testiranjem teh umetnointeligenčnih sistemov, je treba nemudoma in ustrezno zmanjšati. Pristojni organi so pooblaščeni , da začasno ali trajno prekinejo postopek testiranja ali sodelovanje v peskovniku, če tveganj ni mogoče učinkovito zmanjšati , in o odločitvi obvestijo urad za umetno inteligenco .

Sprememba 499

Predlog uredbe

Člen 53 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.    Udeleženci v regulativnem peskovniku za umetno inteligenco so v skladu z veljavno zakonodajo Unije in držav članic o odgovornosti še naprej odgovorni za škodo, povzročeno tretjim osebam zaradi eksperimentov, ki se izvajajo v peskovniku.

4.    Potencialni ponudniki v regulativnem peskovniku za umetno inteligenco so v skladu z veljavno zakonodajo Unije in držav članic o odgovornosti še naprej odgovorni za škodo, povzročeno tretjim osebam zaradi eksperimentov, ki se izvajajo v peskovniku. Če pa potencialni ponudnik oz. ponudniki spoštujejo načrt iz odstavka 1c in pogoje za sodelovanje ter v dobri veri sledijo navodilom vzpostavitvenih organov, organi ne naložijo nobenih upravnih kazni za kršitev te uredbe.

Sprememba 500

Predlog uredbe

Člen 53 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.    Pristojni organi držav članic, ki so vzpostavili regulativne peskovnike za umetno inteligenco, usklajujejo svoje dejavnosti in sodelujejo v okviru Evropskega odbora za umetno inteligenco. Odboru in Komisiji predložijo letna poročila o rezultatih izvajanja navedenih shem, vključno z dobrimi praksami, pridobljenimi izkušnjami in priporočili o njihovi vzpostavitvi ter po potrebi o uporabi te uredbe in druge zakonodaje Unije, ki se nadzoruje v peskovniku.

5.    Vzpostavitveni organi usklajujejo svoje dejavnosti in sodelujejo v okviru urada za umetno inteligenco.

Sprememba 501

Predlog uredbe

Člen 53 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Vzpostavitveni organi o vzpostavitvi peskovnika obvestijo urad za umetno inteligenco ter lahko zaprosijo za podporo in smernice. Urad za umetno inteligenco objavi seznam načrtovanih in obstoječih peskovnikov ter ga posodablja, da bi v regulativnih peskovnikih spodbudil večjo interakcijo in nadnacionalno sodelovanje.

Sprememba 502

Predlog uredbe

Člen 53 – odstavek 5 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5b.     Vzpostavitveni organi uradu za umetno inteligenco in – razen če je Komisija edini vzpostavitveni organ – Komisiji predložijo letna poročila eno leto po vzpostavitvi peskovnika in nato vsako leto do njegovega prenehanja ter končno poročilo. Ta poročila vsebujejo informacije o napredku in rezultatih izvajanja teh peskovnikov, vključno z dobrimi praksami, incidenti, pridobljenimi izkušnjami in priporočili o njihovi vzpostavitvi ter po potrebi o uporabi in morebitne revizije te uredbe in drugega prava Unije, ki se nadzoruje v peskovniku. Ta letna poročila ali njihovi povzetki so na voljo javnosti na spletu.

Sprememba 503

Predlog uredbe

Člen 53 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.    Načini in pogoji delovanja regulativnih peskovnikov za umetno inteligenco , vključno z merili za upravičenost in postopkom za prijavo, izbiro, sodelovanje in izstop iz peskovnika, ter pravice in obveznosti udeležencev se določijo v izvedbenih aktih. Ti izvedbeni akti se sprejmejo v skladu s postopkom pregleda iz člena 74(2).

6.    Komisija razvije enotni in namenski vmesnik, ki vsebuje vse ustrezne informacije v zvezi s peskovniki , in na ravni Unije vzpostavi enotno kontaktno točko za interakcijo z regulativnimi peskovniki in da bi lahko deležniki pri pristojnih organih vlagali poizvedbe ter zaprošali za nezavezujoče smernice glede skladnosti inovativnih proizvodov, storitev in poslovnih modelov, ki vključujejo umetnointeligenčne tehnologije;

 

Komisija se po potrebi proaktivno usklajuje z nacionalnimi, regionalnimi in tudi lokalnimi organi.

Sprememba 504

Predlog uredbe

Člen 53 – odstavek 6 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

6a.     Za namene odstavkov 1 in 1a ima Komisija dopolnilno vlogo, tako da državam članicam omogoča, da nadgrajujejo svoje strokovno znanje, državam članicam, ki potrebujejo usmeritev za vzpostavitev in vodenje peskovnikov, pa pomaga in nudi tehnično znanje in vire.

Sprememba 505

Predlog uredbe

Člen 53 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 53a

 

Načini in delovanje regulativnih peskovnikov za umetno inteligenco

 

1.     Da bi preprečili razdrobljenost po Uniji, Komisija ob posvetovanju z uradom za umetno inteligenco sprejme delegirani akt, v katerem podrobno določi načine za vzpostavitev, razvoj, izvajanje, delovanje in nadzor regulativnih peskovnikov za umetno inteligenco, vključno z merili za upravičenost in postopkom za prijavo, izbiro, sodelovanje in izstop iz peskovnika, ter pravice in obveznosti udeležencev na podlagi določb iz tega člena.

 

2.     Na Komisijo se prenese pooblastilo, da najpozneje 12 mesecev po začetku veljavnosti te uredbe sprejme delegirane akte v skladu s postopkom iz člena 73 in zagotovi naslednje:

 

(a)

regulativni peskovniki so na voljo vsem potencialnim ponudnikom umetnointeligenčnih sistemov, ki se prijavijo in izpolnjujejo merila za upravičenost in izbor. Merila za dostop do regulativnega peskovnika so pregledna in pravična, vzpostavitveni organi pa o svoji odločitvi prosilce obvestijo v treh mesecih od datuma prijave;

 

(b)

regulativni peskovniki omogočajo širok in enak dostop ter so v skladu s povpraševanjem po sodelovanju;

 

(c)

dostop do regulativnih peskovnikov za umetno inteligenco je za MSP in zagonska podjetja brezplačen, brez poseganja v izredne stroške, ki jih lahko pristojni nacionalni organi izterjajo na pošten in sorazmeren način.

 

(d)

regulativni peskovniki olajšujejo vključevanje drugih ustreznih akterjev v ekosistem umetne inteligence, kot so priglašeni organi in organizacije za standardizacijo (MSP, zagonska podjetja, podjetja, inovatorji, obrati za testiranje in eksperimentiranje, raziskovalni in eksperimentalni laboratoriji ter vozlišča za digitalne inovacije, centri odličnosti, posamezni raziskovalci), da bi omogočili in olajšali sodelovanje z javnim in zasebnim sektorjem;

 

(e)

potencialnim ponudnikom omogočajo, da v nadzorovanem okolju izpolnjujejo obveznosti ugotavljanja skladnosti iz te uredbe ali prostovoljno uporabljajo kodekse ravnanja iz člena 69;

 

(f)

postopki, procesi in upravne zahteve za prijavo, izbiro, sodelovanje in izstop iz peskovnika so preprosti, lahko razumljivi in jasno predstavljeni, da bi olajšali udeležbo MSP in zagonskih podjetij z omejenimi pravnimi in upravnimi zmogljivostmi, ter so racionalizirani po vsej Uniji, da bi preprečili razdrobljenost in da bi bila udeležba v regulativnem peskovniku, ki ga vzpostavi država članica, Komisija ali ENVP, vzajemno in enotno priznana ter da bi imela enake pravne učinke po vsej Uniji;

 

(g)

udeležba v regulativnem peskovniku za umetno inteligenco je omejena na obdobje, ki je primerno glede na kompleksnost in obseg projekta;

 

(h)

peskovniki omogočajo razvoj orodij in infrastrukture za testiranje, primerjalno analizo, ocenjevanje in razlago razsežnosti umetnointeligenčnih sistemov, ki so pomembne za peskovnike, kot so točnost, robustnost in kibernetska varnost, prispevajo pa tudi k zmanjšanju tveganj v zvezi s temeljnimi pravicami, okoljem in družbo na splošno.

 

3.     Potencialnim ponudnikom v peskovnikih, zlasti MSP in zagonskim podjetjem, se olajša dostop do storitev pred uvedbo, kot so smernice za izvajanje te uredbe, do drugih storitev z dodano vrednostjo, kot je pomoč pri standardizacijskih dokumentih ter certificiranju in posvetovanju, ter do drugih pobud enotnega digitalnega trga, kot so zmogljivosti za testiranje in eksperimentiranje, digitalna vozlišča, centri odličnosti in zmogljivosti EU za primerjalno analizo.

Sprememba 506

Predlog uredbe

Člen 54 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Nadaljnja obdelava osebnih podatkov za razvoj določenih umetnointeligenčnih sistemov v javnem interesu v regulativnem peskovniku za umetno inteligenco

Nadaljnja obdelava podatkov za razvoj določenih umetnointeligenčnih sistemov v javnem interesu v regulativnem peskovniku za umetno inteligenco

Sprememba 507

Predlog uredbe

Člen 54 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1f.   V regulativnem peskovniku za umetno inteligenco se osebni podatki, zakonito zbrani za druge namene, obdelujejo za razvoj in testiranje nekaterih inovativnih umetnointeligenčnih sistemov v peskovniku pod naslednjimi pogoji:

1.   V regulativnem peskovniku za umetno inteligenco se osebni podatki, zakonito zbrani za druge namene, smejo obdelovati samo za razvoj in testiranje nekaterih inovativnih umetnointeligenčnih sistemov v peskovniku , ko so izpolnjeni vsi naslednji pogoji:

Sprememba 508

Predlog uredbe

Člen 54 – odstavek 1 – točka a – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

inovativni umetnointeligenčni sistemi se razvijejo za zaščito bistvenega javnega interesa na enem ali več naslednjih področjih:

(a)

umetnointeligenčni sistemi se razvijejo za zaščito bistvenega javnega interesa na enem ali več naslednjih področjih:

 

 

(ii)

javne varnosti in javnega zdravja, vključno z odkrivanjem, diagnozo, nadzorom in zdravljenjem bolezni;

 

 

(iii)

visoke ravni varstva in izboljšanja kakovosti okolja, ohranjanja biotske raznovrstnosti, zmanjšanja onesnaževanja ter blažitve podnebnih sprememb in prilagajanja nanje;

 

 

(iiia)

varnosti in odpornosti prometnih sistemov, infrastrukture in mrež.

Sprememba 509

Predlog uredbe

Člen 54 – odstavek 1 – točka a – točka i

Besedilo, ki ga predlaga Komisija

Sprememba

(i)

preprečevanja, preiskovanja, odkrivanja ali pregona kaznivih dejanj ali izvrševanja kazenskih sankcij, vključno z varovanjem pred grožnjami javni varnosti in njihovim preprečevanjem, pod nadzorom in odgovornostjo pristojnih organov. Obdelava temelji na pravu države članice ali pravu Unije;

črtano

Sprememba 510

Predlog uredbe

Člen 54 – odstavek 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

obstajajo učinkoviti mehanizmi za spremljanje, s katerimi se ugotovi, ali se med eksperimentiranjem v peskovniku lahko pojavijo velika tveganja za temeljne pravice posameznikov, na katere se nanašajo osebni podatki, ter ali obstajajo mehanizmi za odzivanje, s katerimi se ta tveganja nemudoma zmanjšajo in po potrebi ustavi obdelava;

(c)

obstajajo učinkoviti mehanizmi za spremljanje, s katerimi se ugotovi, ali se med eksperimentiranjem v peskovniku lahko pojavijo velika tveganja za pravice in svoboščine posameznikov, na katere se nanašajo osebni podatki, kot je navedeno v členu 35 Uredbe (EU) 2016/679 in členu 35 Uredbe (EU) 2018/1725, ter mehanizmi za odzivanje, s katerimi se ta tveganja nemudoma zmanjšajo in po potrebi ustavi obdelava;

Sprememba 511

Predlog uredbe

Člen 54 – odstavek 1 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

vsi osebni podatki, ki se obdelujejo v okviru peskovnika, so v funkcionalno ločenem, izoliranem in zaščitenem okolju za obdelavo podatkov pod nadzorom udeležencev , dostop do teh podatkov pa imajo samo pooblaščene osebe;

(d)

vsi osebni podatki, ki se obdelujejo v okviru peskovnika, so v funkcionalno ločenem, izoliranem in zaščitenem okolju za obdelavo podatkov pod nadzorom potencialnih ponudnikov , dostop do teh podatkov pa imajo samo pooblaščene osebe;

Sprememba 512

Predlog uredbe

Člen 54 – odstavek 1 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

nobena obdelava osebnih podatkov v okviru peskovnika ne sme biti podlaga za sprejetje ukrepov ali odločitev, ki bi vplivali na posameznike, na katere se nanašajo osebni podatki;

(f)

nobena obdelava osebnih podatkov v okviru peskovnika ne sme biti podlaga za sprejetje ukrepov ali odločitev, ki bi vplivali na posameznike, na katere se nanašajo osebni podatki , niti ne vpliva na uveljavljanje njihovih pravic, določenih v pravu Unije o varstvu osebnih podatkov ;

Sprememba 513

Predlog uredbe

Člen 54 – odstavek 1 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

vsi osebni podatki, obdelani v okviru peskovnika, se izbrišejo, ko se sodelovanje v peskovniku konča ali ko se izteče obdobje hrambe osebnih podatkov;

(g)

vsi osebni podatki, obdelani v okviru peskovnika, so zaščiteni z ustreznimi tehničnimi in organizacijskimi ukrepi, se izbrišejo, ko se sodelovanje v peskovniku konča ali ko se izteče obdobje hrambe osebnih podatkov;

Sprememba 514

Predlog uredbe

Člen 54 – odstavek 1 – točka h

Besedilo, ki ga predlaga Komisija

Sprememba

(h)

dnevniki obdelave osebnih podatkov v okviru peskovnika se hranijo ves čas trajanja sodelovanja v peskovniku in eno leto po njegovem zaključku, in sicer izključno za izpolnjevanje obveznosti glede odgovornosti in dokumentacije v skladu s tem členom ali drugo veljavno zakonodajo Unije ali držav članic, in le toliko časa, kolikor je potrebno za ta namen ;

(h)

dnevniki obdelave osebnih podatkov v okviru peskovnika se hranijo ves čas trajanja sodelovanja v peskovniku;

Sprememba 515

Predlog uredbe

Člen 54 – odstavek 1 – točka j

Besedilo, ki ga predlaga Komisija

Sprememba

(j)

kratek povzetek projekta umetne inteligence, razvitega v peskovniku, njegovih ciljev in pričakovanih rezultatov, je objavljen na spletišču pristojnih organov.

(j)

kratek povzetek sistema umetne inteligence, razvitega v peskovniku, njegovih ciljev , predpostavk in pričakovanih rezultatov, je objavljen na spletišču pristojnih organov.

Sprememba 516

Predlog uredbe

Člen 54 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 54a

 

Spodbujanje raziskav in razvoja umetne inteligence v podporo družbeno in okoljsko koristnim rezultatom

 

1.     Države članice spodbujajo raziskave in razvoj rešitev umetne inteligence, ki podpirajo družbeno in okoljsko koristne rezultate, med drugim z razvojem rešitev, ki temeljijo na umetni inteligenci, za povečanje dostopnosti za invalide, odpravljanje socialno-ekonomskih neenakosti ter doseganje trajnostnih in okoljskih ciljev, tako da:

 

(a)

ustreznim projektom omogočijo prednostni dostop do regulativnih peskovnikov za umetno inteligenco, če izpolnjujejo pogoje za upravičenost;

 

(b)

namenijo javna sredstva, tudi iz ustreznih sredstev EU, za raziskave in razvoj umetne inteligence v podporo družbeno in okoljsko koristnim rezultatom;

 

(c)

organizirajo posebne dejavnosti ozaveščanja o uporabi te uredbe, razpoložljivosti in postopkih prijave za namensko financiranje, ki jih prilagodijo potrebam teh projektov;

 

(d)

po potrebi vzpostavijo posebne kanale, tudi v peskovnikih, za komunikacijo z nosilci projektov, da zagotovijo smernice in odgovore na vprašanja o izvajanju te uredbe.

 

Države članice podpirajo civilno družbo in socialne deležnike pri vodenju tovrstnih projektov ali sodelovanju v njih.

Sprememba 517

Predlog uredbe

Člen 55 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Ukrepi za male ponudnike in uporabnike

Ukrepi za MSP, zagonska podjetja in uporabnike

Sprememba 518

Predlog uredbe

Člen 55 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

malim ponudnikom in zagonskim podjetjem zagotovijo prednostni dostop do regulativnih peskovnikov za umetno inteligenco, če izpolnjujejo pogoje za upravičenost;

(a)

MSP in zagonskim podjetjem s sedežem v Uniji zagotovijo prednostni dostop do regulativnih peskovnikov za umetno inteligenco, če izpolnjujejo pogoje za upravičenost;

Sprememba 519

Predlog uredbe

Člen 55 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

organizirajo posebne dejavnosti ozaveščanja o uporabi te uredbe, prilagojene potrebam malih ponudnikov in uporabnikov;

(b)

organizirajo posebne dejavnosti ozaveščanja ter pospešenega pridobivanja digitalnih kompetenc o uporabi te uredbe, prilagojene potrebam MSP, zagonskih podjetij in uporabnikov;

Sprememba 520

Predlog uredbe

Člen 55 – odstavek 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

po potrebi vzpostavijo poseben kanal za komunikacijo z  malimi ponudniki in uporabniki ter drugimi inovatorji, da zagotovijo smernice in odgovore na vprašanja o izvajanju te uredbe.

(c)

uporabijo obstoječe posebne kanale in po potrebi vzpostavijo nove posebne kanale za komunikacijo z  MSP, zagonskimi podjetij, uporabniki in drugimi inovatorji, da zagotovijo smernice in odgovore na vprašanja o izvajanju te uredbe;

Sprememba 521

Predlog uredbe

Člen 55 – odstavek 1 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

spodbujajo sodelovanje MSP in drugih ustreznih deležnikov v postopku razvoja standardizacije.

Sprememba 522

Predlog uredbe

Člen 55 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Pri določanju pristojbin za ugotavljanje skladnosti v skladu s členom 43 se upoštevajo posebni interesi in potrebe malih ponudnikov , pri čemer se te pristojbine znižajo sorazmerno z njihovo velikostjo in velikostjo trga .

2.   Pri določanju pristojbin za ugotavljanje skladnosti v skladu s členom 43 se upoštevajo posebni interesi in potrebe MSP, zagonskih podjetij in uporabnikov , pri čemer se te pristojbine znižajo sorazmerno z  razvojno stopnjo, njihovo velikostjo , velikostjo trga in povpraševanjem na njem. Komisija stroške certificiranja in skladnosti za MSP in zagonska podjetja redno ocenjuje, med drugim s preglednimi posveti z MSP, zagonskimi podjetji in uporabniki, z državami članicami pa sodeluje pri znižanju teh stroškov, ko je to možno. Komisija o teh ugotovitvah poroča Evropskemu parlamentu in Svetu v poročilu o oceni in pregledu te uredbe iz člena 84(2).

Sprememba 523

Predlog uredbe

Člen 56 – oddelek 1 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

 

Naslov

 

ODDELEK 1: Splošne določbe o Evropskem uradu za umetno inteligenco

Sprememba 524

Predlog uredbe

Člen 56 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Ustanovitev Evropskega odbora za umetno inteligenco

Ustanovitev Evropskega urada za umetno inteligenco

Sprememba 525

Predlog uredbe

Člen 56 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ustanovi se Evropski odbor za umetno inteligenco (v nadaljnjem besedilu: Odbor).

1.   Ustanovi se Evropski urad za umetno inteligenco (v nadaljnjem besedilu: urad za umetno inteligenco). Urad za umetno inteligenco je neodvisen organ Unije. Odbor je pravna oseba.

Sprememba 526

Predlog uredbe

Člen 56 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Odbor svetuje in pomaga Komisiji, da:

2.    Urad za umetno inteligenco ima sekretariat ter ima ustrezna finančna sredstva in osebje za opravljanje svojih nalog v skladu s to uredbo.

Sprememba 527

Predlog uredbe

Člen 56 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Sedež urada za umetno inteligenco je v Bruslju.

Sprememba 528

Predlog uredbe

Člen 56 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 56a

Struktura

Upravno in vodstveno strukturo urada za umetno inteligenco sestavljata:

(a)

upravni odbor, ki ima predsednika;

(b)

sekretariat, ki ga vodi izvršni direktor;

(c)

svetovalni forum.

Sprememba 529

Predlog uredbe

Člen 56 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 56b

 

Naloge urada za umetno inteligenco

 

Urad za umetno inteligenco opravlja naslednje naloge:

 

(a)

v zvezi z izvajanjem te uredbe podpira, svetuje in sodeluje z državami članicami, nacionalnimi nadzornimi organi, Komisijo ter drugimi institucijami, organi, uradi in agencijami Unije;

 

(b)

spremlja in skrbi za učinkovito in dosledno uporabo te uredbe, pri čemer ne posega v naloge nacionalnih nadzornih organov;

 

(c)

prispeva k usklajevanju med nacionalnimi nadzornimi organi, odgovornimi za uporabo te uredbe,

 

(d)

ima vlogo posrednika v razpravah o resnih nesoglasjih, ki se lahko pojavijo med pristojnimi organi v zvezi z uporabo te uredbe;

 

(e)

usklajuje skupne preiskave na podlagi člena 66a;

 

(f)

prispeva k učinkovitemu sodelovanju s pristojnimi organi tretjih držav in mednarodnimi organizacijami;

 

(g)

zbira in izmenjuje strokovno znanje in dobro prakso držav članic ter pomaga nacionalnim nadzornim organom držav članic in Komisiji pri razvoju organizacijskega in tehničnega strokovnega znanja, potrebnega za izvajanje te uredbe, vključno s podporo pri vzpostavitvi in ohranjanju nabora strokovnjakov Unije;

 

(h)

na lastno pobudo ali na zahtevo upravnega odbora ali Komisije preuči vprašanja v zvezi z izvajanjem te uredbe ter izdaja mnenja, priporočila ali pisne prispevke, tudi v zvezi z:

 

 

(i)

tehničnimi specifikacijami ali veljavnimi standardi;

 

 

(ii)

smernicami Komisije;

 

 

(iii)

kodeksi ravnanja in njihovo uporabo, in sicer v tesnem sodelovanju z industrijo in drugimi ustreznimi deležniki;

 

 

(iv)

morebitno revizijo te uredbe, pripravo delegiranih aktov in morebitno uskladitvijo te uredbe s pravnimi akti iz Priloge II;

 

 

(v)

trendi, kot so svetovna konkurenčnost Evrope na področju umetne inteligence, uvajanje umetne inteligence v Uniji, razvoj digitalnih kompetenc ter prihajajoče sistemske grožnje, povezane z umetno inteligenco;

 

 

(vi)

smernicami o tem, kako se ta uredba uporablja za nenehno razvijajočo se tipologijo vrednostnih verig umetne inteligence, zlasti o učinkih teh sprememb na odgovornost vseh vključenih subjektov;

 

(i)

izdaja:

 

 

(i)

letno poročilo, ki vključuje oceno izvajanja te uredbe, pregled poročil o resnih incidentih iz člena 62 in delovanje podatkovne zbirke iz člena 60;

 

 

(ii)

priporočila Komisiji o kategorizaciji prepovedanih praks, umetnointeligenčnih sistemih velikega tveganja iz Priloge III, kodeksih ravnanja iz člena 69 in uporabi splošnih načel iz člena 4a;

 

(j)

pomaga organom pri vzpostavljanju in razvoju regulativnih peskovnikov ter olajšuje sodelovanje med temi peskovniki;

 

(k)

organizira srečanja z agencijami in organi upravljanja Unije, katerih naloge so povezane z umetno inteligenco in izvajanjem te uredbe;

 

(l)

organizira četrtletne posvete s svetovalnim forumom in po potrebi javne posvete z drugimi deležniki ter rezultate teh posvetov objavi na svojem spletnem mestu;

 

(m)

spodbuja ozaveščenost in razumevanje javnosti o prednostih, tveganjih, zaščitnih ukrepih ter pravicah in obveznostih, povezanih z uporabo umetnointeligenčnih sistemov;

 

(n)

spodbuja oblikovanje skupnih meril in skupnega razumevanja ustreznih konceptov iz te uredbe med udeleženci na trgu in pristojnimi organi;

 

(o)

spremlja temeljne modele in organizira redni dialog z njihovimi razvijalci v zvezi z njihovim izpolnjevanjem zahtev in v zvezi z umetnointeligenčnimi sistemi, ki te umetnointeligenčne modele uporabljajo;

 

(p)

zagotavlja razlagalne smernice o tem, kako se akt o umetni inteligenci uporablja za nenehno razvijajočo se tipologijo vrednostnih verig umetne inteligence in kako bodo te spremembe vplivale na odgovornost vseh vključenih subjektov v različnih scenarijih, ki temeljijo na splošno priznanem najsodobnejšem tehnološkem razvoju, tudi kot se odraža v ustreznih harmoniziranih standardih;

 

(q)

zagotovi poseben nadzor in spremljanje ter institucionalizira redni dialog s ponudniki temeljnih modelov o tem, ali temeljni modeli in umetnointeligenčni sistemi, ki te modele uporabljajo, izpolnjujejo zahteve iz člena 28b te uredbe, ter o primerih dobre prakse samoupravljanja v tem sektorju. Vsakega sestanka se lahko udeležijo nacionalni nadzorni organi, priglašeni organi in organi za nadzor trga in na njem sodelujejo;

 

(r)

izdaja in redno posodablja smernice o mejnih vrednostih, na podlagi katerih se učenje temeljnega modela pojmuje kot obsežen cikel učenja, beleži in spremlja znane primere obsežnih ciklov učenja ter izdaja letno poročilo o stanju na področju razvoja, širjenja in uporabe temeljnih modelov ter v njem navede tudi politične možnosti za obravnavanje tveganj in priložnosti, povezanih s temeljnimi modeli;

 

(s)

spodbuja pismenost na področju umetne inteligence.

Sprememba 530

Predlog uredbe

Člen 56 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 56c

 

Odgovornost, neodvisnost in preglednost

 

1.     Urad za umetno inteligenco:

 

(a)

je v skladu s to uredbo za svoje ravnanje odgovoren Evropskemu parlamentu in Svetu;

 

(b)

pri opravljanju svojih nalog ali izvajanju svojih pooblastil deluje neodvisno;

 

(c)

skrbi za visoko raven preglednosti glede svojih dejavnosti in v zvezi s tem razvije dobre upravne prakse.

 

Za dokumente, ki jih ima urad za umetno inteligenco, se uporablja Uredba (ES) št. 1049/2001.

Sprememba 531

Predlog uredbe

Člen 57 a (novo) – oddelek 2 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

 

Naslov

 

ODDELEK 2: Upravni odbor

Sprememba 532

Predlog uredbe

Člen 57 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 57a

 

Sestava upravnega odbora

 

1.     Upravni odbor sestavljajo naslednji člani:

 

(a)

po en predstavnik nacionalnega nadzornega organa vsake države članice;

 

(b)

en predstavnik Komisije;

 

(c)

en predstavnik Evropskega nadzornika za varstvo podatkov (ENVP);

 

(d)

en predstavnik Agencije Evropske unije za kibernetsko varnost (ENISA);

 

(e)

en predstavnik Agencije za temeljne pravice.

 

Vsak predstavnik nacionalnega nadzornega organa ima en glas. Predstavniki Komisije, Evropskega nadzornika za varstvo podatkov, Agencije Evropske unije za kibernetsko varnost in Agencije za temeljne pravice nimajo glasovalnih pravic. Vsak član ima enega namestnika. Pri imenovanju članov in nadomestnih članov upravnega odbora se upošteva potreba po uravnoteženi zastopanosti spolov. Imena članov upravnega odbora in njihovih namestnikov se objavijo.

 

2.     Člani in namestniki članov upravnega odbora ne smejo imeti nasprotujočih si položajev ali poslovnih interesov v zvezi s katerim koli področjem, povezanim z uporabo te uredbe.

 

3.     Pravila za seje in glasovanje upravnega odbora ter imenovanje in razrešitev izvršnega direktorja so določena v poslovniku iz člena 57b, točka (a).

Sprememba 533

Predlog uredbe

Člen 57 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 57b

 

Naloge upravnega odbora

 

1.     Upravni odbor opravlja naslednje naloge:

 

(a)

sprejema strateške odločitve o dejavnostih urada za umetno inteligenco in svoj poslovnik z dvotretjinsko večino svojih članov;

 

(b)

izvaja svoj poslovnik;

 

(c)

sprejme enotni programski dokument urada za umetno inteligenco in njegovo letno javno poročilo ter ga posreduje Evropskemu parlamentu, Svetu, Komisiji in Računskemu sodišču;

 

(d)

sprejme proračun urada za umetno inteligenco;

 

(e)

imenuje izvršnega direktorja in po potrebi podaljša ali skrajša njegov mandat ali ga razreši s položaja;

 

(f)

odloča o vzpostavitvi notranjih struktur urada za umetno inteligenco in po potrebi o spremembi teh struktur, ki je potrebna za izpolnjevanje nalog urada za umetno inteligenco.

Sprememba 534

Predlog uredbe

Člen 57c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 57c

Predsednik upravnega odbora

1.     Upravni odbor izmed svojih članov z glasovalno pravico z navadno večino izvoli predsednika in dva namestnika.

2.     Mandat predsednika in njegovih namestnikov traja štiri leta. Mandat predsednika in njegovih namestnikov se lahko enkrat podaljša.

Sprememba 535

Predlog uredbe

Člen 57 – oddelek 3 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Struktura Odbora

Sekretariat

Sprememba 536

Predlog uredbe

Člen 57 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Odbor sestavljajo nacionalni nadzorni organi, ki jih zastopa vodja ali enakovreden visoki uradnik tega organa, in Evropski nadzornik za varstvo podatkov. Na sestanke se lahko povabijo tudi drugi nacionalni organi, kadar so vprašanja, o katerih se razpravlja, pomembna zanje.

1.    Dejavnosti sekretariata vodi izvršni direktor. Izvršni direktor je za svoje ravnanje odgovoren upravnemu odboru. Brez poseganja v pristojnosti upravnega odbora in institucij Unije izvršni direktor ne sme zahtevati ali sprejemati nobenih navodil vlade ali drugega organa.

Sprememba 537

Predlog uredbe

Člen 57 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Odbor sprejme svoj poslovnik z navadno večino svojih članov po soglasju Komisije. Poslovnik vsebuje tudi operativne vidike , povezane z izvajanjem nalog Odbora iz člena 58. Odbor lahko po potrebi ustanovi podskupine za preučitev posebnih vprašanj.

2.    Izvršni direktor se udeležuje predstavitev o vseh zadevah, povezanih z dejavnostmi urada za umetno inteligenco , in na povabilo Evropskega parlamenta ali Sveta poroča o izvajanju njegovih dolžnosti .

Sprememba 538

Predlog uredbe

Člen 57 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.    Odboru predseduje Komisija. Komisija skliče sestanke in pripravi dnevni red v skladu z nalogami Odbora na podlagi te uredbe in v skladu s poslovnikom. Komisija zagotavlja upravno in analitično podporo dejavnostim odbora v skladu s to uredbo.

3.    Izvršni direktor zastopa urad za umetno inteligenco, tudi mednarodnih forumih za sodelovanje na področju umetne inteligence .

Sprememba 539

Predlog uredbe

Člen 57 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.    Odbor lahko na svoje seje povabi zunanje strokovnjake in opazovalce ter organizira izmenjavo informacij z zainteresiranimi tretjimi stranmi , da jih v ustreznem obsegu upošteva pri svojih dejavnostih. V ta namen lahko Komisija olajša izmenjave med Odborom in drugimi organi , uradi, agencijami in svetovalnimi skupinami Unije.

4.    Sekretariat upravnemu odboru in svetovalnemu forumu nudi analitično , upravno in logistično podporo, potrebno za opravljanje nalog urada za umetno inteligenco, med drugim tako , da:

 

(a)

izvaja sklepe, programe in dejavnosti, ki jih sprejme upravni odbor;

 

(b)

vsako leto pripravi osnutek enotnega programskega dokumenta, osnutek proračuna, letno poročilo o dejavnostih urada za umetno inteligenco, osnutke mnenj in osnutke stališč urada za umetno inteligenco ter jih predloži upravnemu odboru;

 

(c)

se usklajuje z mednarodnimi forumi za namene sodelovanja na področju umetne inteligence.

Sprememba 540

Predlog uredbe

Člen 58 – oddelek 4 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Naloge Odbora

Svetovalni forum

Sprememba 541

Predlog uredbe

Člen 58 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

Odbor pri svetovanju in pomoči Komisiji smislu člena 56( 2 ) zlasti:

Svetovalni forum uradu za umetno inteligenco zagotavlja prispevek deležnikov v zadevah, povezanih s to uredbo, zlasti zvezi z nalogami iz člena 56 b, točka ( l ).

Sprememba 542

Predlog uredbe

Člen 58 – odstavek 2 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člani svetovalnega foruma predstavljajo uravnotežen izbor deležnikov, med drugim iz industrije, zagonskih podjetij, MSP, civilne družbe, socialnih partnerjev in akademskih krogov. Članstvo v svetovalnem forumu je uravnoteženo z vidika komercialnih in nekomercialnih interesov, v kategoriji poslovnih interesov pa z vidika MSP in drugih podjetij.

Sprememba 543

Predlog uredbe

Člen 58 – odstavek 3 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Upravni odbor imenuje člane svetovalnega foruma v skladu z izbirnim postopkom, določenim v poslovniku urada za umetno inteligenco, pri čemer upošteva, da je potrebna preglednost, in ravna v skladu z merili iz odstavka 2.

Sprememba 544

Predlog uredbe

Člen 58 – odstavek 4 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Mandat članov svetovalnega foruma traja dve leti in se lahko podaljša še za največ štiri leta.

Sprememba 545

Predlog uredbe

Člen 58 – odstavek 5 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Stalni člani svetovalnega foruma so Evropski odbor za standardizacijo (CEN), Evropski odbor za elektrotehnično standardizacijo (CENELEC) in Evropski inštitut za telekomunikacijske standarde (ETSI). Skupno raziskovalno središče je stalni član brez glasovalne pravice.

Sprememba 546

Predlog uredbe

Člen 58 – odstavek 6 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Svetovalni odbor pripravi svoj poslovnik. Med svojimi člani izvoli dva sopredsednika v skladu z merili iz odstavka 2. Mandat sopredsednikov traja dve leti in se lahko enkrat podaljša.

Sprememba 547

Predlog uredbe

Člen 58 – odstavek 7 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Svetovalni forum se sestane najmanj štirikrat na leto. Svetovalni forum lahko na svoje seje povabi strokovnjake in druge deležnike. Izvršni direktor se lahko po uradni dolžnosti udeleži sej svetovalnega foruma.

Sprememba 548

Predlog uredbe

Člen 58 – odstavek 8 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Svetovalni forum lahko pri izpolnjevanju svoje vloge iz odstavka 1 pripravi mnenja, priporočila in pisne prispevke.

Sprememba 549

Predlog uredbe

Člen 58 – odstavek 9 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Svetovalni forum lahko po potrebi ustanovi stalne ali začasne podskupine za preučitev posebnih vprašanj, povezanih s cilji te uredbe.

Sprememba 550

Predlog uredbe

Člen 58 – odstavek 10 (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Svetovalni forum pripravi letno poročilo o svojih dejavnostih. To poročilo se da na voljo javnosti.

Sprememba 551

Predlog uredbe

Člen 58 a – oddelek 5 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

 

Evropski organi za primerjalno analizo

Sprememba 552

Predlog uredbe

Člen 58 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 58a

Primerjalna analiza

Evropski organi za primerjalno analizo iz člena 15(1a) in urad za umetno inteligenco v tesnem sodelovanju z mednarodnimi partnerji skupaj razvijejo stroškovno učinkovite smernice in zmogljivosti za merjenje in primerjavo vidikov umetnointeligenčnih sistemov in komponent umetne inteligence, zlasti temeljnih modelov, pomembnih za skladnost s to uredbo in njeno izvrševanje, na podlagi splošno priznanih najnovejših dosežkov, tudi kot se odražajo v ustreznih harmoniziranih standardih.

Sprememba 553

Predlog uredbe

Člen 59 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Imenovanje pristojnih nacionalnih organov

Imenovanje nacionalnih nadzornih organov

Sprememba 554

Predlog uredbe

Člen 59 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Pristojne nacionalne organe ustanovi ali imenuje vsaka država članica za zagotavljanje uporabe in izvajanja te uredbe. Pristojni nacionalni organi so organizirani tako, da zagotavljajo objektivnost in nepristranskost svojih dejavnosti.

1.   Vsaka država članica do …[tri mesece po začetku veljavnosti te uredbe] imenuje en nacionalni nadzorni organ, ki je organiziran tako, da zagotavlja objektivnost in nepristranskost svojih dejavnosti in nalog .

Sprememba 555

Predlog uredbe

Člen 59 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Vsaka država članica izmed pristojnih nacionalnih organov imenuje nacionalni nadzorni organ. Nacionalni nadzorni organ deluje kot priglasitveni organ in organ za nadzor trga , razen če ima država članica organizacijske in upravne razloge za imenovanje več kot enega organa .

2.    Nacionalni nadzorni organ zagotavlja uporabo in izvajanje te uredbe. Kar zadeva umetnointeligenčne sisteme velikega tveganja, ki so povezani s proizvodi, za katere se uporabljajo pravni akti iz Priloge II, pristojni organi, imenovani na podlagi teh pravnih aktov , še naprej vodijo upravne postopke. Če pa zadeva vključuje vidike, izrecno zajete v tej uredbi, morajo ti pristojni organi spoštovati ukrepe, povezane s temi vidiki, ki jih izda nacionalni nadzorni organ, imenovan v skladu s to uredbo. Nacionalni nadzorni organ deluje kot organ za nadzor trga .

Sprememba 556

Predlog uredbe

Člen 59 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Države članice obvestijo Komisijo o svojem imenovanju ali imenovanjih in po potrebi razlogih za imenovanje več kot enega organa .

3.   Države članice do [trije meseci po začetku veljavnosti te uredbe] objavijo ter uradu za umetno inteligenco in Komisiji sporočijo ime nacionalnega nadzornega organa ter informacije tem, kako je mogoče stopiti v stik z njim. Nacionalni nadzorni organ deluje kot enotna kontaktna točka za to uredbo in bi moral biti dosegljiv prek elektronskih komunikacijskih sredstev .

Sprememba 557

Predlog uredbe

Člen 59 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Države članice zagotovijo, da imajo pristojni nacionalni organi na voljo ustrezne finančne in človeške vire za izpolnjevanje svojih nalog v skladu s to uredbo. Pristojni nacionalni organi imajo zlasti zadostno število stalno razpoložljivega osebja, katerega kompetence in strokovno znanje vključujeta poglobljeno razumevanje tehnologij umetne inteligence, podatkov in računalniške obdelave podatkov, temeljnih pravic, zdravstvenih in varnostnih tveganj ter poznavanje obstoječih standardov in pravnih zahtev.

4.   Države članice zagotovijo, da ima nacionalni nadzorni organ na voljo ustrezne tehnične, finančne in človeške vire in infrastrukturo za učinkovito izpolnjevanje svojih nalog v skladu s to uredbo. Nacionalni nadzorni organi imajo zlasti zadostno število stalno razpoložljivega osebja, katerega kompetence in strokovno znanje vključujeta poglobljeno razumevanje tehnologij umetne inteligence, podatkov in računalniške obdelave podatkov, varstva osebnih podatkov, kibernetske varnosti, konkurenčnega prava, temeljnih pravic, zdravstvenih in varnostnih tveganj ter poznavanje obstoječih standardov in pravnih zahtev. Države članice vsako leto ocenijo in po potrebi posodobijo zahteve glede usposobljenosti in virov iz tega odstavka.

Sprememba 558

Predlog uredbe

Člen 59 – odstavek 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.     Vsak nacionalni nadzorni organ izvršuje svoja pooblastila in opravlja svoje dolžnosti neodvisno, nepristransko in brez predsodkov. Člani vsakega nacionalnega nadzornega organa pri opravljanju svojih nalog in izvajanju pooblastil v skladu s to uredbo ne zahtevajo oziroma ne sprejemajo navodil od nobenega organa in se vzdržijo vseh dejanj, ki so nezdružljiva z njihovimi dolžnostmi.

Sprememba 559

Predlog uredbe

Člen 59 – odstavek 4 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4b.     Nacionalni nadzorni organi izpolnjujejo minimalne zahteve glede kibernetske varnosti, določene za subjekte javne uprave, ki so opredeljeni kot izvajalci bistvenih storitev v skladu z Direktivo (EU) 2022/2555.

Sprememba 560

Predlog uredbe

Člen 59 – odstavek 4 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4c.     Nacionalni nadzorni organi pri opravljanju svojih nalog delujejo v skladu z obveznostmi glede zaupnosti iz člena 70.

Sprememba 561

Predlog uredbe

Člen 59 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Države članice Komisiji vsako leto poročajo o stanju finančnih in človeških virov pristojnih nacionalnih organov z oceno njihove ustreznosti. Komisija te informacije posreduje odboru v razpravo in morebitna priporočila.

5.   Države članice Komisiji vsako leto poročajo o stanju finančnih in človeških virov nacionalnega nadzornega organa z oceno njihove ustreznosti. Komisija te informacije posreduje uradu za umetno inteligenco v razpravo in morebitna priporočila.

Sprememba 562

Predlog uredbe

Člen 59 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.     Komisija olajša izmenjavo izkušenj med pristojnimi nacionalnimi organi.

črtano

Sprememba 563

Predlog uredbe

Člen 59 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.    Pristojni nacionalni organi lahko zagotovijo smernice in nasvete o izvajanju te uredbe, tudi malim ponudnikom . Kadar nameravajo pristojni nacionalni organi zagotoviti smernice in nasvete v zvezi z umetnointeligenčnim sistemom na področjih, ki jih zajema druga zakonodaja Unije, se po potrebi posvetujejo s pristojnimi nacionalnimi organi, ki delujejo v skladu s  to zakonodajo Unije. Države članice lahko vzpostavijo tudi eno osrednjo kontaktno točko za komunikacijo z operaterji.

7.   Nacionalni nadzorni organi lahko zagotovijo smernice in nasvete o izvajanju te uredbe, tudi MSP in zagonskim podjetjem, pri čemer upoštevajo smernice in nasvete urada za umetno inteligenco ali Komisije . Kadar namerava nacionalni nadzorni organ zagotoviti smernice in nasvete v zvezi z umetnointeligenčnim sistemom na področjih, ki jih zajema drugo pravo Unije, se po potrebi pripravijo smernice v posvetovanju s pristojnimi nacionalnimi organi, ki delujejo v skladu s  tem pravom Unije.

Sprememba 564

Predlog uredbe

Člen 59 – odstavek 8

Besedilo, ki ga predlaga Komisija

Sprememba

8.   Kadar institucije, agencije in organi Unije spadajo na področje uporabe te uredbe, Evropski nadzornik za varstvo podatkov deluje kot pristojni organ za njihov nadzor.

8.   Kadar institucije, agencije in organi Unije spadajo na področje uporabe te uredbe, Evropski nadzornik za varstvo podatkov deluje kot pristojni organ za njihov nadzor in usklajevanje .

Sprememba 565

Predlog uredbe

Člen 59 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 59a

 

Mehanizem sodelovanja med nacionalnimi nadzornimi organi v primerih, ki vključujejo dve ali več držav članic

 

1.     Vsak nacionalni nadzorni organ na ozemlju svoje države članice opravlja naloge, ki so mu dodeljene s to uredbo, in izvaja pooblastila, ki so mu podeljena z njo.

 

2.     Pri primerih, ki vključujejo dva ali več nacionalnih nadzornih organov, se nacionalni nadzorni organ države članice, v kateri je prišlo do kršitve, šteje za vodilni nadzorni organ.

 

3.     Pri primerih iz odstavka 2 zadevni nadzorni organi sodelujejo in si pravočasno izmenjujejo vse ustrezne informacije. Nacionalni nadzorni organi sodelujejo, da dosežejo soglasje.

Sprememba 566

Predlog uredbe

Naslov VII

Besedilo, ki ga predlaga Komisija

Sprememba

VII PODATKOVNA ZBIRKA EU ZA SAMOSTOJNE UMETNOINTELIGENČNE SISTEME VELIKEGA TVEGANJA

PODATKOVNA ZBIRKA EU ZA UMETNOINTELIGENČNE SISTEME VELIKEGA TVEGANJA

Sprememba 567

Predlog uredbe

Člen 60 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Podatkovna zbirka EU za samostojne umetnointeligenčne sisteme velikega tveganja

Podatkovna zbirka EU za umetnointeligenčne sisteme velikega tveganja

Sprememba 568

Predlog uredbe

Člen 60 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Komisija v sodelovanju z državami članicami vzpostavi in vzdržuje podatkovno zbirko EU, ki vsebuje informacije iz odstavka  2 o umetnointeligenčnih sistemih velikega tveganja iz člena 6(2), registriranih v skladu s členom 51.

1.   Komisija v sodelovanju z državami članicami vzpostavi in vzdržuje javno podatkovno zbirko EU, ki vsebuje informacije iz odstavkov  2 in 2a o umetnointeligenčnih sistemih velikega tveganja iz člena 6(2), registriranih v skladu s členom 51.

Sprememba 569

Predlog uredbe

Člen 60 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Podatke iz Priloge VIII v podatkovno zbirko EU vnašajo ponudniki. Komisija jim zagotovi tehnično in upravno podporo.

2.   Podatke iz Priloge VIII , oddelek A, v podatkovno zbirko EU vnašajo ponudniki.

Sprememba 570

Predlog uredbe

Člen 60 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Podatke iz Priloge VIII, oddelek B, v podatkovno zbirko EU vnašajo uvajalci, ki so javni organi ali institucije, organi, uradi ali agencije Unije ali delujejo v njihovem imenu, in uvajalci, ki so podjetja iz člena 51(1a) in (1b).

Sprememba 571

Predlog uredbe

Člen 60 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Informacije v podatkovni zbirki EU so dostopne javnosti .

3.   Informacije v podatkovni zbirki EU so prosto na voljo javnosti, uporabniku prijazne in dostopne , po njih je mogoče enostavno brskati in so strojno berljive ter vsebujejo strukturirane digitalne podatke na podlagi standardiziranega protokola .

Sprememba 572

Predlog uredbe

Člen 60 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Podatkovna zbirka EU vsebuje osebne podatke le, kolikor je to potrebno za zbiranje in obdelavo informacij v skladu s to uredbo. Te informacije vključujejo imena in kontaktne podatke fizičnih oseb, ki so odgovorne za registracijo sistema in imajo pravno pooblastilo za zastopanje ponudnika.

4.   Podatkovna zbirka EU vsebuje osebne podatke le, kolikor je to potrebno za zbiranje in obdelavo informacij v skladu s to uredbo. Te informacije vključujejo imena in kontaktne podatke fizičnih oseb, ki so odgovorne za registracijo sistema in imajo pravno pooblastilo za zastopanje ponudnika ali uvajalca, ki je javni organ ali institucija, organ, urad ali agencija Unije oziroma uvajalec, ki uporablja podatkovno zbirko v njihovem imenu, ali uvajalec, ki je podjetje iz člena 51(1a)(b) in (1b) .

Sprememba 573

Predlog uredbe

Člen 60 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Komisija je upravljavec podatkovne zbirke EU. Ponudnikom zagotovi tudi ustrezno tehnično in upravno podporo.

5.   Komisija je upravljavec podatkovne zbirke EU. Ponudnikom in uvajalcem zagotovi tudi ustrezno tehnično in upravno podporo.

 

Podatkovna zbirka izpolnjuje zahteve glede dostopnosti iz Priloge I k Direktivi (EU) 2019/882.

Sprememba 574

Predlog uredbe

Člen 61 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Sistem spremljanja po dajanju na trg aktivno in sistematično zbira, dokumentira in analizira ustrezne podatke o učinkovitosti umetnointeligenčnih sistemov velikega tveganja skozi celotno življenjsko dobo, ki jih zagotovijo uporabniki ali se zberejo preko drugih virov, ter ponudniku omogoča, da oceni stalno skladnost umetnointeligenčnih sistemov z zahtevami iz poglavja 2 naslova III.

2.   Sistem spremljanja po dajanju na trg aktivno in sistematično zbira, dokumentira in analizira ustrezne podatke o učinkovitosti umetnointeligenčnih sistemov velikega tveganja skozi celotno življenjsko dobo, ki jih zagotovijo uvajalci ali se zberejo preko drugih virov, ter ponudniku omogoča, da oceni stalno skladnost umetnointeligenčnih sistemov z zahtevami iz poglavja 2 naslova III. Kadar je ustrezno, spremljanje po dajanju na trg vključuje analizo interakcije z okoljem drugih umetnointeligenčnih sistemov, vključno z drugimi napravami in programsko opremo, ob upoštevanju pravil, ki se uporabljajo na področjih, kot so varstvo podatkov, pravice intelektualne lastnine in konkurenčno pravo.

Sprememba 575

Predlog uredbe

Člen 61 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Sistem spremljanja po dajanju na trg temelji na načrtu spremljanja po dajanju na trg. Načrt spremljanja po dajanju na trg je del tehnične dokumentacije iz Priloge IV. Komisija sprejme izvedbeni akt, v katerem določi podrobne določbe o predlogih za načrt spremljanja po dajanju na trg in seznam elementov, ki jih je treba vključiti v načrt.

3.   Sistem spremljanja po dajanju na trg temelji na načrtu spremljanja po dajanju na trg. Načrt spremljanja po dajanju na trg je del tehnične dokumentacije iz Priloge IV. Komisija sprejme izvedbeni akt, v katerem določi podrobne določbe o predlogih za načrt spremljanja po dajanju na trg in seznam elementov, ki jih je treba do … [12 mesecev po začetku veljavnosti te uredbe] vključiti v načrt.

Sprememba 576

Predlog uredbe

Člen 62 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Poročanje o hudih incidentih in okvarah

Poročanje o hudih incidentih

Sprememba 577

Predlog uredbe

Člen 62 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Ponudniki umetnointeligenčnih sistemov velikega tveganja, ki so dani na trg Unije, sporočijo vsak hud incident ali kakršno koli okvaro teh sistemov , ki predstavlja kršitev obveznosti iz prava Unije, namenjenih zaščiti temeljnih pravic, organom za nadzor trga držav članic, v katerih je prišlo do tega incidenta ali kršitve.

1.   Ponudniki in uvajalci, kadar slednji zaznajo hud incident, umetnointeligenčnih sistemov velikega tveganja, ki so dani na trg Unije, sporočijo vsak hud incident na teh sistemih , ki predstavlja kršitev obveznosti iz prava Unije, namenjenih zaščiti temeljnih pravic, nacionalnim nadzornim organom držav članic, v katerih je prišlo do tega incidenta ali kršitve.

Sprememba 578

Predlog uredbe

Člen 62 – odstavek 1 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Tako obvestilo se pošlje takoj , ko ponudnik vzpostavi vzročno zvezo med umetnointeligenčnim sistemom in incidentom ali okvaro ali razumno verjetnost take povezave , v vsakem primeru pa najpozneje 15 dni po tem, ko ponudnik izve za hud incident ali okvaro .

Tako obvestilo se pošlje brez nepotrebnega odlašanja , ko ponudnik ali, kadar je to ustrezno, uvajalec vzpostavi vzročno zvezo med umetnointeligenčnim sistemom in incidentom ali razumno verjetnost take zveze , v vsakem primeru pa najpozneje 72 ur po tem, ko ponudnik ali, kadar je to ustrezno, uvajalec izve za hud incident.

Sprememba 579

Predlog uredbe

Člen 62 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Ko ponudniki ugotovijo vzročno zvezo med umetnointeligenčnim sistemom in hudim incidentom ali razumno verjetnostjo take zveze, sprejmejo ustrezne popravne ukrepe v skladu s členom 21.

Sprememba 580

Predlog uredbe

Člen 62 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Organ za nadzor trga po prejemu obvestila o kršitvi obveznosti iz prava Unije, namenjenih zaščiti temeljnih pravic, obvesti nacionalne javne organe ali telesa iz člena 64(3). Komisija pripravi posebne smernice za lažje izpolnjevanje obveznosti iz odstavka 1. Te smernice se izdajo najpozneje 12 mesecev po začetku veljavnosti te uredbe .

2.    Nacionalni nadzorni organ po prejemu obvestila o kršitvi obveznosti iz prava Unije, namenjenih zaščiti temeljnih pravic, obvesti nacionalne javne organe ali telesa iz člena 64(3). Komisija pripravi posebne smernice za lažje izpolnjevanje obveznosti iz odstavka 1. Te smernice se izdajo do … [začetek veljavnosti te uredbe] in se redno pregledujejo .

Sprememba 581

Predlog uredbe

Člen 62 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Nacionalni nadzorni organ sprejme ustrezne ukrepe v 7 dneh od datuma prejema obvestila iz odstavka 1. Če do kršitve pride ali je verjetno, da bo do kršitve prišlo v drugih državah članicah, nacionalni nadzorni organ o tem obvesti urad za umetno inteligenco in ustrezne nacionalne nadzorne organe teh držav članic.

Sprememba 582

Predlog uredbe

Člen 62 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Za umetnointeligenčne sisteme velikega tveganja iz točke 5(b) Priloge III, ki jih dajejo na trg ali v uporabo ponudniki, ki so kreditne institucije, urejene z Direktivo 2013/36/EU , in za umetnointeligenčne sisteme velikega tveganja , ki so varnostne komponente pripomočkov ali so sami pripomočki, zajeti v Uredbi (EU) 2017/745 in Uredbi (EU) 2017/746 , je obveščanje o hudih incidentih ali okvarah omejeno na tiste , ki pomenijo kršitev obveznosti v skladu s pravom Unije za zaščito temeljnih pravic.

3.   Za umetnointeligenčne sisteme velikega tveganja iz Priloge III, ki jih dajejo na trg ali v uporabo ponudniki, za katere veljajo zakonodajni instrumenti Unije , ki določajo obveznosti poročanja , ki so enakovredne tistim iz te uredbe , se obveščanje o hudih incidentih, ki pomenijo kršitev temeljnih pravic iz zakonodaje Unije, prenese na nacionalni nadzorni organ

Sprememba 583

Predlog uredbe

Člen 62 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Nacionalni nadzorni organi uradu za umetno inteligenco letno poročajo o hudih incidentih, ki so jim bili sporočeni v skladu s tem členom.

Sprememba 584

Predlog uredbe

Člen 63 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Za umetnointeligenčne sisteme, zajete s to uredbo, se uporablja Uredba (EU) 2019/1020. Vendar pa za učinkovito izvrševanje te uredbe velja naslednje:

1.   Za umetnointeligenčne sisteme in temeljne modele , zajete s to uredbo, se uporablja Uredba (EU) 2019/1020. Vendar pa za učinkovito izvrševanje te uredbe velja naslednje:

Sprememba 585

Predlog uredbe

Člen 63 – odstavek 1 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

nacionalni nadzorni organi delujejo kot organi za nadzor trga v skladu s to uredbo ter imajo enaka pooblastila in obveznosti kot organi za nadzor trga v skladu z Uredbo (EU) 2019/1020.

Sprememba 586

Predlog uredbe

Člen 63 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Nacionalni nadzorni organ Komisiji redno poroča o izidih zadevnih dejavnosti nadzora trga. Nacionalni nadzorni organ Komisiji in zadevnim nacionalnim organom za varstvo konkurence brez odlašanja poroča o vseh informacijah, ugotovljenih med dejavnostmi nadzora trga, ki bi lahko zadevale uporabo prava Unije o pravilih konkurence.

2.   Nacionalni nadzorni organ Komisiji in uradu za umetno inteligenco letno poroča o izidih zadevnih dejavnosti nadzora trga. Nacionalni nadzorni organ Komisiji in zadevnim nacionalnim organom za varstvo konkurence brez odlašanja poroča o vseh informacijah, ugotovljenih med dejavnostmi nadzora trga, ki bi lahko zadevale uporabo prava Unije o pravilih konkurence.

Sprememba 587

Predlog uredbe

Člen 63 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Za zagotovitev učinkovitega izvrševanja te uredbe lahko nacionalni nadzorni organi:

 

(a)

izvajajo nenapovedane inšpekcijske preglede umetnointeligenčnih sistemov velikega tveganja na kraju samem in na daljavo;

 

(b)

pridobivajo vzorce, povezane z umetnointeligenčnimi sistemi velikega tveganja, kar vključuje inšpekcijske preglede na daljavo, obratni inženiring umetnointeligenčnih sistemov in pridobivanje dokazov za ugotavljanje neskladnosti.

Sprememba 588

Predlog uredbe

Člen 63 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Za umetnointeligenčne sisteme iz točke 1(a) , če se sistemi uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj iz točk 6 in 7 Priloge III , države članice za namene te uredbe imenujejo organe za nadzor trga ali pristojne nadzorne organe za varstvo podatkov v skladu z Direktivo (EU) 2016/680 ali Uredbo 2016/679 ali pristojne nacionalne organe, ki nadzorujejo dejavnosti organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organov, pristojnih za priseljevanje, ali azilnih organov, ki dajejo v uporabo ali uporabljajo te sisteme .

5.   Za umetnointeligenčne sisteme, ki se uporabljajo za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, države članice za namene te uredbe kot organe za nadzor trga imenujejo pristojne nadzorne organe za varstvo podatkov v skladu z Direktivo (EU) 2016/680.

Sprememba 589

Predlog uredbe

Člen 63 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.    Države članice olajšajo usklajevanje med organi za nadzor trga , imenovanimi v skladu s to uredbo , in drugimi ustreznimi nacionalnimi organi ali telesi, ki nadzorujejo uporabo harmonizacijske zakonodaje Unije iz Priloge II ali druge zakonodaje Unije, ki bi lahko bila pomembna za umetnointeligenčne sisteme velikega tveganja iz Priloge III.

7.    Nacionalni nadzorni organi, imenovani v skladu s to uredbo se usklajujejo z drugimi ustreznimi nacionalnimi organi ali telesi, ki nadzorujejo uporabo harmonizacijskega prava Unije iz Priloge II ali drugega prava Unije, ki bi lahko bila pomembna za umetnointeligenčne sisteme velikega tveganja iz Priloge III.

Sprememba 590

Predlog uredbe

Člen 64 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   V okviru svojih dejavnosti imajo organi za nadzor trga popoln dostop do naborov učnih in testnih podatkov ter podatkov za potrditev, ki jih uporablja ponudnik , tudi preko vmesnikov za aplikacijsko programiranje (API) ali drugih ustreznih sredstev in orodij, ki omogočajo oddaljeni dostop .

1.    Nacionalnemu nadzornemu organu se v okviru njegovih dejavnosti in na njegovo utemeljeno zahtevo z ustreznimi tehničnimi sredstvi in orodji odobri popoln dostop do naborov učnih in testnih podatkov ter podatkov za potrditev, ki jih uporablja ponudnik ali po potrebi uvajalec in ki so ustrezni in nujno potrebni za namene njegove zahteve .

Sprememba 591

Predlog uredbe

Člen 64 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Organom za nadzor trga se na podlagi obrazložene zahteve omogoči tudi dostop do izvorne kode umetnointeligenčnega sistema, če je to potrebno za oceno skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 naslova III.

2.    Nacionalnemu pristojnemu organu se, po tem ko so bili izkoriščeni vsi drugi smiselni načini preverjanja skladnosti, vključno z odstavkom 1, ter so se izkazali za nezadostne, na utemeljeno zahtevo omogoči tudi dostop do učnih in naučenih modelov umetnointeligenčnega sistema , vključno z njegovimi relevantnimi parametri modela , če je to potrebno za oceno skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 naslova III. Vse informacije v skladu s členom 70 se obravnavajo kot zaupne informacije in zanje velja obstoječe pravo Unije o varstvu intelektualne lastnine in poslovnih skrivnosti, po koncu preiskave, za katere so bile zahtevane, pa se informacije zbrišejo.

Sprememba 592

Predlog uredbe

Člen 64 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Odstavka 1 in 2 ne posegata v postopkovne pravice zadevnega operaterja v skladu s členom 18 Uredbe (EU) 2019/1020.

Sprememba 593

Predlog uredbe

Člen 64 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Nacionalni javni organi, ki nadzorujejo ali uveljavljajo spoštovanje obveznosti iz prava Unije o varstvu temeljnih pravic v zvezi z uporabo umetnointeligenčnih sistemov velikega tveganja iz Priloge III, so pooblaščeni, da zahtevajo kakršno koli dokumentacijo, ustvarjeno ali hranjeno v skladu s to uredbo, in dostopajo do nje, kadar je dostop do te dokumentacije potreben za izvrševanje pristojnosti v okviru njihovih pooblastil v mejah njihove pristojnosti. Zadevni javni organ o vsaki taki zahtevi obvesti organ za nadzor trga zadevne države članice.

3.   Nacionalni javni organi, ki nadzorujejo ali uveljavljajo spoštovanje obveznosti iz prava Unije o varstvu temeljnih pravic v zvezi z uporabo umetnointeligenčnih sistemov velikega tveganja iz Priloge III, so pooblaščeni, da zahtevajo kakršno koli dokumentacijo, ustvarjeno ali hranjeno v skladu s to uredbo, in dostopajo do nje, kadar je dostop do te dokumentacije potreben za izvrševanje pristojnosti v okviru njihovih pooblastil v mejah njihove pristojnosti. Zadevni javni organ o vsaki taki zahtevi obvesti nacionalni nadzorni organ zadevne države članice.

Sprememba 594

Predlog uredbe

Člen 64 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Vsaka država članica do treh mesecev po začetku veljavnosti te uredbe določi javne organe iz odstavka 3 in objavi seznam na spletišču nacionalnega nadzornega organa. Države članice o seznamu uradno obvestijo Komisijo in vse druge države članice ter seznam redno posodabljajo.

4.   Vsaka država članica do treh mesecev po začetku veljavnosti te uredbe določi javne organe iz odstavka 3 in objavi seznam na spletišču nacionalnega nadzornega organa. Nacionalni nadzorni organi o seznamu uradno obvestijo Komisijo , urad za umetno inteligenco in vse druge nacionalne nadzorne organe ter seznam redno posodabljajo. Komisija na posebnem spletnem mestu objavi seznam vseh pristojnih organov, ki jih imenujejo države članice v skladu s tem členom.

Sprememba 595

Predlog uredbe

Člen 64 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Kadar dokumentacija iz odstavka 3 ne zadošča za ugotovitev, ali je prišlo do kršitve obveznosti iz prava Unije, namenjene zaščiti temeljnih pravic, lahko javni organ iz odstavka 3 na podlagi obrazložene zahteve od organa za nadzor trga zahteva, da s tehničnimi sredstvi organizira testiranje umetnointeligenčnega sistema velikega tveganja. Organ za nadzor trga organizira testiranje ob tesnem sodelovanju javnega organa, ki je vložil zahtevo, v razumnem času po prejemu zahteve.

5.   Kadar dokumentacija iz odstavka 3 ne zadošča za ugotovitev, ali je prišlo do kršitve obveznosti iz prava Unije, namenjene zaščiti temeljnih pravic, lahko javni organ iz odstavka 3 na podlagi obrazložene zahteve od nacionalnega nadzornega organa zahteva, da s tehničnimi sredstvi organizira testiranje umetnointeligenčnega sistema velikega tveganja. Nacionalni nadzorni organ organizira testiranje ob tesnem sodelovanju javnega organa, ki je vložil zahtevo, v razumnem času po prejemu zahteve.

Sprememba 596

Predlog uredbe

Člen 65 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Za umetnointeligenčne sisteme, ki predstavljajo tveganje, se šteje proizvod , ki predstavlja tveganje , opredeljen točki 19 člena 3 Uredbe (EU) 2019/1020, kar zadeva tveganja za zdravje ali varnost ali varstvo temeljnih pravic oseb .

1.   Za umetnointeligenčne sisteme, ki predstavljajo tveganje, se štejejo umetnointeligenčni sistemi , ki bi lahko negativno vplivali na zdravje in varnost ter temeljne pravice oseb na splošno, tudi pri delu, varstvo potrošnikov, okolje, javno varnost ali demokracijo ali pravno državo in druge javne interese , ki so zaščiteni z veljavnim harmonizacijskim pravom Unije, večjem obsegu, kot bi bilo razumno in sprejemljivo glede na njegov predvideni namen ali v običajnih ali razumno predvidljivih pogojih uporabe zadevnega sistema, vključno s trajanjem uporabe in, kadar je to ustrezno, začetkom njegove uporabe, namestitvijo in zahtevami glede vzdrževanja .

Sprememba 597

Predlog uredbe

Člen 65 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar ima organ za nadzor trga države članice zadostne razloge, da meni, da umetnointeligenčni sistem predstavlja tveganje iz odstavka 1, opravi oceno zadevnega umetnointeligenčnega sistema glede njegove skladnosti z vsemi zahtevami in obveznostmi iz te uredbe. Ob prisotnosti tveganj za zaščito temeljnih pravic organ za nadzor trga obvesti tudi ustrezne nacionalne javne organe ali telesa iz člena 64(3). Zadevni operaterji po potrebi sodelujejo z  organi za nadzor trga in drugimi nacionalnimi javnimi organi ali telesi iz člena 64(3).

2.   Kadar ima nacionalni nadzorni organ države članice zadostne razloge, da meni, da umetnointeligenčni sistem predstavlja tveganje iz odstavka 1, opravi oceno zadevnega umetnointeligenčnega sistema glede njegove skladnosti z vsemi zahtevami in obveznostmi iz te uredbe. Ob prisotnosti tveganj za temeljne pravice nacionalni nadzorni organ poleg tega takoj obvesti ustrezne nacionalne javne organe ali telesa iz člena 64(3) in v celoti sodeluje z njimi. Kadar obstajajo zadostni razlogi za domnevo, da umetnointeligenčni sistem izkorišča šibkosti ranljivih skupin ali namerno ali nenamerno krši njihove pravice, je nacionalni nadzorni organ dolžan preiskati cilje zasnove, vnose podatkov, izbiro modela, izvajanje in rezultate umetnointeligenčnega sistema. Zadevni operaterji po potrebi sodelujejo z  nacionalnimi nadzornimi organi in drugimi nacionalnimi javnimi organi ali telesi iz člena 64(3).

Sprememba 598

Predlog uredbe

Člen 65 – odstavek 2 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Kadar organ za nadzor trga med navedenim ocenjevanjem ugotovi, da umetnointeligenčni sistem ni skladen z zahtevami in obveznostmi iz te uredbe, od zadevnega operaterja brez odlašanja zahteva, da sprejme vse ustrezne popravne ukrepe, da zagotovi skladnost umetnointeligenčnega sistema, ga umakne s trga ali prekliče v razumnem roku, ki ga določi glede na naravo tveganja.

Kadar nacionalni nadzorni organ ali, kadar je to ustrezno, nacionalni javni organ iz člena 64(3) med navedenim ocenjevanjem ugotovi, da umetnointeligenčni sistem ni skladen z zahtevami in obveznostmi iz te uredbe, od zadevnega operaterja brez odlašanja zahteva, da sprejme vse ustrezne popravne ukrepe, da zagotovi skladnost umetnointeligenčnega sistema, ga umakne s trga ali prekliče v razumnem roku, ki ga določi glede na naravo tveganja , in v vsakem primeru najkasneje v 15 delovnih dneh ali kot je določeno v ustreznem harmonizacijskem pravu Unije .

Sprememba 599

Predlog uredbe

Člen 65 – odstavek 2 – pododstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

Organ za nadzor trga o tem ustrezno obvesti zadevni priglašeni organ. Za ukrepe iz drugega pododstavka se uporablja člen 18 Uredbe (EU) 2019/1020.

Nacionalni nadzorni organ o tem ustrezno obvesti zadevni priglašeni organ. Za ukrepe iz drugega pododstavka se uporablja člen 18 Uredbe (EU) 2019/1020.

Sprememba 600

Predlog uredbe

Člen 65 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Kadar organ za nadzor trga meni, da neskladnost ni omejena na njegovo nacionalno ozemlje, Komisijo in druge države članice obvesti o rezultatih ocenjevanja in ukrepih, ki jih je zahteval od operaterja.

3.   Kadar nacionalni nadzorni organ meni, da neskladnost ni omejena na njegovo nacionalno ozemlje, Komisijo , urad za umetno inteligenco in nacionalne nadzorne organe drugih držav članic nemudoma obvesti o rezultatih ocenjevanja in ukrepih, ki jih je zahteval od operaterja.

Sprememba 601

Predlog uredbe

Člen 65 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Kadar operater umetnointeligenčnega sistema ne sprejme ustreznih popravnih ukrepov v roku iz odstavka 2, organ za nadzor trga sprejme vse ustrezne začasne ukrepe za prepoved ali omejitev dajanja umetnointeligenčnega sistema na nacionalni trg, za umik ali za preklic proizvoda z navedenega trga. Ta organ o teh ukrepih brez odlašanja obvesti Komisijo in druge države članice.

5.   Kadar operater umetnointeligenčnega sistema ne sprejme ustreznih popravnih ukrepov v roku iz odstavka 2, nacionalni nadzorni organ sprejme vse ustrezne začasne ukrepe za prepoved ali omejitev dajanja umetnointeligenčnega sistema na nacionalni trg ali v uporabo , za umik ali za preklic umetnointeligenčnega sistema z navedenega trga. Ta organ o teh ukrepih nemudoma obvesti urad za umetno inteligenco in nacionalni nadzorni organ druge države članice.

Sprememba 602

Predlog uredbe

Člen 65 – odstavek 6 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Informacije iz odstavka 5 vsebujejo vse razpoložljive podrobnosti, zlasti podatke, potrebne za identifikacijo neskladnega umetnointeligenčnega sistema, poreklo umetnointeligenčnega sistema, naravo domnevne neskladnosti in tveganja, naravo in trajanje sprejetih nacionalnih ukrepov ter argumente zadevnega operaterja. Organi za nadzor trga zlasti navedejo , ali je neskladnost posledica naslednjega:

6.   Informacije iz odstavka 5 vsebujejo vse razpoložljive podrobnosti, zlasti podatke, potrebne za identifikacijo neskladnega umetnointeligenčnega sistema, poreklo umetnointeligenčnega sistema in dobavne verige , naravo domnevne neskladnosti in tveganja, naravo in trajanje sprejetih nacionalnih ukrepov ter argumente zadevnega operaterja. Nacionalni nadzorni organ zlasti navede , ali je neskladnost posledica naslednjega:

Sprememba 603

Predlog uredbe

Člen 65 – odstavek 6 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistem ne izpolnjuje zahtev iz poglavja 2 naslova III ;

(a)

umetnointeligenčni sistem velikega tveganja ne izpolnjuje zahtev iz te uredbe ;

Sprememba 604

Predlog uredbe

Člen 65 – odstavek 6 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

neskladnost s prepovedmi praks umetne inteligence iz člena 5;

Sprememba 605

Predlog uredbe

Člen 65 – odstavek 6 – točka b b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bb)

neskladnost z določbami iz člena 52.

Sprememba 606

Predlog uredbe

Člen 65 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.    Organi za nadzor trga držav članic, ki niso organi za nadzor trga države članice, ki je začela postopek, brez odlašanja obvestijo Komisijo in druge države članice o vseh sprejetih ukrepih in vseh dodatnih informacijah, ki so jim na voljo v zvezi z neskladnostjo zadevnega umetnointeligenčnega sistema, ter v primeru nestrinjanja s priglašenim nacionalnim ukrepom o svojih ugovorih.

7.    Nacionalni nadzorni organi držav članic, ki niso nacionalni nadzorni organi države članice, ki je začela postopek, brez odlašanja obvestijo Komisijo , urad za umetno inteligenco in druge države članice o vseh sprejetih ukrepih in vseh dodatnih informacijah, ki so jim na voljo v zvezi z neskladnostjo zadevnega umetnointeligenčnega sistema, ter v primeru nestrinjanja s priglašenim nacionalnim ukrepom o svojih ugovorih.

Sprememba 607

Predlog uredbe

Člen 65 – odstavek 8

Besedilo, ki ga predlaga Komisija

Sprememba

8.   Kadar država članica ali Komisija v treh mesecih po prejemu informacij iz odstavka 5 ne poda ugovora glede začasnega ukrepa, ki ga je sprejela država članica , se šteje, da je ukrep upravičen. To ne posega v postopkovne pravice zadevnega operaterja v skladu s členom 18 Uredbe (EU) 2019/1020.

8.   Kadar nacionalni nadzorni organ države članice ali Komisija v treh mesecih po prejemu informacij iz odstavka 5 ne poda ugovora glede začasnega ukrepa, ki ga je sprejel nacionalni nadzorni organ države članice , se šteje, da je ukrep upravičen. To ne posega v postopkovne pravice zadevnega operaterja v skladu s členom 18 Uredbe (EU) 2019/1020. Obdobje iz prvega stavka tega odstavka se skrajša na 30 dni v primeru neskladnosti s prepovedjo praks umetne inteligence, navedenih v členu 5.

Sprememba 608

Predlog uredbe

Člen 65 – odstavek 9

Besedilo, ki ga predlaga Komisija

Sprememba

9.    Organi za nadzor trga vseh držav članic zagotovijo takojšnje sprejetje ustreznih omejevalnih ukrepov v zvezi z zadevnim proizvodom , kot je umik proizvoda s trga.

9.    Nacionalni nadzorni organi trga vseh držav članic zagotovijo takojšnje sprejetje ustreznih omejevalnih ukrepov v zvezi z zadevnim umetnointeligenčnim sistemom , kot je umik umetnointeligenčnega sistema s trga.

Sprememba 609

Predlog uredbe

Člen 65 – odstavek 9 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

9a.     Nacionalni nadzorni organi uradu za umetno inteligenco letno poročajo o primerih uporabe prepovedanih praks, do katerih je prišlo v zadevnem letu, ter o ukrepih, sprejetih za odpravo ali ublažitev tveganj v skladu s tem členom.

Sprememba 610

Predlog uredbe

Člen 66 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Kadar država članica v treh mesecih od prejema priglasitve iz člena 65(5) poda ugovor proti ukrepu, ki ga je sprejela druga država članica , ali kadar Komisija meni, da je ukrep v nasprotju s pravom Unije, se Komisija brez odlašanja posvetuje z  zadevno državo članico in operaterjem ali operaterji ter oceni nacionalni ukrep. Komisija na podlagi rezultatov navedenega ocenjevanja odloči, ali je nacionalni ukrep upravičen ali ne devetih mesecih od priglasitve iz člena 65(5), in o taki odločitvi uradno obvesti zadevno državo članico .

1.   Kadar nacionalni nadzorni organ države članice v treh mesecih od prejema priglasitve iz člena 65(5) ali 30 dneh v primeru neskladnosti s prepovedjo praks umetne inteligence, navedenih v členu 5, poda ugovor proti ukrepu, ki ga je sprejel drug nacionalni nadzorni organ , ali kadar Komisija meni, da je ukrep v nasprotju s pravom Unije, se Komisija brez odlašanja posvetuje z  nacionalnim nadzornim organom zadevne države članice in operaterjem ali operaterji ter oceni nacionalni ukrep. Komisija na podlagi rezultatov navedenega ocenjevanja v treh mesecih ali 60 dneh v primeru neskladnosti s prepovedjo praks umetne inteligence, navedenih členu 5, od priglasitve iz člena 65(5) odloči, ali je nacionalni ukrep upravičen ali ne , in o taki odločitvi uradno obvesti nacionalni nadzorni organ zadevne države članice. Komisija o taki odločbi tudi obvesti vse druge nacionalne nadzorne organe.

Sprememba 611

Predlog uredbe

Člen 66 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Če se nacionalni ukrep šteje za upravičenega, vse države članice sprejmejo ukrepe, potrebne za umik neskladnega umetnointeligenčnega sistema s svojega trga, in o tem ustrezno obvestijo Komisijo. Če se nacionalni ukrep šteje za neupravičenega, ga zadevna država članica umakne.

2.   Če se nacionalni ukrep šteje za upravičenega, vsi nacionalni nadzorni organi, imenovani v skladu s to uredbo, sprejmejo ukrepe, potrebne za umik neskladnega umetnointeligenčnega sistema s svojega trga, in o tem ustrezno obvestijo Komisijo in urad za umetno inteligenco . Če se šteje, da je nacionalni ukrep neupravičen, nacionalni nadzorni organ zadevne države članice umakne ukrep .

Sprememba 612

Predlog uredbe

Člen 66 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 66a

Skupne preiskave

Kadar ima nacionalni nadzorni organ razloge za sum, da kršitev te uredbe s strani ponudnika ali uvajalca umetnointeligenčnega sistema velikega tveganja ali temeljnega modela pomeni močno razširjeno kršitev z razsežnostjo Unije ali vpliva ali bo verjetno vplivala na vsaj 45 milijonov posameznikov v več kot eni državi članici, navedeni nacionalni nadzorni organ obvesti urad za umetno inteligenco in lahko od nacionalnih nadzornih organov držav članic, v katerih je prišlo do take kršitve, zahteva, da začnejo skupno preiskavo. Urad za umetno inteligenco zagotavlja centralno usklajevanje skupne preiskave. Preiskovalna pooblastila ostanejo v pristojnosti nacionalnih nadzornih organov.

Sprememba 613

Predlog uredbe

Člen 67 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Kadar organ za nadzor trga države članice po opravljeni oceni iz člena 65 ugotovi, da je umetnointeligenčni sistem sicer v skladu s to direktivo, vendar pomeni tveganje za zdravje ali varnost oseb, skladnost z obveznostmi iz prava Unije ali nacionalnega prava, namenjenimi zaščiti temeljnih pravic ali drugih vidikov zaščite javnega interesa, od zadevnega operaterja zahteva, da sprejme vse ustrezne ukrepe, s katerimi zagotovi, da zadevni umetnointeligenčni sistem, ko je dan na trg ali v uporabo, ne predstavlja več navedenega tveganja, ali da ga umakne s trga ali prekliče v razumnem roku, ki ga določi glede na naravo tveganja.

1.   Kadar nacionalni nadzorni organ države članice po opravljeni oceni iz člena 65 v polnem sodelovanju z ustreznim nacionalnim javnim organom iz člena 64(3) ugotovi, da je umetnointeligenčni sistem sicer v skladu s to direktivo, vendar pomeni resno tveganje za zdravje ali varnost oseb, skladnost z obveznostmi iz prava Unije ali nacionalnega prava, namenjenimi zaščiti temeljnih pravic ali okolja ali demokracije ali pravne države ali drugih vidikov zaščite javnega interesa, od zadevnega operaterja zahteva, da sprejme vse ustrezne ukrepe, s katerimi zagotovi, da zadevni umetnointeligenčni sistem, ko je dan na trg ali v uporabo, ne predstavlja več navedenega tveganja.

Sprememba 614

Predlog uredbe

Člen 67 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Ponudnik ali drugi zadevni operaterji zagotovijo izvedbo popravnih ukrepov glede vseh zadevnih umetnointeligenčnih sistemov, katerih dostopnost na trgu so omogočili po vsej Uniji, v roku, ki ga predpiše organ za nadzor trga države članice iz odstavka 1.

2.   Ponudnik ali drugi zadevni operaterji zagotovijo izvedbo popravnih ukrepov glede vseh zadevnih umetnointeligenčnih sistemov, katerih dostopnost na trgu so omogočili po vsej Uniji, v roku, ki ga predpiše nacionalni nadzorni organ države članice iz odstavka 1.

Sprememba 615

Predlog uredbe

Člen 67 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Če ponudnik ali drugi ustrezni operaterji ne sprejmejo popravljalnega ukrepa, kot je naveden v odstavku 2, in če umetnointeligenčni sistem še vedno predstavlja tveganje, kot je navedeno v odstavku 1, lahko nacionalni nadzorni organ od ustreznega operaterja zahteva, naj umakne umetnointeligenčni sistem s trga ali ga v razumnem obdobju odpokliče, sorazmerno z naravo tveganja.

Sprememba 616

Predlog uredbe

Člen 67 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.    Država članica o tem nemudoma obvesti Komisijo in druge države članice . Te informacije vključujejo vse razpoložljive podrobnosti, zlasti podatke, potrebne za identifikacijo zadevnega umetnointeligenčnega sistema, poreklo in dobavno verigo umetnointeligenčnega sistema, naravo tveganja ter naravo in trajanje sprejetih nacionalnih ukrepov.

3.    Nacionalni nadzorni organ nemudoma obvesti Komisijo , urad za umetno inteligenco in druge nacionalne nadzorne organe . Te informacije vključujejo vse razpoložljive podrobnosti, zlasti podatke, potrebne za identifikacijo zadevnega umetnointeligenčnega sistema, poreklo in dobavno verigo umetnointeligenčnega sistema, naravo tveganja ter naravo in trajanje sprejetih nacionalnih ukrepov.

Sprememba 617

Predlog uredbe

Člen 67 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Komisija se brez odlašanja posvetuje z  državami članicami in ustreznimi operaterji ter oceni sprejete nacionalne ukrepe. Komisija na podlagi rezultatov ocenjevanja odloči, ali je ukrep upravičen ali ne, in po potrebi predlaga ustrezne ukrepe.

4.   Komisija se v posvetovanju z uradom za umetno inteligenco brez odlašanja posvetuje z  ustreznimi nacionalnimi nadzornimi organi in ustreznimi operaterji ter oceni sprejete nacionalne ukrepe. Urad za umetno inteligenco na podlagi rezultatov ocenjevanja odloči, ali je ukrep upravičen ali ne, in po potrebi predlaga ustrezne ukrepe.

Sprememba 618

Predlog uredbe

Člen 67 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Komisija svojo odločitev naslovi na države članice .

5.   Komisija v posvetovanju z uradom za umetno inteligenco svojo odločitev nemudoma sporoči nacionalnim nadzornim organom zadevnih držav članic in zadevnim operaterjem . O odločitvi obvesti tudi vse druge nacionalne nadzorne organe.

Sprememba 619

Predlog uredbe

Člen 67 – odstavek 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.     Komisija sprejme smernice za pomoč nacionalnim pristojnim organom pri ugotavljanju in odpravljanju podobnih težav pri drugih umetnointeligenčnih sistemih, kjer je to potrebno.

Sprememba 620

Predlog uredbe

Člen 68 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Kadar organ za nadzor trga države članice ugotovi eno od naslednjih dejstev, od zadevnega ponudnika zahteva, naj zadevno neskladnost odpravi:

1.   Kadar nacionalni nadzorni organ države članice ugotovi eno od naslednjih dejstev, od zadevnega ponudnika zahteva, naj zadevno neskladnost odpravi:

Sprememba 621

Predlog uredbe

Člen 68 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

oznaka skladnosti ni nameščena v skladu s členom 49;

(a)

oznaka CE ni nameščena v skladu s členom 49;

Sprememba 622

Predlog uredbe

Člen 68 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

oznaka skladnosti ni nameščena;

(b)

oznaka CE ni nameščena;

Sprememba 623

Predlog uredbe

Člen 68 – odstavek 1 – točka e a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ea)

tehnična dokumentacija ni na voljo;

Sprememba 624

Predlog uredbe

Člen 68 – odstavek 1 – točka e b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(eb)

registracija v podatkovni zbirki EU ni bila opravljena;

Sprememba 625

Predlog uredbe

Člen 68 – odstavek 1 – točka e c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ec)

če je ustrezno, pooblaščeni predstavnik ni bil imenovan.

Sprememba 626

Predlog uredbe

Člen 68 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Kadar se neskladnost iz odstavka 1 nadaljuje, zadevna država članica izvede vse ustrezne ukrepe za omejitev ali prepoved omogočanja dostopnosti umetnointeligenčnega sistema velikega tveganja na trgu ali pa zagotovi njegov preklic ali umik s trga.

2.   Kadar se neskladnost iz odstavka 1 nadaljuje, nacionalni nadzorni organ zadevne države članice nemudoma izvede vse ustrezne in sorazmerne ukrepe za omejitev ali prepoved omogočanja dostopnosti umetnointeligenčnega sistema velikega tveganja na trgu ali pa nemudoma zagotovi njegov preklic ali umik s trga. Nacionalni nadzorni organ zadevne države članice nemudoma obvesti urad za umetno inteligenco o neskladnosti in sprejetih ukrepih.

Sprememba 627

Predlog uredbe

Člen 68 – poglavje 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.

Pravna sredstva

Sprememba 628

Predlog uredbe

Člen 68 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 68a

 

Pravica do vložitve pritožbe pri nacionalnem nadzornem organu

 

1.     Brez poseganja v drugo upravno ali pravno sredstvo ima vsaka fizična oseba ali skupina fizičnih oseb pravico, da vloži pritožbo pri nacionalnem nadzornem organu, zlasti v državi članici, v kateri ima običajno prebivališče, v kateri je njegov kraj dela ali v kateri je domnevno prišlo do kršitve, če meni, da umetnointeligenčni sistem v zvezi z njim krši to uredbo.

 

2.     Nacionalni nadzorni organ, pri katerem je vložena pritožba, obvesti pritožnika o stanju zadeve in odločitvi o pritožbi, vključno z možnostjo pravnega sredstva na podlagi člena 78.

Sprememba 629

Predlog uredbe

Člen 68 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 68b

 

Pravica do učinkovitega pravnega sredstva zoper nacionalni nadzorni organ

 

1.     Brez poseganja v katero koli drugo upravno ali izvensodno pravno sredstvo ima vsaka fizična ali pravna oseba pravico do učinkovitega pravnega sredstva zoper pravno zavezujočo odločitev nacionalnega nadzornega organa v zvezi z njo.

 

2.     Brez poseganja v drugo upravno ali izvensodno sredstvo ima vsaka fizična ali pravna oseba pravico do učinkovitega pravnega sredstva, kadar nacionalni nadzorni organ, pristojen na podlagi člena 59, ne obravnava pritožbe ali če posameznika, na katerega se podatki nanašajo, v treh mesecih ne obvesti o stanju zadeve ali odločitvi o pritožbi, vloženi na podlagi člena 68a.

 

3.     Za postopke zoper nacionalni nadzorni organ so pristojna sodišča države članice, v kateri ima nacionalni nadzorni organ sedež.

 

4.     Kadar je začet postopek zoper odločitev nacionalnega nadzornega organa, v zvezi s katero je Komisija z zaščitnim postopkom Unije pred tem sprejela mnenje ali odločitev, nadzorni organ to mnenje ali odločitev posreduje sodišču.

Sprememba 630

Predlog uredbe

Člen 68 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 68c

 

Pravica do obrazložitve individualnega odločanja

 

1.     Vsaka oseba, za katero velja odločitev uvajalca na podlagi izložka umetnointeligenčnega sistema z visokim tveganjem, ki ima pravne učinke ali na podoben način pomembno vpliva nanjo na način, za katerega meni, da negativno vpliva na njeno zdravje, varnost, temeljne pravice, socialno-ekonomsko blaginjo ali drugo pravico, ki izhaja iz obveznosti iz te uredbe, ima pravico, da od uvajalca prejme jasno in smiselno razlago v skladu s členom 13(1) o vlogi umetnointeligenčnega sistema v postopku odločanja, glavnih parametrih sprejete odločitve in vhodnih podatkih v zvezi s tem.

 

2.     Odstavek 1 se ne uporablja za uporabo umetnointeligenčnih sistemov, za katere izjeme ali omejitve obveznosti iz odstavka 1 izhajajo iz prava Unije ali nacionalnega prava, če taka izjema ali omejitve spoštujejo bistvo temeljnih pravic in svoboščin ter so nujen in sorazmeren ukrep v demokratični družbi.

 

3.     Ta člen se uporablja brez poseganja v člene 13, 14, 15 in 22 Uredbe 2016/679.

Sprememba 631

Predlog uredbe

Člen 68 d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 68d

 

Sprememba Direktive (EU) 2020/1828

 

V Prilogi I k Direktivi (EU) št. 2020/1828 Evropskega parlamenta in Sveta  (1a) se doda naslednja točka:

 

„(67a)

Uredba Evropskega parlamenta in Sveta xxxx/xxxx [o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije (UL L …)]“.

Sprememba 632

Predlog uredbe

Člen 68 e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 68e

Prijava kršitev in zaščita prijaviteljev

Za prijavo kršitev te uredbe in zaščito oseb, ki te kršitve prijavijo, se uporablja Direktiva (EU) 2019/1937 Evropskega parlamenta in Sveta.

Sprememba 633

Predlog uredbe

Člen 69 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Komisija in države članice spodbujajo in olajšujejo pripravo kodeksov ravnanja, namenjenih spodbujanju prostovoljne uporabe zahtev iz poglavja 2 naslova III za umetnointeligenčne sisteme, ki niso umetnointeligenčni sistemi velikega tveganja, na podlagi tehničnih specifikacij in rešitev, ki so ustrezna sredstva za zagotavljanje skladnosti s takimi zahtevami glede na predvideni namen sistemov.

1.   Komisija , urad za umetno inteligenco in države članice spodbujajo in olajšujejo pripravo kodeksov ravnanja, ki so, tudi kadar so pripravljeni z namenom prikazovanja, da umetnointeligenčni sistemi spoštujejo načela iz člena 4a in jih je torej mogoče šteti za zaupanja vredne, namenjeni spodbujanju prostovoljne uporabe zahtev iz poglavja 2 naslova III za umetnointeligenčne sisteme, ki niso umetnointeligenčni sistemi velikega tveganja, na podlagi tehničnih specifikacij in rešitev, ki so ustrezna sredstva za zagotavljanje skladnosti s takimi zahtevami glede na predvideni namen sistemov.

Sprememba 634

Predlog uredbe

Člen 69 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.    Komisija in Odbor spodbujata in olajšujeta pripravo kodeksov ravnanja, namenjenih spodbujanju prostovoljne uporabe zahtev, povezanih na primer okoljsko trajnostjo, dostopnostjo za invalide , sodelovanjem deležnikov pri oblikovanju in razvoju umetnointeligenčnih sistemov ter raznolikostjo razvojnih skupin na podlagi jasnih ciljev in ključnih kazalnikov uspešnosti za merjenje doseganja teh ciljev , za umetnointeligenčne sisteme.

2.    Kodeksi ravnanja, namenjeni spodbujanju prostovoljne skladnosti načeli , na katerih temeljijo zaupanja vredni umetnointeligenčni sistemi , zlasti:

 

(a)

poskušajo doseči zadostno raven pismenosti na področju umetne inteligence med svojim osebjem in drugimi osebami, ki se ukvarjajo z delovanjem in uporabo umetnointeligenčnih sistemov, da bi se ta načela spoštovala;

 

(b)

ocenijo, v kolikšni meri lahko njihovi umetnointeligenčni sistemi vplivajo na ranljive osebe ali skupine oseb, vključno z otroki, starejšimi, migranti in invalidi, oziroma ali bi bilo mogoče sprejeti ukrepe za povečanje dostopnosti ali drugače podpirati te osebe ali skupine oseb;

 

(c)

upoštevajo, kako lahko uporaba njihovih umetnointeligenčnih sistemov vpliva na uravnoteženo zastopanost in enakost spolov ali ju poveča;

 

(d)

upoštevajo, ali se njihovi umetnointeligenčni sistemi lahko uporabljajo na način, ki bi lahko neposredno ali posredno, kot stranski ali glavni učinek znatno okrepil obstoječe predsodke ali neenakosti;

 

(e)

razmislijo o potrebi in pomembnosti vzpostavitve različnih razvojnih skupin, da bi zagotovili vključujočo zasnovo svojih sistemov;

 

(f)

skrbno preučijo, ali bi lahko njihovi sistemi negativno vplivali na družbo, zlasti v zvezi s političnimi institucijami in demokratičnimi procesi;

 

(g)

ocenijo, kako lahko umetnointeligenčni sistemi prispevajo k okoljski trajnosti in zlasti k zavezam Unije v okviru evropskega zelenega dogovora ter evropske deklaracije o digitalnih pravicah in načelih.

Sprememba 635

Predlog uredbe

Člen 69 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Kodekse ravnanja lahko pripravijo posamezni ponudniki sistemov umetne inteligence ali organizacije, ki jih zastopajo, ali oboji, tudi z vključevanjem uporabnikov in vseh zainteresiranih strani ter njihovih predstavniških organizacij. Kodeksi ravnanja lahko zajemajo enega ali več umetnointeligenčnih sistemov ob upoštevanju podobnosti predvidenega namena zadevnih sistemov.

3.   Kodekse ravnanja lahko pripravijo posamezni ponudniki sistemov umetne inteligence ali organizacije, ki jih zastopajo, ali oboji, tudi z vključevanjem uporabnikov in vseh zainteresiranih strani , vključno z znanstvenimi raziskovalci, ter njihovih predstavniških organizacij, zlasti sindikatov, in potrošniških organizacij. Kodeksi ravnanja lahko zajemajo enega ali več umetnointeligenčnih sistemov ob upoštevanju podobnosti predvidenega namena zadevnih sistemov. Ponudniki, ki sprejmejo kodekse ravnanja, imenujejo vsaj eno fizično osebo, ki je odgovorna za notranje spremljanje.

Sprememba 636

Predlog uredbe

Člen 69 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Komisija in odbor pri spodbujanju in olajševanju priprave kodeksov ravnanja upoštevata posebne interese in potrebe malih ponudnikov in zagonskih podjetij.

4.   Komisija in urad za umetno inteligenco pri spodbujanju in olajševanju priprave kodeksov ravnanja upoštevata posebne interese in potrebe malih in srednjih ter zagonskih podjetij.

Sprememba 637

Predlog uredbe

Člen 70 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Pristojni nacionalni organi in priglašeni organi, vključeni v uporabo te uredbe, spoštujejo zaupnost informacij in podatkov, pridobljenih pri opravljanju svojih nalog in dejavnosti, tako da varujejo zlasti:

1.    Komisija, pristojni nacionalni organi in priglašeni organi, urad za umetno inteligenco ter vse druge fizične in pravne osebe, vključene v uporabo te uredbe, spoštujejo zaupnost informacij in podatkov, pridobljenih pri opravljanju svojih nalog in dejavnosti, tako da varujejo zlasti:

Sprememba 638

Predlog uredbe

Člen 70 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

pravice intelektualne lastnine in zaupne poslovne informacije ali poslovne skrivnosti fizične ali pravne osebe, vključno z izvorno kodo, razen v primerih iz člena 5 Direktive (EU) 2016/943 o varstvu nerazkritega strokovnega znanja in izkušenj ter poslovnih informacij (poslovnih skrivnosti) pred njihovo protipravno pridobitvijo, uporabo in razkritjem;

(a)

pravice intelektualne lastnine in zaupne poslovne informacije ali poslovne skrivnosti fizične ali pravne osebe v skladu z določbami direktiv 2004/48/ES in 2016/943/ES , vključno z izvorno kodo, razen v primerih iz člena 5 Direktive (EU) 2016/943 o varstvu nerazkritega strokovnega znanja in izkušenj ter poslovnih informacij (poslovnih skrivnosti) pred njihovo protipravno pridobitvijo, uporabo in razkritjem;

Sprememba 639

Predlog uredbe

Člen 70 – odstavek 1 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

interese javne in nacionalne varnosti;

Sprememba 640

Predlog uredbe

Člen 70 – odstavek 1 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

1a.     Organi, ki sodelujejo pri uporabi te uredbe v skladu z odstavkom 1, zmanjšajo količino podatkov, ki se zahtevajo za razkritje, na podatke, ki so nujno potrebni za zaznano tveganje in oceno tega tveganja. Podatke izbrišejo takoj, ko niso več potrebni za namen, za katerega so bili zahtevani. Sprejeti bi morali ustrezne in učinkovite ukrepe za kibernetsko varnost ter tehnične in organizacijske ukrepe za zaščito varnosti in zaupnosti informacij in podatkov, pridobljenih pri opravljanju svojih nalog in dejavnosti.

Sprememba 641

Predlog uredbe

Člen 70 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Brez poseganja v  odstavek  1 se informacije, ki se zaupno izmenjujejo med pristojnimi nacionalnimi organi ter med pristojnimi nacionalnimi organi in Komisijo, ne razkrijejo brez predhodnega posvetovanja z izvornim pristojnim nacionalnim organom in uporabnikom , kadar umetnointeligenčne sisteme velikega tveganja iz točk 1, 6 in 7 Priloge III uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali organi za presojo prošenj za azil, kadar bi tako razkritje ogrozilo javne in nacionalne varnostne interese.

2.   Brez poseganja v  odstavka  1 in 1a se informacije, ki se zaupno izmenjujejo med pristojnimi nacionalnimi organi ter med pristojnimi nacionalnimi organi in Komisijo, ne razkrijejo brez predhodnega posvetovanja z izvornim pristojnim nacionalnim organom in uvajalcem , kadar umetnointeligenčne sisteme velikega tveganja iz točk 1, 6 in 7 Priloge III uporabljajo organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, organi, pristojni za priseljevanje, ali organi za presojo prošenj za azil, kadar bi tako razkritje ogrozilo javno ali nacionalno varnost.

Sprememba 642

Predlog uredbe

Člen 70 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Odstavka 1 in 2 ne vplivata niti na pravice in obveznosti Komisije, držav članic in priglašenih organov v zvezi z izmenjavo informacij in razširjanjem opozoril niti na obveznost zadevnih strani, da zagotovijo podatke v skladu s kazenskim pravom držav članic.

3.   Odstavka 1 , 1a in 2 ne vplivata niti na pravice in obveznosti Komisije, držav članic in priglašenih organov v zvezi z izmenjavo informacij in razširjanjem opozoril niti na obveznost zadevnih strani, da zagotovijo podatke v skladu s kazenskim pravom držav članic;

Sprememba 643

Predlog uredbe

Člen 70 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Komisija in države članice lahko izmenjajo , kadar je to potrebno, zaupne informacije z regulativnimi organi tretjih držav, s katerimi so sklenile dvostranske ali večstranske dogovore o zaupnosti, ki zagotavljajo ustrezno raven zaupnosti.

4.   Komisija in države članice lahko, kadar je to nujno potrebno in v skladu z ustreznimi določbami mednarodnih in trgovinskih sporazumov , izmenjajo zaupne informacije z regulativnimi organi tretjih držav, s katerimi so sklenile dvostranske ali večstranske dogovore o zaupnosti, ki zagotavljajo ustrezno raven zaupnosti.

Sprememba 644

Predlog uredbe

Člen 71 – naslov

Besedilo, ki ga predlaga Komisija

Sprememba

Kazni in globe

Kazni

Sprememba 645

Predlog uredbe

Člen 71 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Države članice v skladu s pogoji iz te uredbe določijo pravila o kaznih, vključno z upravnimi globami, ki se uporabljajo za kršitve te uredbe , ter sprejmejo vse ukrepe, potrebne za zagotovitev, da se te pravilno in učinkovito izvajajo. Te kazni morajo biti učinkovite, sorazmerne in odvračilne. Upoštevajo zlasti interese malih ponudnikov in zagonskih podjetij ter njihovo ekonomsko sposobnost.

1.   Države članice v skladu s pogoji iz te uredbe določijo pravila o kaznih, ki se uporabljajo , kadar operater krši to uredbo , ter sprejmejo vse ukrepe, potrebne za zagotovitev, da se te pravilno in učinkovito izvajajo ter da so skladne s smernicami Komisije in urada za umetno inteligenco iz člena 82b . Te kazni morajo biti učinkovite, sorazmerne in odvračilne. Upoštevajo interese malih , srednjih in zagonskih podjetij ter njihovo ekonomsko sposobnost;

Sprememba 646

Predlog uredbe

Člen 71 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Države članice o teh pravilih uradno obvestijo Komisijo in jo brez odlašanja uradno obvestijo o  vsakršni naknadni spremembi, ki nanje vpliva.

2.   Države članice o teh pravilih in ukrepih uradno obvestijo Komisijo in urad do … [12 mesecev po začetku veljavnosti te uredbe] in jo brez odlašanja uradno obvestijo o  vsaki naknadni spremembi, ki nanje vpliva.

Sprememba 647

Predlog uredbe

Člen 71 – odstavek 3 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

3.    Za naslednje kršitve se naložijo upravne globe v višini do 30 000 000  EUR ali, če je kršitelj podjetje, do 6  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek:

3.    Če umetnointeligenčni sistem ne spoštuje prepovedi umetnointeligenčnih praks iz člena 5, se mu naložijo upravne globe v višini do 40 000 000  EUR ali, če je kršitelj podjetje, do 7  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

Sprememba 648

Predlog uredbe

Člen 71 – odstavek 3 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

neskladnost s prepovedmi praks umetne inteligence iz člena 5;

črtano

Sprememba 649

Predlog uredbe

Člen 71 – odstavek 3 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

neskladnost umetnointeligenčnega sistema z zahtevami iz člena 10.

črtano

Sprememba 650

Predlog uredbe

Člen 71 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Če umetnointeligenčni sistem ne spoštuje zahtev iz členov 10 in 13, se mu naložijo upravne globe v višini do 20 000 000  EUR ali, če je kršitelj podjetje, do 4 % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

Sprememba 651

Predlog uredbe

Člen 71 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Če umetnointeligenčni sistem ne izpolnjuje zahtev ali obveznosti iz te uredbe, razen tistih iz členov 5 in  10 , se kaznuje z upravnimi globami v višini do 20 000 000  EUR ali, če je kršitelj podjetje, do 4  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

4.   Če umetnointeligenčni sistem ali temeljni modeli ne izpolnjuje zahtev ali obveznosti iz te uredbe, razen tistih iz členov 5 , 10 in  13 , se kaznuje z upravnimi globami v višini do 10 000 000  EUR ali, če je kršitelj podjetje, do 2  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

Sprememba 652

Predlog uredbe

Člen 71 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Če se priglašenim organom in pristojnim nacionalnim organom v odgovor na zahtevo predložijo nepravilne, nepopolne ali zavajajoče informacije, se izreče upravna globa do 10 000 000  EUR ali, če je kršitelj podjetje, do 2  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

5.   Če se priglašenim organom in pristojnim nacionalnim organom v odgovor na zahtevo predložijo nepravilne, nepopolne ali zavajajoče informacije, se izreče upravna globa do 5 000 000  EUR ali, če je kršitelj podjetje, do 1  % njegovega skupnega svetovnega letnega prometa za preteklo proračunsko leto, pri čemer se upošteva višji znesek.

Sprememba 653

Predlog uredbe

Člen 71 – odstavek 6 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Pri odločanju o znesku upravne globe v vsakem posameznem primeru se upoštevajo vse zadevne okoliščine za konkretno situacijo, ustrezno pa se upošteva tudi naslednje:

6.    Globe se lahko naložijo poleg nedenarnih ukrepov, kot so odredbe ali opozorila, ali namesto njih. Pri odločanju o znesku upravne globe v vsakem posameznem primeru se upoštevajo vse zadevne okoliščine za konkretno situacijo, ustrezno pa se upošteva tudi naslednje:

Sprememba 654

Predlog uredbe

Člen 71 – odstavek 6 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

vrsta, resnost in trajanje kršitve ter njene posledice;

(a)

vrsta, resnost in trajanje kršitve ter njene posledice , pri čemer se upoštevajo namen umetnointeligenčnega sistema ter po potrebi število prizadetih oseb in raven škode, ki so jo utrpeli ;

Sprememba 655

Predlog uredbe

Člen 71 – odstavek 6 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

ali so drugi organi za nadzor trga že naložili upravne globe istemu operaterju za isto kršitev.

(b)

ali so drugi nacionalni nadzorni organi v eni ali več državah članicah že naložili upravne globe istemu operaterju za isto kršitev;

Sprememba 656

Predlog uredbe

Člen 71 – odstavek 6 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

velikost in tržni delež operaterja, ki je storil kršitev;

(c)

velikost in letni promet operaterja, ki je storil kršitev;

Sprememba 657

Predlog uredbe

Člen 71 – odstavek 6 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

ukrepi, ki jih operater sprejme za omejitev negativnih posledic ali škode, ki so jo utrpele prizadete osebe;

Sprememba 658

Predlog uredbe

Člen 71 – odstavek 6 – točka c b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cb)

ali je kršitev naklepna ali posledica malomarnosti;

Sprememba 659

Predlog uredbe

Člen 71 – odstavek 6 – točka c c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cc)

stopnja sodelovanja z nacionalnimi pristojnimi organi pri odpravljanju kršitve in blaženju morebitnih škodljivih učinkov kršitve;

Sprememba 660

Predlog uredbe

Člen 71 – odstavek 6 – točka c d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cd)

stopnja odgovornosti operatorja ob upoštevanju tehničnih in organizacijskih ukrepov, ki jih izvaja;

Sprememba 661

Predlog uredbe

Člen 71 – odstavek 6 – točka c e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ce)

način, na katerega so nacionalni pristojni organi seznanjeni s kršitvijo, zlasti pa, ali in v kakšnem obsegu operater kršitev priglasi;

Sprememba 662

Predlog uredbe

Člen 71 – odstavek 6 – točka c f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cf)

upoštevanje odobrenih kodeksov ravnanja ali odobrenih mehanizmov certificiranja;

Sprememba 663

Predlog uredbe

Člen 71 – odstavek 6 – točka c g (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cg)

morebitne relevantne pretekle kršitve tega operaterja;

Sprememba 664

Predlog uredbe

Člen 71 – odstavek 6 – točka c h (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ch)

kakršne koli druge oteževalne ali olajševalne okoliščine v zvezi s primerom.

Sprememba 665

Predlog uredbe

Člen 71 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.   Vsaka država članica določi pravila o  tem , ali in v kolikšni meri se lahko javnim organom in telesom s sedežem v  zadevni državi članici naložijo upravne globe.

7.   Vsaka država članica določi pravila o  upravnih globah , ki se naložijo javnim organom in telesom s sedežem v  tej državi članici;

Sprememba 666

Predlog uredbe

Člen 71 – odstavek 8 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

8a.     Kazni iz tega člena ter s tem povezani stroški pravdnih postopkov in odškodninski zahtevki ne smejo biti predmet pogodbenih klavzul ali drugih oblik sporazumov o porazdelitvi bremena med ponudniki in distributerji, uvozniki, uvajalci ali drugimi tretjimi osebami.

Sprememba 667

Predlog uredbe

Člen 71 – odstavek 8 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

8b.     Nacionalni nadzorni organi uradu za umetno inteligenco letno poročajo o globah, ki so jih v zadevnem letu naložili v skladu s tem členom.

Sprememba 668

Predlog uredbe

Člen 71 – odstavek 8 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

8c.     Za izvajanje pooblastil, ki jih imajo nadzorni organi v skladu s tem členom, veljajo ustrezni postopkovni zaščitni ukrepi v skladu s pravom Unije in nacionalnim pravom, vključno s pravnim sredstvom in ustreznim pravnim postopkom.

Sprememba 669

Predlog uredbe

Člen 72 – odstavek 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

vrsta, resnost in trajanje kršitve ter njene posledice;

(a)

vrsta, resnost in trajanje kršitve ter njene posledice , pri čemer se upoštevajo namen zadevnega umetnointeligenčnega sistema ter število prizadetih oseb in raven škode, ki so jo utrpele, ter morebitne relevantne pretekle kršitve;

Sprememba 670

Predlog uredbe

Člen 72 – odstavek 1 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

ukrepi, ki jih institucija, agencija ali organ Unije sprejme za ublažitev škode, ki so jo utrpele prizadete osebe;

Sprememba 671

Predlog uredbe

Člen 72 – odstavek 1 – točka a b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ab)

stopnja odgovornosti institucije, agencije ali organa Unije, ob upoštevanju tehničnih in organizacijskih ukrepov, ki jih izvaja;

Sprememba 672

Predlog uredbe

Člen 72 – odstavek 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

sodelovanje z Evropskim nadzornikom za varstvo podatkov za odpravo kršitve in zmanjševanje morebitnih škodljivih učinkov kršitve, vključno z upoštevanjem katerega koli ukrepa, ki ga je Evropski nadzornik za varstvo podatkov predhodno odredil zoper zadevno institucijo ali agencijo ali organ Unije v zvezi z isto vsebino;

(b)

stopnja sodelovanja z Evropskim nadzornikom za varstvo podatkov za odpravo kršitve in zmanjševanje morebitnih škodljivih učinkov kršitve, vključno z upoštevanjem katerega koli ukrepa, ki ga je Evropski nadzornik za varstvo podatkov predhodno odredil zoper zadevno institucijo ali agencijo ali organ Unije v zvezi z isto vsebino;

Sprememba 673

Predlog uredbe

Člen 72 – odstavek 1 – točka c a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ca)

kako je Evropski nadzornik za varstvo podatkov izvedel za kršitev, zlasti če in v kakšnem obsegu sta ga institucija ali organ Unije uradno obvestila o kršitvi;

Sprememba 674

Predlog uredbe

Člen 72 – odstavek 1 – točka c b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(cb)

letni proračun organa;

Sprememba 675

Predlog uredbe

Člen 72 – odstavek 2 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Za naslednje kršitve se naložijo upravne globe do 500 000  EUR:

2.   Za nespoštovanje prepovedi praks umetne inteligence iz člena 5 se naložijo upravne globe do 1 500 000  EUR.

Sprememba 676

Predlog uredbe

Člen 72 – odstavek 2 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

neskladnost s prepovedmi praks umetne inteligence iz člena 5;

črtano

Sprememba 677

Predlog uredbe

Člen 72 – odstavek 2 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

2a.     Za neskladnost umetnointeligenčnega sistema z zahtevami iz člena 10 se naložijo upravne globe v višini do 1 000 000  EUR.

Sprememba 678

Predlog uredbe

Člen 72 – odstavek 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.   Če umetnointeligenčni sistem ne izpolnjuje zahtev ali obveznosti iz te uredbe, razen tistih iz členov 5 in 10, se kaznuje z upravnimi globami do 250 000  EUR .

3.   Če umetnointeligenčni sistem ne izpolnjuje zahtev ali obveznosti iz te uredbe, razen tistih iz členov 5 in 10, se kaznuje z upravnimi globami do 750 000  EUR .

Sprememba 679

Predlog uredbe

Člen 72 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Sredstva, zbrana z naložitvijo glob iz tega člena, so prihodek splošnega proračuna Unije.

6.   Sredstva, zbrana z naložitvijo glob iz tega člena, prispevajo k splošnemu proračunu Unije. Globe ne vplivajo na učinkovito delovanje oglobljene institucije, organa ali agencije Unije.

Sprememba 680

Predlog uredbe

Člen 72 – odstavek 6 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

6a.     Evropski nadzornik za varstvo podatkov uradu za umetno inteligenco letno poroča o globah, ki jih je naložil v skladu s tem členom.

Sprememba 681

Predlog uredbe

Člen 73 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Pooblastilo iz člena 4, člena 7(1), člena 11(3), člena 43(5) in (6) ter člena 48(5) se prenese na Komisijo za nedoločen čas od [ datuma začetka veljavnosti te uredbe].

2.   Pooblastilo za sprejemanje delegiranih aktov iz člena 4, člena 7(1), člena 11(3), člena 43(5) in (6) ter člena 48(5) se prenese na Komisijo za obdobje petih let od … [ datum začetka veljavnosti te uredbe]. Komisija pripravi poročilo o prenosu pooblastila najpozneje devet mesecev pred koncem petletnega obdobja. Prenos pooblastila se samodejno podaljša za enako obdobje, razen če Evropski parlament ali Svet ne nasprotuje temu podaljšanju najpozneje tri mesece pred koncem vsakega obdobja.

Sprememba 682

Predlog uredbe

Člen 73 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Komisija se pred sprejetjem delegiranega akta posvetuje z ustreznimi institucijami, uradom, svetovalnim forumom in drugimi ustreznimi deležniki v skladu z načeli, določenimi v Medinstitucionalnem sporazumu z dne 13. aprila 2016 o boljši pripravi zakonodaje.

 

Ko se Komisija odloči, da bo pripravila delegirani akt, o tem obvesti Evropski parlament. To uradno obvestilo Komisiji ne nalaga obveznosti, da sprejme navedeni akt.

Sprememba 683

Predlog uredbe

Člen 81 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 81a

 

Spremembe Uredbe (EU) 2019/1020

 

Uredba (EU) 2019/1020 se spremeni:

 

v členu 14(4) se doda naslednji odstavek:

 

„(l)

pooblastilo za izvajanje pooblastil iz tega člena na daljavo, kadar je to ustrezno;“

Sprememba 684

Predlog uredbe

Člen 82 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 82a

Boljše pravno urejanje

Ob upoštevanju zahtev iz te uredbe v skladu s spremembami členov 75, 76, 77, 78, 79, 80, 81 in 82 Komisija izvede analizo in se posvetuje z ustreznimi deležniki, da bi ugotovila morebitne vrzeli in prekrivanja med obstoječo sektorsko zakonodajo in določbami te uredbe.

Sprememba 685

Predlog uredbe

Člen 82 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Člen 82b

 

Smernice Komisije za izvajanje te uredbe

 

1.     Komisija po posvetovanju z uradom za umetno inteligenco pripravi smernice za praktično izvajanje te uredbe in zlasti o:

 

(a)

izvajanju zahtev iz členov 8 do 15 in členov 28 do 28b;

 

(b)

prepovedanih praksah iz člena 5;

 

(c)

praktičnem izvajanju določb v zvezi z vsebinskimi spremembami;

 

(d)

praktičnih okoliščinah, v katerih bi izhodni podatki umetnointeligenčnega sistema iz Priloge III predstavljali znatno tveganje škodovanja zdravju, varnosti ali temeljnim pravicam fizičnih oseb iz člena 6(2), vključno s primeri, povezanimi z umetnointeligenčnimi sistemi velikega tveganja iz Priloge III;

 

(e)

praktičnem izvajanju obveznosti glede preglednosti iz člena 52;

 

(f)

razvoju kodeksov ravnanja iz člena 69;

 

(g)

razmerju med to uredbo in drugim ustreznim pravom Unije, tudi kar zadeva skladnost njunega izvrševanja;

 

(h)

praktičnem izvajanju člena 12, člena 28b o vplivu temeljnih modelov na okolje in Priloge IV 3(b), zlasti metod merjenja in beleženja, da se omogočijo izračuni in poročanje o vplivih sistemov na okolje za izpolnjevanje obveznosti iz te uredbe, vključno z ogljičnim odtisom in energijsko učinkovitostjo, ob upoštevanju najsodobnejših metod in ekonomije obsega.

 

Komisija pri izdaji takih smernic posebno pozornost nameni potrebam MSP, vključno z zagonskimi podjetji, lokalnih javnih organov in sektorjev, ki jih bo ta uredba najverjetneje prizadela.

 

2.     Komisija na zahtevo držav članic ali urada za umetno inteligenco ali na lastno pobudo po potrebi posodobi že sprejete smernice.

Sprememba 686

Predlog uredbe

Člen 83 – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.    Ta uredba se ne uporablja za umetnointeligenčne sisteme , ki so komponente informacijskih sistemov velikega obsega, vzpostavljenih s pravnimi akti iz Priloge IX, ki so bili dani na trg ali v uporabo prej kot [12 mesecev po datumu začetka uporabe te uredbe iz člena 85(2)] , razen če se zaradi nadomestitve ali spremembe navedenih pravnih aktov bistveno spremeni zasnova ali predvideni namen zadevnega umetnointeligenčnega sistema ali umetnointeligenčnih sistemov .

1.    Operaterji umetnointeligenčnih sistemov , ki so komponente informacijskih sistemov velikega obsega, vzpostavljenih s pravnimi akti iz Priloge IX, ki so bili dani na trg ali v uporabo pred … [datum začetka uporabe te uredbe] , sprejmejo potrebne ukrepe za izpolnitev zahtev iz te uredbe do … [štiri leta od začetka veljavnosti te uredbe] .

Sprememba 687

Predlog uredbe

Člen 83 – odstavek 1 – pododstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Zahteve iz te uredbe se po potrebi upoštevajo pri ocenjevanju vsakega obsežnega informacijskega sistema, vzpostavljenega s pravnimi akti iz Priloge IX, ki ga je treba izvesti, kot je določeno v teh zadevnih aktih.

Zahteve iz te uredbe se upoštevajo pri ocenjevanju vsakega obsežnega informacijskega sistema, vzpostavljenega s pravnimi akti iz Priloge IX, ki ga je treba izvesti, kot je določeno v teh zadevnih aktih , in vedno, ko se ti pravni akti nadomestijo ali spremenijo .

Sprememba 688

Predlog uredbe

Člen 83 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Ta uredba se uporablja za umetnointeligenčne sisteme velikega tveganja, razen tistih iz odstavka 1, ki so bili dani na trg ali v uporabo pred [datumom začetka uporabe te uredbe iz člena 85(2)], samo če se od navedenega datuma pri teh sistemih bistveno spremeni njihova zasnova ali predvideni namen .

2.   Ta uredba se uporablja za operaterje umetnointeligenčnih sistemov velikega tveganja, razen tistih iz odstavka 1, ki so bili dani na trg ali v uporabo pred [datumom začetka uporabe te uredbe iz člena 85(2)], samo če pride od navedenega datuma pri teh sistemih do bistvenih sprememb v skladu z opredelitvijo iz člena 3(23). V primeru umetnointeligenčnih sistemov velikega tveganja, ki naj bi jih uporabljali javni organi, ponudniki in uvajalci takih sistemov sprejmejo potrebne ukrepe za izpolnjevanje zahtev iz te uredbe [dve leti po datumu začetka veljavnosti te uredbe] .

Sprememba 689

Predlog uredbe

Člen 84 – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

1.   Komisija enkrat letno po začetku veljavnosti te uredbe oceni potrebo po spremembi seznama iz Priloge III.

1.   Komisija po posvetovanju z uradom za umetno inteligenco oceni potrebo po spremembi seznama iz Priloge III , vključno z razširitvijo obstoječih razdelkov področij ali dodajanjem novih razdelkov področij v to prilogo, seznama prepovedanih praks umetne inteligence iz člena 5 in seznama umetnointeligenčnih sistemov, za katere so potrebni dodatni ukrepi za preglednost iz člena 52, in sicer enkrat letno po začetku veljavnosti te uredbe in na podlagi priporočila urada.

 

Komisija ugotovitve te ocene predloži Evropskemu parlamentu in Svetu.

Sprememba 690

Predlog uredbe

Člen 84 – odstavek 2

Besedilo, ki ga predlaga Komisija

Sprememba

2.   Komisija [ v treh letih po začetku uporabe te uredbe iz člena 85(2)] ter nato vsaka štiri leta Evropskemu parlamentu in Svetu predloži poročilo o oceni in pregledu te uredbe. Poročila se objavijo.

2.   Komisija skupaj z uradom za umetno inteligenco do … [ dve leti po začetku uporabe te uredbe iz člena 85(2)] ter nato vsaki dve leti Evropskemu parlamentu in Svetu predloži poročilo o oceni in pregledu te uredbe. Poročila se objavijo.

Sprememba 691

Predlog uredbe

Člen 84 – odstavek 3 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

stanje finančnih in človeških virov pristojnih nacionalnih organov za učinkovito izvajanje nalog, dodeljenih s to uredbo;

(a)

stanje finančnih , tehničnih in človeških virov pristojnih nacionalnih organov za učinkovito izvajanje nalog, dodeljenih s to uredbo;

Sprememba 692

Predlog uredbe

Člen 84 – odstavek 3 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

raven razvoja harmoniziranih standardov in skupnih specifikacij za umetno inteligenco;

Sprememba 693

Predlog uredbe

Člen 84 – odstavek 3 – točka b b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bb)

ravni naložb v raziskave, razvoj in uporabo umetnointeligenčnih sistemov po vsej Uniji;

Sprememba 694

Predlog uredbe

Člen 84 – odstavek 3 – točka b c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bc)

konkurenčnost združenega evropskega umetnointeligenčnega sektorja v primerjavi z umetnointeligenčnimi sektorji v tretjih državah;

Sprememba 695

Predlog uredbe

Člen 84 – odstavek 3 – točka b d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bd)

vpliv uredbe na rabo virov in energije ter nastajanje odpadkov in drugi vplivi na okolje;

Sprememba 696

Predlog uredbe

Člen 84 – odstavek 3 – točka b e (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(be)

izvajanje usklajenega načrta za umetno inteligenco ob upoštevanju različne ravni napredka držav članic in opredelitev obstoječih ovir za inovacije na področju umetne inteligence;

Sprememba 697

Predlog uredbe

Člen 84 – odstavek 3 – točka b f (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bf)

posodobitev posebnih zahtev glede trajnostnosti umetnointeligenčnih sistemov in temeljnih modelov na podlagi zahteve glede poročanja in dokumentacije iz Priloge IV in člena 28b;

Sprememba 698

Predlog uredbe

Člen 84 – odstavek 3 – točka b g (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bg)

pravna ureditev, ki ureja temeljne modele;

Sprememba 699

Predlog uredbe

Člen 84 – odstavek 3 – točka b h (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bh)

seznam nepoštenih pogodbenih pogojev iz člena 28a, pri čemer se po potrebi upoštevajo nove poslovne prakse;

Sprememba 700

Predlog uredbe

Člen 84 – odstavek 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.     Komisija do … [dve leti po datumu začetka uporabe te uredbe iz člena 85(2)] oceni delovanje urada za umetno inteligenco, ali je urad dobil zadostna pooblastila in pristojnosti za izpolnjevanje svojih nalog ter ali bi bilo ustrezno in potrebno za pravilno izvajanje in izvrševanje te uredbe nadgraditi urad in njegove pristojnosti izvrševanja ter povečati njegove vire. Komisija to poročilo o oceni predloži Evropskemu parlamentu in Svetu.

Sprememba 701

Predlog uredbe

Člen 84 – odstavek 4

Besedilo, ki ga predlaga Komisija

Sprememba

4.   Komisija [ v treh letih po začetku uporabe te uredbe iz člena 85(2)] ter nato vsaka štiri leta oceni vpliv in učinkovitost kodeksov ravnanja za spodbujanje uporabe zahtev iz poglavja 2 naslova III in morebitnih drugih dodatnih zahtev za umetnointeligenčne sisteme, ki niso umetnointeligenčni sistemi velikega tveganja.

4.   Komisija do … [ eno leto po začetku uporabe te uredbe iz člena 85(2)] ter nato vsaki dve leti oceni vpliv in učinkovitost kodeksov ravnanja za spodbujanje uporabe zahtev iz poglavja 2 naslova III in morebitnih drugih dodatnih zahtev za umetnointeligenčne sisteme, ki niso umetnointeligenčni sistemi velikega tveganja.

Sprememba 702

Predlog uredbe

Člen 84 – odstavek 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.   Za namene odstavkov 1 do 4 odbor , države članice in pristojni nacionalni organi Komisiji na njeno zahtevo zagotovijo informacije.

5.   Za namene odstavkov 1 do 4 urad za umetno inteligenco , države članice in pristojni nacionalni organi Komisiji na njeno zahtevo brez nepotrebnega odlašanja zagotovijo informacije.

Sprememba 703

Predlog uredbe

Člen 84 – odstavek 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.   Komisija pri izvajanju ocenjevanj in pregledov iz odstavkov 1 in 4 upošteva stališča in ugotovitve Odbora , Evropskega parlamenta, Sveta ter drugih ustreznih organov ali virov.

6.   Komisija pri izvajanju ocenjevanj in pregledov iz odstavkov 1 in 4 upošteva stališča in ugotovitve urada za umetno inteligenco , Evropskega parlamenta, Sveta ter drugih ustreznih organov ali virov in se posvetuje z ustreznimi deležniki. Rezultat tega posvetovanja se priloži poročilu.

Sprememba 704

Predlog uredbe

Člen 84 – odstavek 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.   Komisija po potrebi predloži ustrezne predloge za spremembo te uredbe, zlasti ob upoštevanju razvoja tehnologije in glede na stanje napredka v informacijski družbi.

7.   Komisija po potrebi predloži ustrezne predloge za spremembo te uredbe, zlasti ob upoštevanju razvoja tehnologije , vpliva umetnointeligenčnih sistemov na zdravje in varnost, temeljne pravice, okolje, enakost in dostopnost za invalide, demokracijo in pravno državo ter glede na stanje napredka v informacijski družbi.

Sprememba 705

Predlog uredbe

Člen 84 – odstavek 7 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

7a.     Za usmerjanje ocen in pregledov iz odstavkov 1 do 4 tega člena se urad zaveže, da bo razvil objektivno in participativno metodologijo za ocenjevanje stopnje tveganja na podlagi meril iz ustreznih členov in vključitev novih sistemov na: seznam v Prilogi III, vključno z razširitvijo obstoječih razdelkov področij ali dodajanjem novih razdelkov področij tej prilogi; seznam prepovedanih praks iz člena 5; in seznam umetnointeligenčnih sistemov, ki zahtevajo dodatne ukrepe za preglednost v skladu s členom 52.

Sprememba 706

Predlog uredbe

Člen 84 – odstavek 7 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

7b.     Vsaka sprememba te uredbe v skladu z odstavkom 7 tega člena ali ustrezni prihodnji delegirani ali izvedbeni akti, ki se nanašajo na sektorsko zakonodajo iz Priloge II, oddelek B, upoštevajo regulativne posebnosti vsakega sektorja in obstoječe mehanizme upravljanja, ugotavljanja skladnosti in izvrševanja ter organe, določene v njih.

Sprememba 707

Predlog uredbe

Člen 84 – odstavek 7 c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

7c.     Komisija do … [pet let od datuma začetka uporabe te uredbe] oceni izvajanje te uredbe, pri čemer upošteva prva leta njene uporabe, ter o tem poroča Evropskemu parlamentu, Svetu in Evropskemu ekonomsko-socialnemu odboru. Na podlagi ugotovitev se poročilu po potrebi priloži predlog za spremembo te uredbe v zvezi s strukturo izvrševanja in potrebo po tem, da agencija Unije odpravi vse ugotovljene pomanjkljivosti.

Sprememba 708

Predlog uredbe

Priloga I

Besedilo, ki ga predlaga Komisija

Sprememba

TEHNIKE IN PRISTOPI NA PODROČJU UMETNE INTELIGENCE iz člena 3(1)

črtano

(a)

Pristopi k strojnemu učenju, vključno z nadzorovanim, nenadzorovanim in spodbujevanim učenjem, pri katerih se uporabljajo najrazličnejše metode, vključno z globokim učenjem;

 

(b)

pristopi, ki temeljijo na logiki in znanju, vključno s predstavitvijo znanja, induktivnim (logičnim) programiranjem, bazami znanja, inferenčnimi in deduktivnimi sistemi, (simbolnim) sklepanjem in strokovnimi sistemi;

 

(c)

statistični pristopi, Bayesovo ocenjevanje, metode iskanja in optimizacije.

 

Sprememba 709

Predlog uredbe

Priloga III – odstavek 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

Umetnointeligenčni sistemi velikega tveganja v skladu s členom 6(2) so umetnointeligenčni sistemi , navedeni na seznamu za katero koli od naslednjih področij :

Umetnointeligenčni sistemi , ki so izrecno navedeni v točkah 1 do 8a, veljajo za primere kritične uporabe in se štejejo za umetnointeligenčne sisteme velikega tveganja v skladu s členom 6(2) , pod pogojem , da izpolnjujejo merila iz navedenega člena :

Sprememba 710

Predlog uredbe

Priloga III – odstavek 1 – točka 1 – uvodni del

Besedilo, ki ga predlaga Komisija

Sprememba

1.

biometrična identifikacija in kategorizacija fizičnih oseb:

1.

biometrični in na biometriji temelječi sistemi

Sprememba 711

Predlog uredbe

Priloga III – odstavek 1 – točka 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, namenjeni biometrični identifikaciji fizičnih oseb na daljavo v realnem času in naknadni biometrični identifikaciji fizičnih oseb na daljavo ;

(a)

umetnointeligenčni sistemi, namenjeni biometrični identifikaciji fizičnih oseb , razen tistih, ki so navedeni v členu 5 ;

Sprememba 712

Predlog uredbe

Priloga III – odstavek 1 – točka 1 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

umetnointeligenčni sistemi, namenjeni sklepanju o osebnih značilnostih fizičnih oseb na podlagi biometričnih podatkov ali podatkov, ki temeljijo na biometriji, vključno s sistemi za prepoznavanje čustev, razen tistih, ki so navedeni v členu 5.

 

Točka 1 ne vključuje umetnointeligenčnih sistemov, namenjenih uporabi za biometrično preverjanje, katerih edini namen je potrditi, da je določena fizična oseba res ta, za katero se izdaja;

Sprememba 713

Predlog uredbe

Priloga III – odstavek 1 – točka 2 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, namenjeni za uporabo kot varnostne komponente pri upravljanju in delovanju infrastrukture za cestni promet ter oskrbo z vodo, plinom, ogrevanjem in električno energijo ;

(a)

umetnointeligenčni sistemi, namenjeni za uporabo kot varnostne komponente pri upravljanju in delovanju cestnega, železniškega in zračnega prometa, razen če so urejeni s harmonizacijskim ali sektorskim pravom ;

Sprememba 714

Predlog uredbe

Priloga III – odstavek 1 – točka 2 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

umetnointeligenčni sistemi, namenjeni za uporabo kot varnostne komponente pri upravljanju in delovanju infrastrukture za oskrbo z vodo, plinom, ogrevanjem in električno energijo ter kritične digitalne infrastrukture;

Sprememba 715

Predlog uredbe

Priloga III – odstavek 1 – točka 3 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, namenjeni določanju dostopa do izobraževalnih ustanov in ustanov za poklicno usposabljanje ali dodeljevanju fizičnih oseb tem ustanovam;

(a)

umetnointeligenčni sistemi, namenjeni določanju dostopa do izobraževalnih ustanov in ustanov za poklicno usposabljanje ali bistvenemu vplivanju na odločitve o sprejemu fizičnih oseb na te ustanove ali njihovi dodelitvi tem ustanovam;

Sprememba 716

Predlog uredbe

Priloga III – odstavek 1 – točka 3 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetnointeligenčni sistemi, namenjeni ocenjevanju dijakov in študentov v izobraževalnih ustanovah in ustanovah za poklicno usposabljanje ter ocenjevanju udeležencev preizkusov, ki se običajno zahtevajo za sprejem v  izobraževalne ustanove;

(b)

umetnointeligenčni sistemi, namenjeni ocenjevanju dijakov in študentov v izobraževalnih ustanovah in ustanovah za poklicno usposabljanje ter ocenjevanju udeležencev preizkusov, ki se običajno zahtevajo za sprejem v  te ustanove;

Sprememba 717

Predlog uredbe

Priloga III – odstavek 1 – točka 3 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

umetnointeligenčni sistemi, namenjeni ocenjevanju ustrezne ravni izobrazbe za posameznika, ki bistveno vplivajo na raven izobrazbe in poklicnega usposabljanja, ki jo bo posameznik pridobil ali bo imel možnost do nje priti;

Sprememba 718

Predlog uredbe

Priloga III – odstavek 1 – točka 3 – točka b b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(bb)

umetnointeligenčni sistemi, namenjeni spremljanju in ugotavljanju prepovedanega vedenja učencev in študentov med opravljanjem preizkusov znanja, povezanih z ustanovami za izobraževanje in poklicno usposabljanje, oziroma v teh ustanovah;

Sprememba 719

Predlog uredbe

Priloga III – odstavek 1 – točka 4 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, namenjeni zaposlovanju ali izbiri fizičnih oseb, zlasti za oglaševanje prostih delovnih mest, pregledovanje ali filtriranje prijav in ocenjevanje kandidatov med razgovori ali preizkusi;

(a)

umetnointeligenčni sistemi, namenjeni zaposlovanju ali izbiri fizičnih oseb, zlasti za ciljno oglaševanje delovnih mest, pregledovanje ali filtriranje prijav in ocenjevanje kandidatov med razgovori ali preizkusi;

Sprememba 720

Predlog uredbe

Priloga III – odstavek 1 – točka 4 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetna inteligenca , namenjena odločanju o napredovanju in prenehanju z delom povezanih pogodbenih razmerij, dodeljevanju nalog ter spremljanju in ocenjevanju uspešnosti in vedenja oseb v takih razmerjih;

(b)

umetnointeligenčni sistemi , namenjeni odločanju ali bistvenemu vplivanju na odločitve sklenitvi, napredovanju in prenehanju z delom povezanih pogodbenih razmerij, dodeljevanju nalog na podlagi posameznikovega vedenja ali osebnih lastnosti ali značilnosti oziroma spremljanju in ocenjevanju uspešnosti in vedenja oseb v takih razmerjih;

Sprememba 721

Predlog uredbe

Priloga III – odstavek 1 – točka 5 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, ki naj bi jih uporabljali javni organi ali naj bi se uporabljali v njihovem imenu za ocenjevanje upravičenosti fizičnih oseb do ugodnosti in storitev javne pomoči ter za dodelitev, zmanjšanje, preklic ali povračilo takih ugodnosti in storitev;

(a)

umetnointeligenčni sistemi, ki naj bi jih uporabljali javni organi ali naj bi se uporabljali v njihovem imenu za ocenjevanje upravičenosti fizičnih oseb do ugodnosti in storitev javne pomoči , tudi zdravstvenih storitev in bistvenih storitev, vključno s stanovanjem, električno energijo, ogrevanjem/hlajenjem in internetom, ter za dodelitev, zmanjšanje, preklic ali povračilo takih ugodnosti in storitev;

Sprememba 722

Predlog uredbe

Priloga III – odstavek 1 – točka 5 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetnointeligenčni sistemi, namenjeni ocenjevanju kreditne sposobnosti fizičnih oseb ali določanju njihove kreditne ocene, razen umetnointeligenčnih sistemov, ki jih mali ponudniki uporabljajo za lastne potrebe ;

(b)

umetnointeligenčni sistemi, namenjeni ocenjevanju kreditne sposobnosti fizičnih oseb ali določanju njihove kreditne ocene, razen umetnointeligenčnih sistemov, ki se uporabljajo za odkrivanje finančnih goljufij ;

Sprememba 723

Predlog uredbe

Priloga III – odstavek 1 – točka 5 – točka b a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ba)

umetnointeligenčni sistemi, namenjeni odločanju ali bistvenemu vplivanju na odločitve o upravičenosti fizičnih oseb do zdravstvenega in življenjskega zavarovanja;

Sprememba 724

Predlog uredbe

Priloga III – odstavek 1 – točka 5 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

umetnointeligenčni sistemi, namenjeni uporabi za napotitev služb za ukrepanje ob nesrečah, vključno z gasilci in medicinsko pomočjo, ali določanje prednosti pri njihovi napotitvi;

(c)

umetnointeligenčni sistemi, namenjeni ocenjevanju in razvrščanju nujnih klicev fizičnih oseb ali uporabi za napotitev služb za ukrepanje ob nesrečah, vključno s policijo in organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, gasilci in medicinsko pomočjo, ali določanje prednosti pri njihovi napotitvi , ter sistemi za nujno zdravstveno triažo pacientov ;

Sprememba 725

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj uporabljali za individualne ocene tveganja v zvezi s fizičnimi osebami, da bi ocenili tveganje, da bo fizična oseba storila ali ponovila kaznivo dejanje, ali tveganje za potencialne žrtve kaznivih dejanj;

črtano

Sprememba 726

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj uporabljali kot poligrafe in podobna orodja ali za ugotavljanje čustvenega stanja fizične osebe ;

(b)

umetnointeligenčni sistemi, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj kot poligrafe in podobna orodja , kolikor je njihova uporaba dovoljena v skladu z ustreznim pravom Unije in nacionalnim pravom ;

Sprememba 727

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj uporabljali za odkrivanje globokih ponaredkov iz člena 52(3);

črtano

Sprememba 728

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj uporabljali za oceno zanesljivosti dokazov med preiskavo ali pregonom kaznivih dejanj;

(d)

umetnointeligenčni sistemi, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za ocenjevanje zanesljivosti dokazov med preiskavo ali pregonom kaznivih dejanj;

Sprememba 729

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj uporabljali za napovedovanje storitve ali ponovitve dejanskega ali potencialnega kaznivega dejanja na podlagi oblikovanja profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680 ali ocenjevanja osebnostnih lastnosti in značilnosti ali preteklega kaznivega ravnanja fizičnih oseb ali skupin;

črtano

Sprememba 730

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka f

Besedilo, ki ga predlaga Komisija

Sprememba

(f)

umetnointeligenčni sistemi, ki naj bi jih organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj med odkrivanjem , preiskovanjem ali pregonom kaznivih dejanj uporabljali za oblikovanje profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680;

(f)

umetnointeligenčni sistemi, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije , uradi ali organi Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za oblikovanje profilov fizičnih oseb iz člena 3(4) Direktive (EU) 2016/680 med odkrivanjem, preiskovanjem ali pregonom kaznivih dejanj oziroma v primeru agencij, uradov ali organov Unije, kot je to določeno v členu 3(5) Uredbe (EU) 2018/1725 ;

Sprememba 731

Predlog uredbe

Priloga III – odstavek 1 – točka 6 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

umetnointeligenčni sistemi, ki so namenjeni analizi kaznivih dejanj v zvezi s fizičnimi osebami ter organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj omogočajo iskanje zapletenih povezanih in nepovezanih velikih naborov podatkov, ki so na voljo v različnih virih podatkov ali v različnih oblikah podatkov, za razpoznavanje neznanih vzorcev ali odkrivanje skritih razmerij v podatkih;

(g)

umetnointeligenčni sistemi, ki naj bi jih uporabljali organi za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije v podporo organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj za analizo kaznivih dejanj v zvezi s fizičnimi osebami ter naj bi organom za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj omogočali iskanje zapletenih povezanih in nepovezanih velikih naborov podatkov, ki so na voljo v različnih virih podatkov ali v različnih oblikah podatkov, za razpoznavanje neznanih vzorcev ali odkrivanje skritih razmerij v podatkih;

Sprememba 732

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, ki naj bi jih pristojni javni organi uporabljali kot poligrafe in podobna orodja ali za ugotavljanje čustvenega stanja fizične osebe ;

(a)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije kot poligrafe in podobna orodja , kolikor je njihova uporaba dovoljena v skladu z ustreznim pravom Unije ali nacionalnim pravom ;

Sprememba 733

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

umetnointeligenčni sistemi, ki naj bi jih pristojni javni organi uporabljali za oceno tveganja, vključno z varnostnim tveganjem, tveganjem nezakonitega priseljevanja ali zdravstvenim tveganjem, ki ga predstavlja fizična oseba, ki namerava vstopiti ali je vstopila na ozemlje države članice;

(b)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije za oceno tveganja, vključno z varnostnim tveganjem, tveganjem nezakonitega priseljevanja ali zdravstvenim tveganjem, ki ga predstavlja fizična oseba, ki namerava vstopiti ali je vstopila na ozemlje države članice;

Sprememba 734

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

umetnointeligenčni sistemi, ki naj bi jih pristojni javni organi uporabljali za preverjanje pristnosti potnih listin in dokazil fizičnih oseb ter odkrivanje nepristnih dokumentov s preverjanjem njihovih varnostnih elementov;

(c)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije za preverjanje pristnosti potnih listin in dokazil fizičnih oseb ter odkrivanje nepristnih dokumentov s preverjanjem njihovih varnostnih elementov;

Sprememba 735

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

umetnointeligenčni sistemi, namenjeni pomoči pristojnim javnim organom pri preučitvi prošenj za azil, vizume in dovoljenja za prebivanje ter s tem povezanih pritožb glede upravičenosti fizičnih oseb, ki zaprosijo za status;

(d)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije za pomoč pristojnim javnim organom pri preučitvi in ocenjevanju verodostojnosti dokazil v zvezi s prošnjami za azil, vizumi in dovoljenji za prebivanje ter s tem povezanimi pritožbami glede upravičenosti fizičnih oseb, ki zaprosijo za status;

Sprememba 736

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka d a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(da)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije pri upravljanju migracij, azila in nadzora meja za spremljanje, pregledovanje ali obdelavo podatkov v okviru dejavnosti upravljanja meja za namene odkrivanja ter ugotavljanja ali preverjanja istovetnosti fizičnih oseb;

Sprememba 737

Predlog uredbe

Priloga III – odstavek 1 – točka 7 – točka d b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(db)

umetnointeligenčni sistemi, ki naj bi jih uporabljali pristojni javni organi ali naj bi se uporabljali v njihovem imenu ali naj bi jih uporabljali agencije, uradi ali organi Unije pri upravljanju migracij, azila in nadzora meja za napovedovanje ali predvidevanje trendov v zvezi z migracijskimi gibanji in prehodi meja;

Sprememba 738

Predlog uredbe

Priloga III – odstavek 1 – točka 8 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

umetnointeligenčni sistemi, namenjeni pomoči pravosodnim organom pri raziskovanju in razlagi dejstev in zakona ter pri uporabi zakona za konkretno dejansko stanje.

(a)

umetnointeligenčni sistemi, ki naj bi jih uporabljal pravosodni ali upravni organi ali naj bi se uporabljali v njegovem imenu za pomoč pravosodnemu ali upravnemu organu pri raziskovanju in razlagi dejstev in zakona ter pri uporabi zakona za konkretno dejansko stanje ali ki naj bi se uporabljali na podoben način pri alternativnem reševanju sporov;

Sprememba 739

Predlog uredbe

Priloga III – odstavek 1 – točka 8 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

umetnointeligenčni sistemi, namenjeni vplivanju na izid volitev ali referenduma ali na volilno vedenje fizičnih oseb pri glasovanju na volitvah ali referendumih. To ne vključuje umetnointeligenčnih sistemov, katerih izhodnim podatkom fizične osebe niso neposredno izpostavljene, kot so orodja, ki se uporabljajo za organizacijo, optimizacijo in strukturiranje političnih kampanj z upravnega in logističnega vidika;

Sprememba 740

Predlog uredbe

Priloga III – odstavek 1 – točka 8 – točka a b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ab)

umetnointeligenčni sistemi, ki naj bi jih uporabljale platforme družbenih medijev, ki so bile določene kot zelo velike spletne platforme v smislu člena 33 Uredbe (EU) 2022/2065, v svojih priporočilnih sistemih, da bi prejemniku storitve priporočale vsebine, ki jih ustvarijo uporabniki in so na voljo na platformi.

Sprememba 741

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka a

Besedilo, ki ga predlaga Komisija

Sprememba

(a)

njegovim predvidenim namenom, osebami, ki razvijajo sistem, ter datumom in različico sistema;

(a)

njegovim predvidenim namenom, imenom ponudnika in različico sistema , ki odražata njegovo razmerje do prejšnjih in po potrebi novejših različic v zaporedju revizij ;

Sprememba 742

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka a a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(aa)

naravo podatkov, katerih obdelava s strani sistema je verjetna oziroma načrtovana, ter v primeru osebnih podatkov kategorije fizičnih oseb in skupin, ki jih bo to verjetno zadevalo oziroma se zanje načrtuje, da jih bo zadevalo;

Sprememba 743

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

opisom, kako umetnointeligenčni sistem deluje vzajemno s strojno ali programsko opremo, ki ni del samega umetnointeligenčnega sistema, ali se lahko uporablja za vzajemno delovanje z njo, če je ustrezno;

(b)

opisom, kako lahko umetnointeligenčni sistem deluje vzajemno s strojno ali programsko opremo, vključno z drugimi umetnointeligenčnimi sistemi, ki niso del samega umetnointeligenčnega sistema, ali se lahko uporablja za vzajemno delovanje z njo, če je ustrezno;

Sprememba 744

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

različicami ustrezne programske opreme ali strojne programske opreme in morebitnimi zahtevami v zvezi s posodobitvijo različice;

(c)

različicami ustrezne programske opreme ali strojne programske opreme in po potrebi informacije za uvajalca o morebitnih zahtevah v zvezi s posodobitvijo različice;

Sprememba 745

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka d

Besedilo, ki ga predlaga Komisija

Sprememba

(d)

opisom vseh oblik, v katerih je umetnointeligenčni sistem dan na trg ali v uporabo;

(d)

opisom različnih konfiguracij in različic umetnointeligenčnega sistema, ki naj bi bile dane na trg ali v uporabo;

Sprememba 746

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka f a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(fa)

opisom vmesnika uvajalca;

Sprememba 747

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

navodili za uporabo za uporabnika in po potrebi navodili za namestitev;

(g)

navodili za uporabo za uvajalca v skladu s členom 13(2) in (3) ter členom 14(4)(e) in po potrebi navodili za namestitev;

Sprememba 748

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ga)

podrobnim in jasno razumljivim opisom glavnega cilja oziroma ciljev optimizacije sistema;

Sprememba 749

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(gb)

podrobnim in jasno razumljivim opisom pričakovanih izhodnih podatkov in kakovosti pričakovanih izhodnih podatkov sistema;

Sprememba 750

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g c (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(gc)

podrobnimi in jasno razumljivimi navodili za razlago izhodnih podatkov sistema;

Sprememba 751

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g d (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(gd)

primeri scenarijev, v katerih naj se sistem ne bi uporabljal;

Sprememba 752

Predlog uredbe

Priloga IV – odstavek 1 – točka 2 – točka b

Besedilo, ki ga predlaga Komisija

Sprememba

(b)

specifikacijami zasnove sistema , in sicer splošno logiko umetnointeligenčnega sistema in algoritmov ; ključnimi odločitvami glede zasnove sistema, vključno z utemeljitvijo in predpostavkami, tudi glede oseb ali skupin oseb, za katere naj bi se sistem uporabljal; glavnimi izbirami klasifikacije; informacijami o tem, kaj naj bi sistem optimiziral in kako pomembni so različni parametri; odločitvami o morebitnih kompromisih glede tehničnih rešitev, sprejetih za izpolnitev zahtev iz poglavja 2 naslova III;

(b)

opisom arhitekture, specifikacijami zasnove , algoritmi in podatkovnimi strukturami, vključno z razčlenitvijo njegovih sestavnih delov in vmesnikov , kako so medsebojno povezani in kako zagotavljajo obdelavo ali logiko umetnointeligenčnega sistema; ključnimi odločitvami glede zasnove sistema, vključno z utemeljitvijo in predpostavkami, tudi glede oseb ali skupin oseb, za katere naj bi se sistem uporabljal; glavnimi izbirami klasifikacije; informacijami o tem, kaj naj bi sistem optimiziral in kako pomembni so različni parametri; odločitvami o morebitnih kompromisih glede tehničnih rešitev, sprejetih za izpolnitev zahtev iz poglavja 2 naslova III;

Sprememba 753

Predlog uredbe

Priloga IV – odstavek 1 – točka 2 – točka c

Besedilo, ki ga predlaga Komisija

Sprememba

(c)

opisom arhitekture sistema, ki pojasnjuje, kako se sestavni deli programske opreme medsebojno nadgrajujejo ali vzajemno učinkujejo in so vključeni v celotno obdelavo; računalniškimi viri, uporabljenimi za razvoj, učenje, testiranje in potrjevanje umetnointeligenčnega sistema;

črtano

Sprememba 754

Predlog uredbe

Priloga IV – odstavek 1 – točka 2 – točka e

Besedilo, ki ga predlaga Komisija

Sprememba

(e)

oceno potrebnih ukrepov človekovega nadzora v skladu s členom 14, vključno z oceno potrebnih tehničnih ukrepov, ki uporabnikom olajšajo razlago rezultatov umetnointeligenčnih sistemov, v skladu s členom 13(3)(d);

(e)

oceno potrebnih ukrepov človekovega nadzora v skladu s členom 14, vključno z oceno potrebnih tehničnih ukrepov, ki uvajalcem olajšajo razlago rezultatov umetnointeligenčnih sistemov, v skladu s členom 13(3)(d);

Sprememba 755

Predlog uredbe

Priloga IV – odstavek 1 – točka 2 – točka g

Besedilo, ki ga predlaga Komisija

Sprememba

(g)

uporabljenimi postopki potrjevanja in testiranja, vključno z informacijami o uporabljenih podatkih za potrditev in testnih podatkih ter njihovih glavnih značilnostih; metrikami, uporabljenimi za merjenje točnosti, robustnosti , kibernetske varnosti in skladnosti z drugimi ustreznimi zahtevami iz poglavja 2 naslova III, pa tudi za merjenje potencialno diskriminatornih učinkov; dnevniki testiranj in vsemi poročili o testiranjih z datumi in podpisi odgovornih oseb, tudi v zvezi z vnaprej določenimi spremembami iz točke (f);

(g)

uporabljenimi postopki potrjevanja in testiranja, vključno z informacijami o uporabljenih podatkih za potrditev in testnih podatkih ter njihovih glavnih značilnostih; metrikami, uporabljenimi za merjenje točnosti, robustnosti in skladnosti z drugimi ustreznimi zahtevami iz poglavja 2 naslova III, pa tudi za merjenje potencialno diskriminatornih učinkov; dnevniki testiranj in vsemi poročili o testiranjih z datumi in podpisi odgovornih oseb, tudi v zvezi z vnaprej določenimi spremembami iz točke (f);

Sprememba 756

Predlog uredbe

Priloga IV – odstavek 1 – točka 1 – točka g a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

(ga)

sprejetimi ukrepi za kibernetsko varnost;

Sprememba 757

Predlog uredbe

Priloga IV – odstavek 1 – točka 3

Besedilo, ki ga predlaga Komisija

Sprememba

3.

podrobne informacije o spremljanju, delovanju in nadzoru umetnointeligenčnega sistema, zlasti glede: njegovih zmogljivosti in omejitev delovanja, vključno s stopnjami točnosti za določene osebe ali skupine oseb, za katere naj bi se sistem uporabljal, in splošno pričakovano stopnjo točnosti glede na predvideni namen; predvidljivih nenamernih rezultatov in virov tveganj za zdravje in varnost, temeljne pravice in diskriminacijo glede na predvideni namen umetnointeligenčnega sistema; potrebnih ukrepov človekovega nadzora v skladu s členom 14, vključno z vzpostavljenimi tehničnimi ukrepi, ki uporabnikom olajšajo razlago rezultatov umetnointeligenčnih sistemov; specifikacij o vhodnih podatkih, kot je ustrezno;

3.

podrobne informacije o spremljanju, delovanju in nadzoru umetnointeligenčnega sistema, zlasti glede: njegovih zmogljivosti in omejitev delovanja, vključno s stopnjami točnosti za določene osebe ali skupine oseb, za katere naj bi se sistem uporabljal, in splošno pričakovano stopnjo točnosti glede na predvideni namen; predvidljivih nenamernih rezultatov in virov tveganj za zdravje in varnost, temeljne pravice in diskriminacijo glede na predvideni namen umetnointeligenčnega sistema; potrebnih ukrepov človekovega nadzora v skladu s členom 14, vključno z vzpostavljenimi tehničnimi ukrepi, ki uvajalcem olajšajo razlago rezultatov umetnointeligenčnih sistemov; specifikacij o vhodnih podatkih, kot je ustrezno;

Sprememba 758

Predlog uredbe

Priloga IV – odstavek 1 – točka 3 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3a.

opis ustreznosti metrik uspešnosti za posamezni umetnointeligenčni sistem;

Sprememba 759

Predlog uredbe

Priloga IV – odstavek 1 – točka 3 b (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

3b.

informacije o porabi energije umetnointeligenčnega sistema v razvojni fazi in pričakovani porabi energije med uporabo, pri čemer se po potrebi upoštevata ustrezno pravo Unije in nacionalno pravo;

Sprememba 760

Predlog uredbe

Priloga IV – odstavek 1 – točka 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.

opis morebitnih sprememb sistema v njegovem življenjskem ciklu;

5.

opis morebitnih relevantnih sprememb sistema , ki jih v njegovem življenjskem ciklu uvedejo ponudniki ;

Sprememba 761

Predlog uredbe

Priloga IV – odstavek 1 – točka 6

Besedilo, ki ga predlaga Komisija

Sprememba

6.

seznam harmoniziranih standardov, ki so bili delno ali v celoti uporabljeni in katerih sklici so bili objavljeni v Uradnem listu Evropske unije; če taki harmonizirani standardi niso bili uporabljeni, podroben opis rešitev, sprejetih za izpolnitev zahtev iz poglavja 2 naslova III, vključno s seznamom drugih uporabljenih ustreznih standardov in tehničnih specifikacij;

6.

seznam harmoniziranih standardov, ki so bili delno ali v celoti uporabljeni in katerih sklici so bili objavljeni v Uradnem listu Evropske unije; če taki harmonizirani standardi niso bili uporabljeni, podroben opis rešitev, sprejetih za izpolnitev zahtev iz poglavja 2 naslova III, vključno s seznamom drugih uporabljenih ustreznih standardov ali skupnih specifikacij;

Sprememba 762

Predlog uredbe

Priloga V – odstavek 1 – točka 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.

kadar umetnointeligenčni sistem vključuje obdelavo osebnih podatkov, izjavo, da je umetnointeligenčni sistem skladen z Uredbama (EU) 2016/679 in (EU) 2018/1725 ter Direktivo (EU) 2016/680;

Sprememba 763

Predlog uredbe

Priloga V – odstavek 1 – točka 7

Besedilo, ki ga predlaga Komisija

Sprememba

7.

kraj in datum izdaje izjave, ime in funkcijo podpisnika ter navedbo, za koga in v imenu koga ta oseba podpisuje izjavo, in podpis.

7.

kraj in datum izdaje izjave, podpis, ime in funkcijo podpisnika ter navedbo, za koga in v imenu koga ta oseba podpisuje izjavo, in podpis.

Sprememba 764

Predlog uredbe

Priloga VII – točka 4 – točka 4.5

Besedilo, ki ga predlaga Komisija

Sprememba

4.5.

Priglašenemu organu se na utemeljeno zahtevo omogoči tudi dostop do izvorne kode umetnointeligenčnega sistema, če je to potrebno za oceno skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 naslova III.

4.5.

Priglašenemu organu se , po tem ko so bili izkoriščeni vsi drugi smiselni načini preverjanja skladnosti ter so se izkazali za nezadostne, na utemeljeno zahtevo omogoči tudi dostop do učnih in naučenih modelov umetnointeligenčnega sistema, vključno z njegovimi relevantnimi parametri, če je to potrebno za oceno skladnosti umetnointeligenčnega sistema velikega tveganja z zahtevami iz poglavja 2 naslova III. Za tak dostop se uporablja veljavno pravo Unije in nacionalno pravo o intelektualni lastnini in poslovnih skrivnostih. Sprejmejo se tehnični in organizacijski ukrepi, da se zagotovi zaščita intelektualne lastnine in poslovnih skrivnostih.

Sprememba 765

Predlog uredbe

Priloga VIII – odstavek 1

Besedilo, ki ga predlaga Komisija

Sprememba

Naslednje informacije v zvezi z umetnointeligenčnimi sistemi velikega tveganja, ki jih je treba registrirati v skladu s členom 51, se predložijo in nato posodabljajo.

Oddelek A – Naslednje informacije v zvezi z umetnointeligenčnimi sistemi velikega tveganja, ki jih je treba registrirati v skladu s členom 51 (1) , se predložijo in nato posodabljajo.

Sprememba 766

Predlog uredbe

Priloga VIII – točka 4 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

4a.

trgovsko ime temeljnega modela ter morebitne dodatne nedvoumne navedbe, ki omogočajo identifikacijo in sledljivost;

Sprememba 767

Predlog uredbe

Priloga VIII – točka 5

Besedilo, ki ga predlaga Komisija

Sprememba

5.

opis predvidenega namena umetnointeligenčnega sistema;

5.

preprost in razumljiv opis

 

(a)

predvidenega namena umetnointeligenčnega sistema;

 

(b)

sestavnih delov in funkcij, podprtih z umetno inteligenco;

 

(c)

osnovno razlago logike umetnointeligenčnega sistema;

Sprememba 768

Predlog uredbe

Priloga VIII – točka 5 a (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

5a.

po potrebi kategorije in naravo podatkov, za katere je verjetno ali predvideno, da jih bo umetnointeligenčni sistem obdeloval;

Sprememba 769

Predlog uredbe

Priloga VIII – točka 11

Besedilo, ki ga predlaga Komisija

Sprememba

11.

elektronska navodila za uporabo; te informacije se ne predložijo za umetnointeligenčne sisteme velikega tveganja na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter upravljanja migracij, azila in nadzora meje iz točk 1, 6 in 7 Priloge III;

črtano

Sprememba 770

Predlog uredbe

Priloga VIII – oddelek B (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Oddelek B – Naslednje informacije v zvezi z umetnointeligenčnimi sistemi velikega tveganja, ki jih je treba registrirati v skladu s členom 51(1a)(a) in (1b), se predložijo in nato posodabljajo.

 

1.

Ime, naslov in kontaktni podatki uvajalca;

 

2.

ime, naslov in kontaktni podatki osebe, ki posreduje informacije v imenu uvajalca;

 

3.

trgovsko ime umetnointeligenčnega sistema visokega tveganja ter morebitne dodatne nedvoumne navedbe, ki omogočajo identifikacijo in sledljivost uporabljenega umetnointeligenčnega sistema;

 

4.

(a) preprost in razumljiv opis predvidene uporabe umetnointeligenčnega sistema, vključno s specifičnimi izhodnimi podatki, ki se poskušajo pridobiti z uporabo sistema, geografskim in časovnim obsegom uporabe;

 

(b)

po potrebi kategorije in naravo podatkov, ki jih bo umetnointeligenčni sistem obdeloval;

 

(c)

ureditev za človekov nadzor in upravljanje;

 

(d)

po potrebi organi ali fizične osebe, odgovorni za odločitve, ki jih sprejme ali podpira umetnointeligenčni sistem;

 

5.

povzetek ugotovitev ocene učinka na temeljne pravice, ki se opravi v skladu s členom 29a;

 

6.

URL naslov vnosa umetnointeligenčnega sistema v podatkovno zbirko EU, za katerega poskrbi njegov ponudnik;

 

7.

po potrebi povzetek ocene učinka v zvezi z varstvom podatkov, izvedene v skladu s členom 35 Uredbe (EU) 2016/679 ali členom 27 Direktive (EU) 2016/680, kot je določeno v odstavku 6 člena 29 te uredbe.

Sprememba 771

Predlog uredbe

Priloga VIII – oddelek C (novo)

Besedilo, ki ga predlaga Komisija

Sprememba

 

Oddelek C – Naslednje informacije v zvezi z temeljnimi modeli, ki jih je treba registrirati v skladu s členom 28b(e), se predložijo in nato posodabljajo.

 

1.

Ime, naslov in kontaktni podatki ponudnika;

 

2.

kadar informacije predloži druga oseba v imenu ponudnika, ime, naslov in kontaktni podatki te osebe;

 

3.

ime, naslov in kontaktni podatki pooblaščenega zastopnika, če obstaja;

 

4.

trgovsko ime ter morebitne dodatne nedvoumne navedbe, ki omogočajo identifikacijo temeljnega modela;

 

5.

opis virov podatkov, uporabljenih pri razvoju temeljnega modela;

 

6.

opis zmogljivosti in omejitev temeljnega modela, vključno z razumno predvidljivimi tveganji in ukrepi, ki so bili sprejeti za njihovo zmanjšanje, ter preostalimi tveganji, ki niso bila zmanjšana, z obrazložitvijo, zakaj jih ni mogoče zmanjšati;

 

7.

opis virov za učenje, ki jih uporablja temeljni model, vključno s potrebno računalniško zmogljivostjo, časom učenja in drugimi ustreznimi informacijami, povezanimi z velikostjo in močjo modela; opis učinkovitosti modela, tudi glede na javne referenčne vrednosti ali najsodobnejše referenčne vrednosti v okviru panoge;

 

8.

opis rezultatov ustreznega notranjega in zunanjega preskušanja ter optimizacije modela;

 

9.

države članice, v katerih se temeljni model daje ali je bil dan na trg ali v uporabo ali je bil dan na voljo v Uniji;

 

10.

URL za dodatne informacije (neobvezno).

(1)  Zadeva je bila v skladu s četrtim pododstavkom člena 59(4) Poslovnika vrnjena pristojnemu odboru v medinstitucionalna pogajanja (A9-0188/2023).

(33)  Evropski svet, izredno zasedanje Evropskega sveta (1. in 2. oktobra 2020) – sklepi, EUCO 13/20, 2020, str. 6.

(34)  Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o okviru etičnih vidikov umetne inteligence, robotike in sorodnih tehnologij, 2020/2012(INL).

(33)  Evropski svet, izredno zasedanje Evropskega sveta (1. in 2. oktobra 2020) – sklepi, EUCO 13/20, 2020, str. 6.

(34)  Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o okviru etičnih vidikov umetne inteligence, robotike in sorodnih tehnologij, 2020/2012(INL).

(35)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

(36)   Uredba (EU) 2018/1725 Evropskega parlamenta in Sveta z dne 23. oktobra 2018 o varstvu posameznikov pri obdelavi osebnih podatkov v institucijah, organih, uradih in agencijah Unije in o prostem pretoku takih podatkov ter razveljavitvi Uredbe (ES) št. 45/2001 in Sklepa št. 1247/2002/ES (UL L 295, 21.11.2018, str. 39).

(37)   Direktiva (EU) 2016/680 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov, ki jih pristojni organi obdelujejo za namene preprečevanja, preiskovanja, odkrivanja ali pregona kaznivih dejanj ali izvrševanja kazenskih sankcij, in o prostem pretoku takih podatkov ter o razveljavitvi Okvirnega sklepa Sveta 2008/977/PNZ (direktiva o kazenskem pregonu) (UL L 119, 4.5.2016, str. 89).

(35)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

(38)   Okvirni sklep Sveta 2002/584/PNZ z dne 13. junija 2002 o evropskem nalogu za prijetje in postopkih predaje med državami članicami (UL L 190, 18.7.2002, str. 1).

(39)  Uredba (ES) št. 300/2008 Evropskega parlamenta in Sveta z dne 11. marca 2008 o skupnih pravilih na področju varovanja civilnega letalstva in o razveljavitvi Uredbe (ES) št. 2320/2002 (UL L 97, 9.4.2008, str. 72).

(40)  Uredba (EU) št. 167/2013 Evropskega parlamenta in Sveta z dne 5. februarja 2013 o odobritvi in tržnem nadzoru kmetijskih in gozdarskih vozil (UL L 60, 2.3.2013, str. 1).

(41)  Uredba (EU) št. 168/2013 Evropskega parlamenta in Sveta z dne 15. januarja 2013 o odobritvi in tržnem nadzoru dvo- ali trikolesnih vozil in štirikolesnikov (UL L 60, 2.3.2013, str. 52).

(42)  Direktiva 2014/90/EU Evropskega parlamenta in Sveta z dne 23. julija 2014 o pomorski opremi in razveljavitvi Direktive Sveta 96/98/ES (UL L 257, 28.8.2014, str. 146).

(43)  Direktiva (EU) 2016/797 Evropskega parlamenta in Sveta z dne 11. maja 2016 o interoperabilnosti železniškega sistema v Evropski uniji (UL L 138, 26.5.2016, str. 44).

(44)  Uredba (EU) 2018/858 Evropskega parlamenta in Sveta z dne 30. maja 2018 o odobritvi in tržnem nadzoru motornih vozil in njihovih priklopnikov ter sistemov, sestavnih delov in samostojnih tehničnih enot, namenjenih za taka vozila, spremembi uredb (ES) št. 715/2007 in (ES) št. 595/2009 ter razveljavitvi Direktive 2007/46/ES (UL L 151, 14.6.2018, str. 1).

(45)  Uredba (EU) 2018/1139 Evropskega parlamenta in Sveta z dne 4. julija 2018 o skupnih pravilih na področju civilnega letalstva in ustanovitvi Agencije Evropske unije za varnost v letalstvu ter spremembi uredb (ES) št. 2111/2005, (ES) št. 1008/2008, (EU) št. 996/2010, (EU) št. 376/2014 ter direktiv 2014/30/EU in 2014/53/EU Evropskega parlamenta in Sveta ter razveljavitvi uredb (ES) št. 552/2004 in (ES) št. 216/2008 Evropskega parlamenta in Sveta ter Uredbe Sveta (EGS) št. 3922/91 (UL L 212, 22.8.2018, str. 1).

(46)  Uredba (EU) 2019/2144 Evropskega parlamenta in Sveta z dne 27. novembra 2019 o zahtevah za homologacijo motornih vozil in njihovih priklopnikov ter sistemov, sestavnih delov in samostojnih tehničnih enot, namenjenih za taka vozila, v zvezi z njihovo splošno varnostjo in zaščito potnikov v vozilu ter izpostavljenih udeležencev v cestnem prometu in o spremembi Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta ter razveljavitvi uredb (ES) št. 78/2009, (ES) št. 79/2009 in (ES) št. 661/2009 Evropskega parlamenta in Sveta in uredb Komisije (ES) št. 631/2009, (EU) št. 406/2010, (EU) št. 672/2010, (EU) št. 1003/2010, (EU) št. 1005/2010, (EU) št. 1008/2010, (EU) št. 1009/2010, (EU) št. 19/2011, (EU) št. 109/2011, (EU) št. 458/2011, (EU) št. 65/2012, (EU) št. 130/2012, (EU) št. 347/2012, (EU) št. 351/2012, (EU) št. 1230/2012 in (EU) 2015/166 (UL L 325, 16.12.2019, str. 1).

(39)  Uredba (ES) št. 300/2008 Evropskega parlamenta in Sveta z dne 11. marca 2008 o skupnih pravilih na področju varovanja civilnega letalstva in o razveljavitvi Uredbe (ES) št. 2320/2002 (UL L 97, 9.4.2008, str. 72).

(40)  Uredba (EU) št. 167/2013 Evropskega parlamenta in Sveta z dne 5. februarja 2013 o odobritvi in tržnem nadzoru kmetijskih in gozdarskih vozil (UL L 60, 2.3.2013, str. 1).

(41)  Uredba (EU) št. 168/2013 Evropskega parlamenta in Sveta z dne 15. januarja 2013 o odobritvi in tržnem nadzoru dvo- ali trikolesnih vozil in štirikolesnikov (UL L 60, 2.3.2013, str. 52).

(42)  Direktiva 2014/90/EU Evropskega parlamenta in Sveta z dne 23. julija 2014 o pomorski opremi in razveljavitvi Direktive Sveta 96/98/ES (UL L 257, 28.8.2014, str. 146).

(43)  Direktiva (EU) 2016/797 Evropskega parlamenta in Sveta z dne 11. maja 2016 o interoperabilnosti železniškega sistema v Evropski uniji (UL L 138, 26.5.2016, str. 44).

(44)  Uredba (EU) 2018/858 Evropskega parlamenta in Sveta z dne 30. maja 2018 o odobritvi in tržnem nadzoru motornih vozil in njihovih priklopnikov ter sistemov, sestavnih delov in samostojnih tehničnih enot, namenjenih za taka vozila, spremembi uredb (ES) št. 715/2007 in (ES) št. 595/2009 ter razveljavitvi Direktive 2007/46/ES (UL L 151, 14.6.2018, str. 1).

(45)  Uredba (EU) 2018/1139 Evropskega parlamenta in Sveta z dne 4. julija 2018 o skupnih pravilih na področju civilnega letalstva in ustanovitvi Agencije Evropske unije za varnost v letalstvu ter spremembi uredb (ES) št. 2111/2005, (ES) št. 1008/2008, (EU) št. 996/2010, (EU) št. 376/2014 ter direktiv 2014/30/EU in 2014/53/EU Evropskega parlamenta in Sveta ter razveljavitvi uredb (ES) št. 552/2004 in (ES) št. 216/2008 Evropskega parlamenta in Sveta ter Uredbe Sveta (EGS) št. 3922/91 (UL L 212, 22.8.2018, str. 1).

(46)  Uredba (EU) 2019/2144 Evropskega parlamenta in Sveta z dne 27. novembra 2019 o zahtevah za homologacijo motornih vozil in njihovih priklopnikov ter sistemov, sestavnih delov in samostojnih tehničnih enot, namenjenih za taka vozila, v zvezi z njihovo splošno varnostjo in zaščito potnikov v vozilu ter izpostavljenih udeležencev v cestnem prometu in o spremembi Uredbe (EU) 2018/858 Evropskega parlamenta in Sveta ter razveljavitvi uredb (ES) št. 78/2009, (ES) št. 79/2009 in (ES) št. 661/2009 Evropskega parlamenta in Sveta in uredb Komisije (ES) št. 631/2009, (EU) št. 406/2010, (EU) št. 672/2010, (EU) št. 1003/2010, (EU) št. 1005/2010, (EU) št. 1008/2010, (EU) št. 1009/2010, (EU) št. 19/2011, (EU) št. 109/2011, (EU) št. 458/2011, (EU) št. 65/2012, (EU) št. 130/2012, (EU) št. 347/2012, (EU) št. 351/2012, (EU) št. 1230/2012 in (EU) 2015/166 (UL L 325, 16.12.2019, str. 1).

(47)  Uredba (EU) 2017/745 Evropskega parlamenta in Sveta z dne 5. aprila 2017 o medicinskih pripomočkih, spremembi Direktive 2001/83/ES, Uredbe (ES) št. 178/2002 in Uredbe (ES) št. 1223/2009 ter razveljavitvi direktiv Sveta 90/385/EGS in 93/42/EGS (UL L 117, 5.5.2017, str. 1).

(48)  Uredba (EU) 2017/746 Evropskega parlamenta in Sveta z dne 5. aprila 2017 o in vitro diagnostičnih medicinskih pripomočkih ter razveljavitvi Direktive 98/79/ES in Sklepa Komisije 2010/227/EU (UL L 117, 5.5.2017, str. 176).

(47)  Uredba (EU) 2017/745 Evropskega parlamenta in Sveta z dne 5. aprila 2017 o medicinskih pripomočkih, spremembi Direktive 2001/83/ES, Uredbe (ES) št. 178/2002 in Uredbe (ES) št. 1223/2009 ter razveljavitvi direktiv Sveta 90/385/EGS in 93/42/EGS (UL L 117, 5.5.2017, str. 1).

(48)  Uredba (EU) 2017/746 Evropskega parlamenta in Sveta z dne 5. aprila 2017 o in vitro diagnostičnih medicinskih pripomočkih ter razveljavitvi Direktive 98/79/ES in Sklepa Komisije 2010/227/EU (UL L 117, 5.5.2017, str. 176).

(49)  Direktiva 2013/32/EU Evropskega parlamenta in Sveta z dne 26. junija 2013 o skupnih postopkih za priznanje ali odvzem mednarodne zaščite (UL L 180, 29.6.2013, str. 60).

(50)  Uredba (ES) št. 810/2009 Evropskega parlamenta in Sveta z dne 13. julija 2009 o vizumskem zakoniku Skupnosti (Vizumski zakonik) (UL L 243, 15.9.2009, str. 1).

(49)  Direktiva 2013/32/EU Evropskega parlamenta in Sveta z dne 26. junija 2013 o skupnih postopkih za priznanje ali odvzem mednarodne zaščite (UL L 180, 29.6.2013, str. 60).

(50)  Uredba (ES) št. 810/2009 Evropskega parlamenta in Sveta z dne 13. julija 2009 o vizumskem zakoniku Skupnosti (Vizumski zakonik) (UL L 243, 15.9.2009, str. 1).

(54)  Uredba (EU) št. 1025/2012 Evropskega parlamenta in Sveta z dne 25. oktobra 2012 o evropski standardizaciji, spremembi direktiv Sveta 89/686/EGS in 93/15/EGS ter direktiv 94/9/ES, 94/25/ES, 95/16/ES, 97/23/ES, 98/34/ES, 2004/22/ES, 2007/23/ES, 2009/23/ES in 2009/105/ES Evropskega parlamenta in Sveta ter razveljavitvi Sklepa Sveta 87/95/EGS in Sklepa št. 1673/2006/ES Evropskega parlamenta in Sveta (UL L 316, 14.11.2012, str. 12).

(54)  Uredba (EU) št. 1025/2012 Evropskega parlamenta in Sveta z dne 25. oktobra 2012 o evropski standardizaciji, spremembi direktiv Sveta 89/686/EGS in 93/15/EGS ter direktiv 94/9/ES, 94/25/ES, 95/16/ES, 97/23/ES, 98/34/ES, 2004/22/ES, 2007/23/ES, 2009/23/ES in 2009/105/ES Evropskega parlamenta in Sveta ter razveljavitvi Sklepa Sveta 87/95/EGS in Sklepa št. 1673/2006/ES Evropskega parlamenta in Sveta (UL L 316, 14.11.2012, str. 12).

(55)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

(55)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

(56)  Direktiva 2013/36/EU Evropskega parlamenta in Sveta z dne 26. junija 2013 o dostopu do dejavnosti kreditnih institucij in bonitetnem nadzoru kreditnih institucij in investicijskih podjetij, spremembi Direktive 2002/87/ES in razveljavitvi direktiv 2006/48/ES in 2006/49/ES (UL L 176, 27.6.2013, str. 338).

(56)  Direktiva 2013/36/EU Evropskega parlamenta in Sveta z dne 26. junija 2013 o dostopu do dejavnosti kreditnih institucij in bonitetnem nadzoru kreditnih institucij in investicijskih podjetij, spremembi Direktive 2002/87/ES in razveljavitvi direktiv 2006/48/ES in 2006/49/ES (UL L 176, 27.6.2013, str. 338).

(57)  Direktiva 2001/95/ES Evropskega parlamenta in Sveta z dne 3. decembra 2001 o splošni varnosti proizvodov (UL L 11, 15.1.2002, str. 4).

(57)  Direktiva 2001/95/ES Evropskega parlamenta in Sveta z dne 3. decembra 2001 o splošni varnosti proizvodov (UL L 11, 15.1.2002, str. 4).

(58)   UL L 123, 12.5.2016, str. 1.

(58)   UL L 123, 12.5.2016, str. 1.

(61)   Priporočilo Komisije z dne 6. maja 2003 o opredelitvi mikro, malih in srednje velikih podjetij (UL L 124, 20.5.2003, str. 36).

(62)   Okvirni sklep Sveta 2002/584/PNZ z dne 13. junija 2002 o evropskem nalogu za prijetje in postopkih predaje med državami članicami (UL L 190, 18.7.2002, str. 1).

(1a)   Direktiva (EU) 2020/1828 Evropskega parlamenta in Sveta z dne 25. novembra 2020 o zastopniških tožbah za varstvo kolektivnih interesov potrošnikov in razveljavitvi Direktive 2009/22/ES (UL L 409, 4.12.2020, str. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-1045 (electronic edition)


Top