European flag

Jurnalul Ofícial
al Uniunii Europene

RO

Seria C


C/2024/506

23.1.2024

P9_TA(2023)0236

Regulamentul privind inteligența artificială

Amendamentele adoptate de Parlamentul European la 14 iunie 2023 referitoare la propunerea de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)) (1)

(Procedura legislativă ordinară: prima lectură)

(C/2024/506)

Amendamentul 1

Propunere de regulament

Referirea 4 a (nouă)

Textul propus de Comisie

Amendamentul

 

având în vedere avizul Băncii Centrale Europene,

Amendamentul 2

Propunere de regulament

Referirea 4 b (nouă)

Textul propus de Comisie

Amendamentul

 

având în vedere avizul comun al Comitetului european pentru protecția datelor și al Autorității Europene pentru Protecția Datelor,

Amendamentul 3

Propunere de regulament

Considerentul 1

Textul propus de Comisie

Amendamentul

(1)

Scopul prezentului regulament este de a  îmbunătăți funcționarea pieței interne prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea , comercializarea și utilizarea inteligenței artificiale , în conformitate cu valorile Uniunii . Prezentul regulament urmărește o serie de motive imperative de interes public major , cum ar fi un nivel ridicat de protecție a sănătății , a siguranței și a drepturilor fundamentale, și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.

(1)

Scopul prezentului regulament este de a  promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabile și de a asigura un nivel ridicat de protecție a sănătății , siguranței, drepturilor fundamentale, democrației și statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de inteligență artificială din Uniune, sprijinind , în același timp, inovarea și îmbunătățind funcționarea pieței interne . Prezentul regulament stabilește un cadru juridic uniform, în special pentru dezvoltarea , introducerea pe piață, punerea în funcțiune și utilizarea inteligenței artificiale , în conformitate cu valorile Uniunii și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de inteligență artificială (sisteme de IA), cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament. Unele sisteme de IA pot avea, de asemenea, un impact asupra democrației, a statului de drept și a mediului. Aceste preocupări sunt abordate în mod specific în sectoarele critice și în cazurile de utilizare enumerate în anexele la prezentul regulament.

Amendamentul 4

Propunere de regulament

Considerentul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

(1a)

Prezentul regulament ar trebui să mențină valorile Uniunii, facilitând distribuirea beneficiilor inteligenței artificiale în întreaga societate, protejând persoanele, întreprinderile, democrația, statul de drept și mediul împotriva riscurilor, stimulând totodată inovarea și ocuparea forței de muncă și făcând din Europa un lider în domeniu.

Amendamentul 5

Propunere de regulament

Considerentul 2

Textul propus de Comisie

Amendamentul

(2)

Sistemele de inteligență artificială (sistemele de IA) pot fi implementate cu ușurință în mai multe sectoare ale economiei și societății, inclusiv la nivel transfrontalier, și pot circula în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că inteligența artificială este sigură și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Normele naționale diferite pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune, iar divergențele care împiedică libera circulație a sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE). În măsura în care prezentul regulament conține norme specifice privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal referitoare la restricțiile de utilizare a sistemelor de IA pentru identificarea biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, este oportun ca prezentul regulament să se întemeieze, în ceea ce privește normele specifice respective, pe articolul 16 din TFUE. Având în vedere aceste norme specifice și recurgerea la articolul 16 din TFUE, este oportun să se consulte Comitetul european pentru protecția datelor.

(2)

Sistemele de inteligență artificială pot fi implementate cu ușurință în mai multe sectoare ale economiei și societății, inclusiv la nivel transfrontalier, și pot circula în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că inteligența artificială este fiabilă și sigură și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Normele naționale diferite pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune pentru se realiza o IA fiabilă , iar divergențele care împiedică libera circulație , inovația, implementarea și adoptarea sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE).

Amendamentul 6

Propunere de regulament

Considerentul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

(2a)

Întrucât inteligența artificială se bazează adesea pe prelucrarea unor volume mari de date și numeroase sisteme și aplicații de IA se bazează pe prelucrarea datelor cu caracter personal, este oportun ca prezentul regulament să se întemeieze pe articolul 16 din TFUE, care consacră dreptul persoanelor fizice la protecție în ceea ce privește prelucrarea datelor cu caracter personal și prevede adoptarea de norme privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal.

Amendamentul 7

Propunere de regulament

Considerentul 2 b (nou)

Textul propus de Comisie

Amendamentul

 

(2b)

Dreptul fundamental la protecția datelor cu caracter personal este protejat în special de Regulamentul (UE) 2016/679 și Regulamentul (UE) 2018/1725 și de Directiva 2016/680. Directiva 2002/58/CE protejează, în plus, viața privată și confidențialitatea comunicațiilor și prevede inclusiv condiții pentru stocarea oricăror date cu caracter personal și fără caracter personal și accesarea acestora de pe echipamentele terminale. Aceste acte juridice asigură temeiul prelucrării sustenabile și responsabile a datelor, inclusiv în cazul în care seturile de date conțin un amestec de date cu caracter personal și date fără caracter personal. Prezentul regulament nu urmărește să afecteze aplicarea dreptului în vigoare al Uniunii care reglementează prelucrarea datelor cu caracter personal, inclusiv a sarcinilor și competențelor autorităților de supraveghere independente care sunt competente să monitorizeze respectarea acestor instrumente. Prezentul regulament nu aduce atingere drepturilor fundamentale la viață privată și la protecția datelor cu caracter personal prevăzute de dreptul Uniunii privind protecția datelor și a vieții private și consacrate în Carta drepturilor fundamentale a Uniunii Europene („Carta”).

Amendamentul 8

Propunere de regulament

Considerentul 2 c (nou)

Textul propus de Comisie

Amendamentul

 

(2c)

Sistemele de inteligență artificială din Uniune fac obiectul legislației aplicabile privind siguranța produselor, care oferă un cadru de protecție a consumatorilor împotriva produselor periculoase în general, iar această legislație ar trebui să se aplice în continuare. De asemenea, prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii privind protecția consumatorilor și siguranța produselor, inclusiv Regulamentul (UE) 2017/2394, Regulamentul (UE) 2019/1020, Directiva 2001/95/CE privind siguranța generală a produselor și Directiva 2013/11/UE.

Amendamentul 9

Propunere de regulament

Considerentul 2 d (nou)

Textul propus de Comisie

Amendamentul

 

(2d)

În conformitate cu articolul 114 alineatul (2) din TFUE, prezentul regulament completează și nu ar trebui să submineze drepturile și interesele persoanelor încadrate în muncă. Prin urmare, prezentul regulament nu ar trebui să aducă atingere dreptului Uniunii privind politica socială și dreptului și practicilor interne în domeniul muncii, și anume să nu afecteze dispozițiile legale și contractuale privind condițiile de încadrare în muncă, condițiile de muncă, inclusiv sănătatea și siguranța la locul de muncă și relația dintre angajatori și lucrători, inclusiv informarea, consultarea și participarea. Prezentul regulament nu ar trebui să afecteze exercitarea drepturilor fundamentale, astfel cum sunt recunoscute în statele membre și la nivelul Uniunii, inclusiv dreptul sau libertatea de a intra în grevă sau de a întreprinde alte acțiuni reglementate de sistemele specifice de relații de muncă din statele membre, în conformitate cu dreptul și/sau practicile interne. De asemenea, acesta nu ar trebui să afecteze practicile de concertare, dreptul de a negocia, de a încheia și de a pune în aplicare convenții colective sau de a desfășura acțiuni colective în conformitate cu dreptul și/sau practicile naționale. În nicio situație, prezentul regulament nu ar trebui să împiedice Comisia să propună o legislație specifică privind drepturile și libertățile lucrătorilor afectați de sistemele de IA.

Amendamentul 10

Propunere de regulament

Considerentul 2 e (nou)

Textul propus de Comisie

Amendamentul

 

(2e)

Prezentul regulament nu ar trebui să aducă atingere dispozițiilor care vizează îmbunătățirea condițiilor de muncă în ceea ce privește munca prin intermediul platformelor prevăzute în Directiva… [COD 2021/414/CE].

Amendamentul 11

Propunere de regulament

Considerentul 2 f (nou)

Textul propus de Comisie

Amendamentul

 

(2f)

Prezentul regulament ar trebui să contribuie la sprijinirea cercetării și inovării și nu ar trebui să submineze activitatea de cercetare și dezvoltare și să respecte libertatea cercetării științifice. Prin urmare, este necesar să se excludă din domeniul său de aplicare sistemele de IA dezvoltate în mod specific în scopul exclusiv al cercetării și dezvoltării științifice și să se asigure că regulamentul nu afectează în alt mod activitatea de cercetare și dezvoltare științifică privind sistemele de IA. În orice situație, orice activitate de cercetare și dezvoltare ar trebui să se desfășoare în conformitate cu Carta, cu dreptul Uniunii, precum și cu dreptul național.

Amendamentul 12

Propunere de regulament

Considerentul 3

Textul propus de Comisie

Amendamentul

(3)

Inteligența artificială este o familie de tehnologii cu evoluție rapidă, care poate genera o gamă largă de beneficii economice și societale în întregul spectru de industrii și activități sociale. Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane și organizații, utilizarea inteligenței artificiale poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și ecologic, de exemplu în domeniul asistenței medicale, al agriculturii, al educației și formării, al gestionării infrastructurii, al energiei, al transporturilor și logisticii, al serviciilor publice, al securității, justiției, eficienței resurselor și energiei, precum și al atenuării schimbărilor climatice și al adaptării la acestea.

(3)

Inteligența artificială este o familie de tehnologii cu evoluție rapidă, care poate să contribuie și contribuie deja la o gamă largă de beneficii economice , de mediu și societale în întregul spectru de industrii și activități sociale dacă este dezvoltată în conformitate cu principiile generale aplicabile în acord cu Carta și cu valorile pe care se întemeiază Uniunea . Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane și organizații, utilizarea inteligenței artificiale poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și ecologic, de exemplu în domeniul asistenței medicale, al agriculturii, al siguranței alimentare, al educației și formării, al mass-mediei, al sporturilor, al culturii, al gestionării infrastructurii, al energiei, al transporturilor și logisticii, al gestionării crizelor, al serviciilor publice, al securității, justiției, eficienței resurselor și energiei , al monitorizării mediului, al conservării și refacerii biodiversității și ecosistemelor , precum și al atenuării schimbărilor climatice și al adaptării la acestea.

Amendamentul 13

Propunere de regulament

Considerentul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

(3a)

Pentru a contribui la îndeplinirea obiectivelor privind neutralitatea emisiilor de dioxid de carbon, întreprinderile europene ar trebui să încerce să utilizeze toate progresele tehnologice disponibile care le pot asista în realizarea acestui obiectiv. Inteligența artificială este o tehnologie care are potențialul de a putea fi utilizată la prelucrarea volumului tot mai mare de date create în timpul proceselor industriale, ecologice, sanitare și de altă natură. În scopul de a facilita investițiile în instrumente de analiză și optimizare bazate pe IA, prezentul regulament ar trebui să ofere un mediu previzibil și proporțional pentru soluțiile industriale cu risc scăzut.

Amendamentul 14

Propunere de regulament

Considerentul 4

Textul propus de Comisie

Amendamentul

(4)

În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, inteligența artificială poate genera riscuri și poate aduce prejudicii intereselor publice și drepturilor care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral.

(4)

În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, precum și de nivelul de dezvoltare tehnologică, inteligența artificială poate genera riscuri și poate aduce prejudicii intereselor publice sau private și drepturilor fundamentale ale persoanelor fizice, care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral , inclusiv de natură fizică, psihologică, societală sau economică .

Amendamentul 15

Propunere de regulament

Considerentul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

(4a)

Având în vedere impactul major pe care inteligența artificială îl poate avea asupra societății și necesitatea de a genera încredere, este esențial ca inteligența artificială și cadrul său normativ să fie dezvoltate în concordanță cu valorile Uniunii consacrate la articolul 2 din TUE, cu drepturile și libertățile fundamentale consacrate în tratate, în Cartă și în dreptul internațional al drepturilor omului. O condiție prealabilă ar trebui să fie ca inteligența artificială să fie o tehnologie centrată pe factorul uman. Aceasta nu ar trebui să înlocuiască autonomia umană și nici să presupună pierderea libertății individuale, ci ar trebui să servească în primul rând nevoilor societății și binelui comun. Ar trebui prevăzute garanții pentru a se asigura dezvoltarea și utilizarea inteligenței artificiale integrate etic, care respectă valorile Uniunii și Carta.

Amendamentul 16

Propunere de regulament

Considerentul 5

Textul propus de Comisie

Amendamentul

(5)

Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind inteligența artificială pentru a încuraja dezvoltarea, utilizarea și adoptarea inteligenței artificiale pe piața internă și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea , siguranța și protecția drepturilor fundamentale, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui stabilite norme care să reglementeze introducerea pe piață și punerea în funcțiune a anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând acestor sisteme să beneficieze de principiul liberei circulații a bunurilor și serviciilor. Prin stabilirea acestor norme, prezentul regulament sprijină obiectivul Uniunii de a se poziționa ca lider mondial în dezvoltarea unei inteligențe artificiale sigure, de încredere și etice, astfel cum a afirmat Consiliul European (33), și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European (34).

(5)

Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind inteligența artificială pentru a încuraja dezvoltarea, utilizarea și adoptarea inteligenței artificiale pe piața internă și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea și siguranța, protecția drepturilor fundamentale , democrația și statul de drept și mediul , astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui stabilite norme care să reglementeze introducerea pe piață, punerea în funcțiune și utilizarea anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând acestor sisteme să beneficieze de principiul liberei circulații a bunurilor și serviciilor. Aceste norme ar trebui să fie clare și solide în ceea ce privește protejarea drepturilor fundamentale, sprijinirea noilor soluții inovatoare și facilitarea unui ecosistem european de actori publici și privați care creează sisteme de IA în conformitate cu valorile Uniunii. Prin stabilirea acestor norme, precum și a unor măsuri de susținere a inovării cu un accent special pe IMM-uri și întreprinderile nou-înființate, prezentul regulament sprijină obiectivul de promovare a IA create în Europa, de poziționare a Uniunii ca lider mondial în dezvoltarea unei inteligențe artificiale sigure, de încredere și etice, astfel cum a afirmat Consiliul European (33), și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European (34).

Amendamentul 17

Propunere de regulament

Considerentul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

(5a)

În plus, pentru a promova dezvoltarea sistemelor de IA în conformitate cu valorile Uniunii, Uniunea trebuie să abordeze principalele lacune și bariere care blochează potențialul transformării digitale, inclusiv deficitul de lucrători cu competențe digitale, preocupările în materie de securitate cibernetică, lipsa investițiilor și accesul la investiții, precum și decalajele existente și potențiale dintre întreprinderile mari, IMM-uri și întreprinderile nou-înființate. Ar trebui să se acorde o atenție deosebită asigurării faptului că beneficiile IA și ale inovării în domeniul noilor tehnologii sunt resimțite în toate regiunile Uniunii și că sunt puse la dispoziție suficiente investiții și resurse, în special pentru regiunile care ar putea înregistra întârzieri în ceea ce privește unii indicatori digitali.

Amendamentul 18

Propunere de regulament

Considerentul 6

Textul propus de Comisie

Amendamentul

(6)

Noțiunea de sistem de IA ar trebui definită în mod clar pentru a asigura securitatea juridică, oferind, în același timp, flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice viitoare . Definiția ar trebui să se bazeze pe caracteristicile funcționale esențiale ale software-ului , în special pe capacitatea , pentru un anumit set de obiective definite de om, de a  genera rezultate cum ar fi conținutul , previziunile, recomandările sau deciziile care influențează mediul cu care interacționează sistemul, fie că este vorba de o dimensiune fizică, fie de una digitală . Sistemele de IA pot fi proiectate pentru a funcționa cu diferite niveluri de autonomie și pot fi utilizate în mod independent sau ca o componentă a unui produs, indiferent dacă sistemul este integrat fizic în produs (încorporat) sau dacă servește funcționalității produsului fără a fi integrat în acesta (neîncorporat). Definiția sistemului de IA ar trebui să fie completată de o listă de tehnici și abordări specifice utilizate pentru dezvoltarea sa , care ar trebui să fie actualizată în lumina evoluțiilor tehnologice și ale pieței prin adoptarea de acte delegate de către Comisie pentru modificarea listei respective .

(6)

Noțiunea de sistem de IA din prezentul regulament ar trebui definită în mod clar și aliniată îndeaproape la activitatea organizațiilor internaționale care lucrează în domeniul inteligenței artificiale, pentru a asigura securitatea juridică, armonizarea și acceptarea pe scară largă, oferind, în același timp, flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice rapide din acest domeniu . Mai mult, aceasta ar trebui să se bazeze pe caracteristicile esențiale ale inteligenței artificiale , cum ar fi capacitățile sale de învățare, de raționament sau de modelare , pentru a o diferenția de sistemele software sau de abordările de programare mai simple. Sistemele de IA sunt proiectate pentru funcționa cu diferite niveluri de autonomie , ceea ce înseamnă că au cel puțin un anumit grad de independență a acțiunilor față de controlul uman și capacități de a funcționa fără intervenție umană . Termenul „bazat pe calculator” se referă la faptul că sistemele de IA rulează pe calculatoare. Trimiterea la obiective explicite sau implicite subliniază faptul că sistemele de IA pot funcționa în conformitate cu obiective explicite definite de om sau cu obiective implicite. Obiectivele sistemului de IA pot fi diferite de scopul preconizat al sistemului de IA într-un context specific. Trimiterea la previziuni include conținutul, care este considerat în prezentul regulament drept o formă de previziune, fiind unul dintre rezultatele posibile produse de un sistem de IA . În sensul prezentului regulament, mediile ar trebui înțelese ca fiind contextele în care funcționează sistemele de IA, în timp ce rezultatele generate de sistemul de IA, adică previziunile, recomandările sau deciziile , răspund obiectivelor sistemului, pe baza datelor de intrare din mediul respectiv. Aceste rezultate influențează și mai mult mediul respectiv, chiar și prin simpla introducere a unor noi informații.

Amendamentul 19

Propunere de regulament

Considerentul 6 a (nou)

Textul propus de Comisie

Amendamentul

 

(6a)

Sistemele de IA dispun adeseori de capacități de învățare automată care le permit să se adapteze și să îndeplinească noi sarcini în mod autonom. Învățarea automată se referă la procesul de calcul constând în optimizarea, pe baza unor date, a parametrilor unui model, care este o construcție matematică generând un rezultat pornind de la date de intrare. Abordările de învățare automată includ, de pildă, învățarea supervizată, învățarea nesupervizată și învățarea complementară, utilizând o gamă de metode, inclusiv învățarea aprofundată cu rețele neuronale. Prezentul regulament vizează abordarea noilor riscuri potențiale care pot apărea prin delegarea controlului către sistemele de IA, în special către acele sisteme de IA care pot evolua după implementare. Funcția și rezultatele multora dintre aceste sisteme de IA se bazează pe relații matematice abstracte, pe care oamenii au dificultății să le înțeleagă, să le monitorizeze și să le identifice datele de intrare specifice. Aceste caracteristici complexe și opace (elementul „cutie neagră”) influențează răspunderea și explicabilitatea. Tehnicile comparabil mai simple, cum ar fi abordările bazate pe cunoaștere, estimarea bayeziană sau arborii decizionali pot conduce, de asemenea, la lacune juridice care trebuie abordate în prezentul regulament, în special atunci când sunt utilizate în combinație cu abordările învățării automate în sistemele hibride.

Amendamentul 20

Propunere de regulament

Considerentul 6 b (nou)

Textul propus de Comisie

Amendamentul

 

(6b)

Sistemele de IA pot fi utilizate ca sistem software de sine stătător, pot fi integrate într-un produs fizic (încorporate), pot fi utilizate pentru a servi funcționalității unui produs fizic fără a fi integrate în acesta (neîncorporate) sau pot fi utilizate ca o componentă de IA a unui sistem mai mare. Dacă acest sistem mai mare nu ar funcționa fără componenta de IA în cauză, atunci întregul sistem mai mare ar trebui considerat ca fiind un singur sistem de IA în temeiul prezentului regulament.

Amendamentul 21

Propunere de regulament

Considerentul 7

Textul propus de Comisie

Amendamentul

(7)

Noțiunea de date biometrice utilizată în prezentul regulament este în concordanță cu noțiunea de date biometrice astfel cum este definită la articolul 4 alineatul (14) din Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului (35), la articolul 3 alineatul (18) din Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului  (36) și la articolul 3 alineatul (13) din Directiva (UE) 2016/680 Parlamentului European și a Consiliului  (37) și ar trebui interpretată în concordanță cu aceasta .

(7)

Noțiunea de date biometrice utilizată în prezentul regulament este în concordanță cu noțiunea de date biometrice astfel cum este definită la articolul 4 alineatul (14) din Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului (35) . Datele bazate pe date biometrice sunt date suplimentare care rezultă în urma unei prelucrări tehnice specifice referitoare la semnalele fizice, fiziologice sau comportamentale ale unei persoane fizice, cum ar fi expresiile faciale, mișcările, frecvența pulsului, vocea, modul de apăsare tastelor sau mersul, care pot permite sau nu sau care pot confirma identificarea unică a unei persoane fizice .

Amendamentul 22

Propunere de regulament

Considerentul 7 a (nou)

Textul propus de Comisie

Amendamentul

 

(7a)

Noțiunea de identificare biometrică astfel cum este utilizată în prezentul regulament ar trebui definită drept recunoașterea automată a unor trăsături umane fizice, fiziologice, comportamentale și psihologice, precum fața, mișcările ochilor, expresiile faciale, forma corpului, vocea, vorbirea, mersul, postura, frecvența cardiacă, tensiunea arterială, mirosul, particularitățile de tastare, reacțiile psihologice (furie, nemulțumire, tristețe etc.), în scopul de a stabili identitatea unei persoane comparând datele biometrice ale persoanei respective cu date biometrice ale persoanelor stocate într-o bază de date (identificarea de tip „unul la mai mulți”), indiferent dacă persoana în cauză și-a dat sau nu consimțământul.

Amendamentul 23

Propunere de regulament

Considerentul 7 b (nou)

Textul propus de Comisie

Amendamentul

 

(7b)

Noțiunea de clasificare biometrică utilizată în prezentul regulament ar trebui definită drept încadrarea persoanelor fizice în categorii specifice sau deducerea caracteristicilor și atributelor acestora, cum ar fi genul, sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, originea etnică sau socială, starea de sănătate, capacitățile mintale sau fizice, trăsăturile comportamentale sau de personalitate, limba, religia sau apartenența la o minoritate națională sau orientarea sexuală sau politică, pe baza datelor lor biometrice sau a datelor bazate pe date biometrice, sau care pot fi deduse în mod rezonabil pe baza acestor date.

Amendamentul 24

Propunere de regulament

Considerentul 8

Textul propus de Comisie

Amendamentul

(8)

Noțiunea de sistem de identificare biometrică la distanță, astfel cum este utilizată în prezentul regulament, ar trebui definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără a se cunoaște în prealabil dacă persoana vizată va fi prezentă și dacă poate fi identificată, indiferent de tehnologia, procesele sau tipurile specifice de date biometrice utilizate. Având în vedere diferitele caracteristici și moduri în care sunt utilizate, precum și diferitele riscuri implicate, ar trebui să se facă o distincție între sistemele de identificare biometrică la distanță „în timp real” și „ulterior”. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video, generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. Este vorba despre materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză.

(8)

Noțiunea de sistem de identificare biometrică la distanță, astfel cum este utilizată în prezentul regulament, ar trebui definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără a se cunoaște în prealabil dacă persoana vizată va fi prezentă și dacă poate fi identificată, indiferent de tehnologia, procesele sau tipurile specifice de date biometrice utilizate , cu excepția sistemelor de verificare care doar compară datele biometrice ale unei persoane cu datele biometrice ale acesteia furnizate anterior (comparație între două seturi de date), Având în vedere diferitele caracteristici și moduri în care sunt utilizate, precum și diferitele riscuri implicate, ar trebui să se facă o distincție între sistemele de identificare biometrică la distanță „în timp real” și „ulterior”. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video, generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. Este vorba despre materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză. Dat fiind că noțiunea de identificare biometrică este independentă de consimțământul persoanei, această definiție se aplică chiar și atunci când sunt amplasate avertismente în locul care se află sub supravegherea sistemului de identificare biometrică la distanță și nu este anulată de facto prin preînregistrare.

Amendamentul 25

Propunere de regulament

Considerentul 8 a (nou)

Textul propus de Comisie

Amendamentul

 

(8a)

Identificarea persoanelor fizice la distanță are ca obiectiv să facă distincția între sistemele de identificare biometrică la distanță și sistemele de verificare individuală din imediata apropiere care utilizează mijloace de identificare biometrică, al căror unic scop este de a confirma dacă o anumită persoană fizică care se prezintă pentru identificare este sau nu autorizată, de exemplu pentru a avea acces la un serviciu, la un dispozitiv sau la un sediu.

Amendamentul 26

Propunere de regulament

Considerentul 9

Textul propus de Comisie

Amendamentul

(9)

În sensul prezentului regulament, noțiunea de spațiu accesibil publicului ar trebui înțeleasă ca referindu-se la orice loc fizic accesibil publicului, indiferent dacă locul în cauză este proprietate privată sau publică. Prin urmare, noțiunea nu acoperă locurile care sunt private în esență și care, în mod normal, nu sunt accesibile în mod liber terților, inclusiv autorităților de aplicare a legii, cu excepția cazului în care părțile respective au fost invitate sau autorizate în mod specific, cum ar fi locuințele, cluburile private, birourile, depozitele și fabricile. Spațiile online nu sunt nici ele acoperite, deoarece nu sunt spații fizice. Cu toate acestea, simplul fapt că se pot aplica anumite condiții pentru accesarea unui anumit spațiu, cum ar fi biletele de intrare sau restricțiile de vârstă, nu înseamnă că spațiul nu este accesibil publicului în sensul prezentului regulament. Prin urmare, pe lângă spațiile publice, cum ar fi străzile, părțile relevante ale clădirilor guvernamentale și cea mai mare parte a infrastructurii de transport, spațiile precum cinematografele, teatrele, magazinele și centrele comerciale sunt, de asemenea, accesibile publicului în mod normal. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.

(9)

În sensul prezentului regulament, noțiunea de spațiu accesibil publicului ar trebui înțeleasă ca referindu-se la orice loc fizic accesibil publicului, indiferent dacă locul în cauză este proprietate privată sau publică și indiferent de potențialele restricții de capacitate . Prin urmare, noțiunea nu acoperă locurile care sunt private în esență și care, în mod normal, nu sunt accesibile în mod liber terților, inclusiv autorităților de aplicare a legii, cu excepția cazului în care părțile respective au fost invitate sau autorizate în mod specific, cum ar fi locuințele, cluburile private, birourile, depozitele și fabricile. Spațiile online nu sunt nici ele acoperite, deoarece nu sunt spații fizice. Cu toate acestea, simplul fapt că se pot aplica anumite condiții pentru accesarea unui anumit spațiu, cum ar fi biletele de intrare sau restricțiile de vârstă, nu înseamnă că spațiul nu este accesibil publicului în sensul prezentului regulament. Prin urmare, pe lângă spațiile publice, cum ar fi străzile, părțile relevante ale clădirilor guvernamentale și cea mai mare parte a infrastructurii de transport, spațiile precum cinematografele, teatrele, terenurile de sport, școlile, universitățile, părțile relevante ale spitalelor și băncilor, parcurile de distracție, festivalurile, magazinele și centrele comerciale sunt, de asemenea, accesibile publicului în mod normal. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.

Amendamentul 27

Propunere de regulament

Considerentul 9 a (nou)

Textul propus de Comisie

Amendamentul

 

(9a)

Este important să se remarce faptul că sistemele de IA ar trebui să depună toate eforturile pentru a respecta principiile generale care instituie un cadru la nivel înalt ce promovează o abordare coerentă, centrată pe factorul uman pentru o IA etică și fiabilă, în conformitate cu Carta drepturilor fundamentale a Uniunii Europene și cu valorile pe care se întemeiază Uniunea, inclusiv protecția drepturilor fundamentale, implicarea și supravegherea umană, robustețea tehnică și siguranța, protecția vieții private și guvernanța datelor, transparența, nediscriminarea și echitatea și bunăstarea societății și a mediului.

Amendamentul 28

Propunere de regulament

Considerentul 9 b (nou)

Textul propus de Comisie

Amendamentul

 

(9b)

„Alfabetizarea în domeniul IA” se referă la competențele, cunoștințele și înțelegerea care le permite furnizorilor, utilizatorilor și persoanelor afectate, ținând cont de drepturile și obligațiile fiecărei categorii în contextul prezentului regulament, să implementeze sistemele de IA în cunoștință de cauză și să conștientizeze posibilitățile și riscurile pe care le implică IA, precum și posibilele prejudicii pe care le poate aduce și, prin urmare, să promoveze controlul său democratic. Alfabetizarea în domeniul IA nu ar trebui să se limiteze la învățarea despre instrumente și tehnologii, ci ar trebui să vizeze și înzestrarea furnizorilor și utilizatorilor cu noțiunile și competențele necesare pentru a asigura conformitatea cu prezentul regulament și asigurarea respectării acestuia. Prin urmare, este necesar ca Comisia, statele membre, precum și furnizorii și utilizatorii de sisteme de IA, în cooperare cu toate părțile interesate relevante, să promoveze dezvoltarea unui nivel suficient de alfabetizare în domeniul IA, în toate sectoarele societății, pentru persoanele de toate vârstele, inclusiv pentru femei și fete, și ca progresele în acest sens să fie urmărite îndeaproape.

Amendamentul 29

Propunere de regulament

Considerentul 10

Textul propus de Comisie

Amendamentul

(10)

Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune, normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și utilizatorilor de sisteme de IA stabiliți în Uniune.

(10)

Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune și la nivel internațional , normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și utilizatorilor de sisteme de IA stabiliți în Uniune. Pentru ca Uniunea să fie fidelă valorilor sale fundamentale, sistemele de IA destinate a fi utilizate pentru practici care sunt considerate inacceptabile de prezentul regulament ar trebui, de asemenea, să fie considerate inacceptabile în afara Uniunii din cauza efectului lor deosebit de dăunător asupra drepturilor fundamentale, astfel cum sunt consacrate în Cartă. Prin urmare, este oportun să se interzică exportul unor astfel de sisteme de IA către țări terțe de către furnizorii care își au reședința în Uniune.

Amendamentul 30

Propunere de regulament

Considerentul 11

Textul propus de Comisie

Amendamentul

(11)

Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit în afara Uniunii în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept sistem cu risc ridicat și ale cărei efecte ar avea un impact asupra persoanelor fizice situate în Uniune. În aceste circumstanțe, sistemul de IA utilizat de operatorul din afara Uniunii ar putea prelucra datele colectate în mod legal în Uniune și transferate din Uniune și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca respectivul sistem de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și utilizatorilor de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care producția realizată de sistemele respective este utilizată în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acționează în cadrul acordurilor internaționale încheiate la nivel național sau european pentru asigurarea respectării legii și în contextul cooperării judiciare cu Uniunea sau cu statele sale membre. Astfel de acorduri au fost încheiate bilateral între statele membre și țările terțe sau între Uniunea Europeană, Europol și alte agenții ale UE și țări terțe și organizații internaționale.

(11)

Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit în afara Uniunii în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept sistem cu risc ridicat și ale cărei efecte ar avea un impact asupra persoanelor fizice situate în Uniune. În aceste circumstanțe, sistemul de IA utilizat de operatorul din afara Uniunii ar putea prelucra datele colectate în mod legal în Uniune și transferate din Uniune și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca respectivul sistem de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și utilizatorilor operatori de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care producția realizată de sistemele respective este preconizată a fi utilizată în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acționează în cadrul acordurilor internaționale încheiate la nivel național sau european pentru asigurarea respectării legii și în contextul cooperării judiciare cu Uniunea sau cu statele sale membre. Astfel de acorduri au fost încheiate bilateral între statele membre și țările terțe sau între Uniunea Europeană, Europol și alte agenții ale UE și țări terțe și organizații internaționale. Această excepție ar trebui totuși limitată la țările de încredere și la organizațiile internaționale care împărtășesc valorile Uniunii.

Amendamentul 31

Propunere de regulament

Considerentul 12

Textul propus de Comisie

Amendamentul

(12)

Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, oficiilor, organelor și agențiilor Uniunii atunci când acționează în calitate de furnizor sau utilizator al unui sistem de IA. Sistemele de IA dezvoltate sau utilizate exclusiv în scopuri militare ar trebui excluse din domeniul de aplicare al prezentului regulament în cazul în care utilizarea respectivă intră în sfera de competență exclusivă a politicii externe și de securitate comune, reglementată în temeiul titlului V din Tratatul privind Uniunea Europeană (TUE). Prezentul regulament nu ar trebui să aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediari prevăzute în Directiva 2000/31/CE a Parlamentului European și a Consiliului [astfel cum a fost modificată prin Actul legislativ privind serviciile digitale].

(12)

Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, oficiilor, organelor și agențiilor Uniunii atunci când acționează în calitate de furnizor sau operator al unui sistem de IA. Sistemele de IA dezvoltate sau utilizate exclusiv în scopuri militare ar trebui excluse din domeniul de aplicare al prezentului regulament în cazul în care utilizarea respectivă intră în sfera de competență exclusivă a politicii externe și de securitate comune, reglementată în temeiul titlului V din Tratatul privind Uniunea Europeană (TUE). Prezentul regulament nu ar trebui să aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediari prevăzute în Directiva 2000/31/CE a Parlamentului European și a Consiliului [astfel cum a fost modificată prin Actul legislativ privind serviciile digitale].

Amendamentul 32

Propunere de regulament

Considerentul 12 a (nou)

Textul propus de Comisie

Amendamentul

 

(12a)

Software-ul și datele care sunt partajate în mod deschis și pe care utilizatorii le pot accesa, utiliza, modifica și redistribui în mod liber sau versiunile modificate ale acestora pot contribui la cercetarea și inovarea pe piață. De asemenea, studii ale Comisiei arată că software-ul liber cu sursă deschisă poate avea o contribuție cuprinsă între 65 și 95 de miliarde EUR la PIB-ul Uniunii și poate oferi posibilități de creștere semnificative pentru economia europeană. Utilizatorilor li se permite să ruleze, să copieze, să distribuie, să studieze, să modifice și să îmbunătățească software-ul și datele, inclusiv modelele, prin licențe libere și cu sursă deschisă. Pentru a încuraja dezvoltarea și implementarea IA, în special de către IMM-uri, întreprinderi nou-înființate, cercetători academici, dar și de către persoane fizice, prezentul regulament nu ar trebui să se aplice unor astfel de componente de IA gratuite și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau puse în funcțiune de un furnizor ca parte a unui sistem de IA cu grad ridicat de risc sau a unui sistem de IA care intră sub incidența titlului II sau IV din prezentul regulament.

Amendamentul 33

Propunere de regulament

Considerentul 12 b (nou)

Textul propus de Comisie

Amendamentul

 

(12b)

Nici dezvoltarea colaborativă a unor componente de IA gratuite și cu sursă deschisă, nici punerea lor la dispoziție în registre deschise nu ar trebui să constituie o introducere pe piață sau o punere în funcțiune. O activitate comercială, în sensul punerii la dispoziție pe piață, ar putea fi însă caracterizată prin perceperea unui preț, cu excepția tranzacțiilor între microîntreprinderi, pentru o componentă de IA gratuită și cu sursă deschisă, dar și prin perceperea unui preț pentru serviciile de suport tehnic, prin furnizarea unei platforme software prin intermediul căreia furnizorul monetizează alte servicii sau prin utilizarea datelor cu caracter personal în alte scopuri decât îmbunătățirea exclusivă a securității, a compatibilității sau a interoperabilității software-ului.

Amendamentul 34

Propunere de regulament

Considerentul 12 c (nou)

Textul propus de Comisie

Amendamentul

 

(12c)

Dezvoltatorii de componente de IA gratuite și cu sursă deschisă nu ar trebui să fie obligați în temeiul prezentului regulament să respecte cerințele care vizează lanțul valoric al IA și, în special, aceste cerințe nu ar trebui să vizeze furnizorul care a utilizat respectiva componentă de IA gratuită și cu sursă deschisă. Dezvoltatorii de componente de IA gratuite și cu sursă deschisă ar trebui, cu toate acestea, să fie încurajați să pună în aplicare practici de documentare adoptate pe scară largă, cum ar fi modelele și cardurile de date, ca modalitate de a accelera schimbul de informații de-a lungul lanțului valoric al IA, permițând promovarea unor sisteme de IA fiabile în Uniune.

Amendamentul 35

Propunere de regulament

Considerentul 13

Textul propus de Comisie

Amendamentul

(13)

Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, ar trebui stabilite standarde normative comune pentru toate sistemele de IA cu grad ridicat de risc. Aceste standarde ar trebui să fie în concordanță cu Carta drepturilor fundamentale a Uniunii Europene ( „Carta” ) și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele comerciale internaționale ale Uniunii.

(13)

Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, precum și democrația, statul de drept și mediul, ar trebui stabilite standarde normative comune pentru toate sistemele de IA cu grad ridicat de risc. Aceste standarde ar trebui să fie în concordanță cu Carta , cu Pactul verde european, cu Declarația comună a Uniunii privind drepturile digitale și cu Orientările în materie de etică pentru o inteligență artificială ( IA ) de încredere ale Grupului de experți la nivel înalt privind inteligența artificială și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele internaționale ale Uniunii.

Amendamentul 36

Propunere de regulament

Considerentul 14

Textul propus de Comisie

Amendamentul

(14)

Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici în domeniul inteligenței artificiale, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.

(14)

Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici inacceptabile în domeniul inteligenței artificiale, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.

Amendamentul 37

Propunere de regulament

Considerentul 15

Textul propus de Comisie

Amendamentul

(15)

Pe lângă numeroasele utilizări benefice ale inteligenței artificiale, această tehnologie poate fi utilizată în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și ar trebui interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale ale Uniunii, inclusiv a dreptului la nediscriminare, a protecției datelor și a vieții private, precum și a drepturilor copilului.

(15)

Pe lângă numeroasele utilizări benefice ale inteligenței artificiale, această tehnologie poate fi utilizată în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și abuzive și ar trebui interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale ale Uniunii, inclusiv a dreptului la nediscriminare, a protecției datelor și a vieții private, precum și a drepturilor copilului.

Amendamentul 38

Propunere de regulament

Considerentul 16

Textul propus de Comisie

Amendamentul

(16)

Ar trebui interzisă introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA destinate să denatureze comportamentul uman, în cazul cărora este probabil să se aducă prejudicii fizice sau psihice. Astfel de sisteme de IA implementează componente subliminale pe care persoanele nu le pot percepe sau exploatează vulnerabilitățile copiilor și ale oamenilor ca urmare a  vârstei și incapacității fizice sau mentale a acestora. Ele fac acest lucru cu intenția de a denatura în mod semnificativ comportamentul unei persoane și într-un mod care cauzează sau ar putea cauza prejudicii persoanei respective sau unei alte persoane. Intenția nu poate fi prezumată în cazul în care denaturarea comportamentului uman rezultă din factori externi sistemului de IA, care se află în afara controlului furnizorului sau al utilizatorului. Cercetarea în scopuri legitime în legătură cu astfel de sisteme de IA nu ar trebui să fie împiedicată de interdicție, în cazul în care o astfel de cercetare nu echivalează cu utilizarea sistemului de IA în relațiile om-mașină, provocând prejudicii persoanelor fizice, iar o astfel de cercetare se desfășoară în conformitate cu standardele etice recunoscute pentru cercetarea științifică.

(16)

Ar trebui interzisă introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA care au drept obiectiv sau al căror efect este să denatureze în mod semnificativ comportamentul uman, în cazul cărora este probabil să se aducă prejudicii fizice sau psihice. Această limitare ar trebui înțeleasă ca incluzând neurotehnologiile asistate de sisteme de IA care sunt folosite pentru a monitoriza, a utiliza sau a influența datele neurale colectate prin interfețele dintre creier și calculator, în măsura în care acestea denaturează în mod semnificativ comportamentul unei persoane fizice într-un mod care cauzează sau este probabil să cauzeze prejudicii semnificative persoanei respective sau altei persoane. Astfel de sisteme de IA implementează componente subliminale pe care persoanele nu le pot percepe sau exploatează vulnerabilitățile persoanelor și al unor grupuri specifice de persoane ca urmare a  trăsăturilor de personalitate cunoscute sau preconizate, vârstei incapacității fizice sau mentale , situației sociale sau economice a acestora. Ele fac acest lucru cu intenția sau efectul de a denatura în mod semnificativ comportamentul unei persoane și într-un mod care cauzează sau ar putea cauza prejudicii semnificative persoanei respective sau unei alte persoane sau unor grupuri de persoane, inclusiv prejudicii care se pot acumula în timp . Intenția de a denatura comportamentul nu poate fi prezumată în cazul în care denaturarea rezultă din factori care se află în afara controlului furnizorului sau al utilizatorului , cum ar fi factori care nu pot fi prevăzuți și atenuați în mod rezonabil și atenuați de către furnizorul sau operatorul sistemului de IA. În orice caz, nu este necesar ca furnizorul sau operatorul să aibă intenția de a cauza prejudiciul semnificativ, atât timp cât un astfel de prejudiciu rezultă din practicile de manipulare sau exploatare bazate pe IA. Interdicțiile pentru astfel de practici de IA sunt complementare dispozițiilor cuprinse în Directiva 2005/29/CE, potrivit cărora practicile comerciale neloiale sunt interzise, indiferent dacă au recurs sau nu la sisteme de IA. În acest context, practicile comerciale legale, de exemplu în domeniul publicității, care sunt în conformitate cu dreptul Uniunii nu ar trebui considerate, în sine, ca încălcând interdicția. Cercetarea în scopuri legitime în legătură cu astfel de sisteme de IA nu ar trebui să fie împiedicată de interdicție, în cazul în care o astfel de cercetare nu echivalează cu utilizarea sistemului de IA în relațiile om-mașină, provocând prejudicii persoanelor fizice, iar o astfel de cercetare se desfășoară în conformitate cu standardele etice recunoscute pentru cercetarea științifică și pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la aceasta sau, după caz, al tutorelui lor legal .

Amendamentul 39

Propunere de regulament

Considerentul 16 a (nou)

Textul propus de Comisie

Amendamentul

 

(16a)

Sistemele de IA care clasifică persoanele fizice prin încadrarea acestora în categorii specifice, în funcție de caracteristici sensibile sau protejate cunoscute sau deduse, sunt deosebit de intruzive, încalcă demnitatea umană și prezintă un risc ridicat de discriminare. Aceste caracteristici includ genul, identitatea de gen, rasa, originea etnică, statutul de migrație sau cetățenie, orientarea politică, orientarea sexuală, religia, dizabilitatea sau orice alt motiv pentru care discriminarea este interzisă în temeiul articolului 21 din Carta drepturilor fundamentale a Uniunii Europene, precum și în temeiul articolului 9 din Regulamentul (UE) 2016/769. Prin urmare, astfel de sisteme ar trebui interzise.

Amendamentul 40

Propunere de regulament

Considerentul 17

Textul propus de Comisie

Amendamentul

(17)

Sistemele de IA care oferă o evaluare a comportamentului social al persoanelor fizice în scopuri generale de către autoritățile publice sau în numele acestora pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea pot încălca dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică credibilitatea persoanelor fizice pe baza comportamentului lor social în contexte multiple sau a unor caracteristici personale sau de personalitate cunoscute sau preconizate. Punctajul privind comportamentul social obținut din astfel de sisteme de IA poate duce la un tratament negativ sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament defavorabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Prin urmare, astfel de sisteme de IA ar trebui interzise.

(17)

Sistemele de IA care oferă o evaluare a comportamentului social al persoanelor fizice în scopuri generale pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea încalcă dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică persoanele fizice sau grupurile pe baza mai multor puncte de informații și ocurențe aferente comportamentului lor social în contexte multiple sau a unor caracteristici personale sau de personalitate cunoscute , deduse sau preconizate. Punctajul privind comportamentul social obținut din astfel de sisteme de IA poate duce la un tratament negativ sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament defavorabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Prin urmare, astfel de sisteme de IA ar trebui interzise.

Amendamentul 41

Propunere de regulament

Considerentul 18

Textul propus de Comisie

Amendamentul

(18)

Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul asigurării respectării legii este considerată deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză , în măsura în care poate afecta viața privată a unei părți mari a populației, evocă un sentiment de supraveghere constantă și descurajează indirect exercitarea libertății de întrunire și a altor drepturi fundamentale. În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate de activitățile de asigurare a respectării legii.

(18)

Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului este deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză și poate afecta în cele din urmă viața privată a unei părți mari a populației, evocă un sentiment de supraveghere constantă , le conferă părților care recurg la identificarea biometrică în spațiile accesibile publicului o poziție de putere necontrolabilă și descurajează indirect exercitarea libertății de întrunire și a altor drepturi fundamentale aflate în centrul statului de drept. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate subiective și pot avea efecte discriminatorii. Acest lucru este deosebit de relevant în ceea ce privește vârsta, etnia, sexul sau dizabilitatea . În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate de activitățile de asigurare a respectării legii. Prin urmare, utilizarea acestor sisteme în locuri accesibile publicului ar trebui interzisă. În mod similar, sistemele de IA utilizate pentru analiza înregistrărilor video ale spațiilor accesibile publicului prin intermediul sistemelor de identificare biometrică la distanță „ulterioară” ar trebui, de asemenea, interzise, cu excepția cazului în care există o autorizație preliminară pentru utilizarea în contextul aplicării legii, atunci când acest lucru este strict necesar pentru căutarea specifică legată de o infracțiune gravă specifică care a avut loc deja și numai sub rezerva unei autorizații preliminare.

Amendamentul 42

Propunere de regulament

Considerentul 19

Textul propus de Comisie

Amendamentul

(19)

Prin urmare, utilizarea acestor sisteme în scopul asigurării respectării legii ar trebui interzisă, cu excepția a trei situații enumerate în mod exhaustiv și definite în mod strict, în care utilizarea este strict necesară pentru un interes public substanțial, importanța acestei utilizări fiind mai mare decât riscurile. Aceste situații implică căutarea potențialelor victime ale criminalității, inclusiv a copiilor dispăruți, anumite amenințări la adresa vieții sau a siguranței fizice a persoanelor fizice sau privind un atac terorist și detectarea, localizarea, identificarea sau urmărirea penală a autorilor unor infracțiuni sau a persoanelor suspectate menționate în Decizia-cadru 2002/584/JAI a Consiliului  (38) , în cazul în care infracțiunile respective se pedepsesc în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani și conform definiției din dreptul statului membru respectiv. Un astfel de prag pentru pedeapsa sau măsura de siguranță privativă de libertate în conformitate cu dreptul intern contribuie la asigurarea faptului că infracțiunea ar trebui să fie suficient de gravă pentru a justifica eventual utilizarea sistemelor de identificare biometrică la distanță „în timp real”. În plus, dintre cele 32 de infracțiuni enumerate în Decizia-cadru 2002/584/JAI a Consiliului, unele sunt, în practică, susceptibile să fie mai relevante decât altele, în sensul că recurgerea la identificarea biometrică la distanță „în timp real” va fi, în mod previzibil, necesară și proporțională în grade foarte diferite pentru urmărirea practică a detectării, localizării, identificării sau urmăririi penale a unui autor al unei infracțiuni sau a unei persoane suspectate că ar fi comis diferitele infracțiuni enumerate și având în vedere diferențele probabile în ceea ce privește gravitatea, probabilitatea și amploarea prejudiciului sau posibilele consecințe negative.

eliminat

Amendamentul 43

Propunere de regulament

Considerentul 20

Textul propus de Comisie

Amendamentul

(20)

Pentru a se asigura că aceste sisteme sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste trei situații enumerate în mod exhaustiv și strict definite, ar trebui luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unor limite de timp și spațiu adecvate, având în vedere, în special, dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre cele trei situații menționate mai sus.

eliminat

Amendamentul 44

Propunere de regulament

Considerentul 21

Textul propus de Comisie

Amendamentul

(21)

Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru. O astfel de autorizație ar trebui, în principiu, să fie obținută înainte de utilizare, cu excepția situațiilor de urgență justificate în mod corespunzător, și anume situațiile în care necesitatea de a utiliza sistemele în cauză este de așa natură încât obținerea unei autorizații înainte de începerea utilizării este imposibilă din punctul de vedere al eficacității și în mod obiectiv. În astfel de situații de urgență, utilizarea ar trebui să fie limitată la ceea ce este minim și absolut necesar și să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern și specificate în contextul fiecărui caz individual de utilizare urgentă de către însăși autoritatea de aplicare a legii. În plus, în astfel de situații, autoritatea de aplicare a legii ar trebui să încerce să obțină o autorizație cât mai curând posibil, indicând motivele pentru care nu a fost în măsură să o solicite mai devreme.

eliminat

Amendamentul 45

Propunere de regulament

Considerentul 22

Textul propus de Comisie

Amendamentul

(22)

În plus, este oportun să se prevadă, în cadrul exhaustiv stabilit de prezentul regulament, că o astfel de utilizare pe teritoriul unui stat membru în conformitate cu prezentul regulament ar trebui să fie posibilă numai în cazul și în măsura în care statul membru în cauză a decis să prevadă în mod expres posibilitatea de a autoriza o astfel de utilizare în normele sale detaliate de drept intern. În consecință, în temeiul prezentului regulament, statele membre au în continuare libertatea de a nu prevedea o astfel de posibilitate sau de a prevedea o astfel de posibilitate numai în ceea ce privește unele dintre obiectivele care pot justifica utilizarea autorizată identificate în prezentul regulament.

eliminat

Amendamentul 46

Propunere de regulament

Considerentul 23

Textul propus de Comisie

Amendamentul

(23)

Utilizarea sistemelor de IA pentru identificarea biometrică „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul asigurării respectării legii implică în mod necesar prelucrarea datelor biometrice. Normele din prezentul regulament care interzic, sub rezerva anumitor excepții, o astfel de utilizare, care se bazează pe articolul 16 din TFUE, ar trebui să se aplice ca lex specialis în ceea ce privește normele privind prelucrarea datelor biometrice prevăzute la articolul 10 din Directiva (UE) 2016/680, reglementând astfel în mod exhaustiv această utilizare și prelucrarea datelor biometrice implicate. Prin urmare, o astfel de utilizare și prelucrare ar trebui să fie posibilă numai în măsura în care este compatibilă cu cadrul stabilit de prezentul regulament, fără a exista, în afara cadrului respectiv, posibilitatea ca autoritățile competente, atunci când acționează în scopul asigurării respectării legii, să utilizeze astfel de sisteme și să prelucreze astfel de date în legătură cu acestea din motivele enumerate la articolul 10 din Directiva (UE) 2016/680. În acest context, prezentul regulament nu este menit să ofere temeiul juridic pentru prelucrarea datelor cu caracter personal în baza articolului 8 din Directiva 2016/680. Cu toate acestea, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în alte scopuri decât cele de asigurare a respectării legii, inclusiv de către autoritățile competente, nu ar trebui să facă obiectul cadrului specific privind o astfel de utilizare în scopul asigurării respectării legii stabilit de prezentul regulament. Prin urmare, o astfel de utilizare în alte scopuri decât asigurarea respectării legii nu ar trebui să facă obiectul cerinței unei autorizații în temeiul prezentului regulament și al normelor detaliate aplicabile din dreptul intern care o pot pune în aplicare.

eliminat

Amendamentul 47

Propunere de regulament

Considerentul 24

Textul propus de Comisie

Amendamentul

(24)

Orice prelucrare a datelor biometrice și a altor date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii , astfel cum este reglementat de prezentul regulament , inclusiv în cazul în care aceste sisteme sunt utilizate de autoritățile competente în spații accesibile publicului în alte scopuri decât asigurarea respectării legii , ar trebui să respecte în continuare toate cerințele care decurg din articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 și articolul 10 din Directiva (UE) 2016/680, după caz.

(24)

Orice prelucrare a datelor biometrice și a altor date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului, astfel cum este reglementat de prezentul regulament, ar trebui să respecte în continuare toate cerințele care decurg din articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 și articolul 10 din Directiva (UE) 2016/680, după caz.

Amendamentul 48

Propunere de regulament

Considerentul 25

Textul propus de Comisie

Amendamentul

(25)

În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) și la articolul 5 alineatele (2) și (3) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE referitoare la prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, atât timp cât Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.

(25)

În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE referitoare la prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, atât timp cât Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.

Amendamentul 49

Propunere de regulament

Considerentul 26

Textul propus de Comisie

Amendamentul

(26)

În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) și la articolul 5 alineatele (2) și (3) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE, și nici nu face obiectul aplicării acestora în ceea ce privește prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră sub incidența părții a treia titlul V capitolul 4 sau 5 din TFUE.

(26)

În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) litera (d) din prezentul regulament, adoptate în temeiul articolului 16 din TFUE, și nici nu face obiectul aplicării acestora în ceea ce privește prelucrarea datelor cu caracter personal de către statele membre în exercitarea activităților care intră sub incidența părții a treia titlul V capitolul 4 sau 5 din TFUE.

Amendamentul 50

Propunere de regulament

Considerentul 26 a (nou)

Textul propus de Comisie

Amendamentul

 

(26a)

Sistemele de IA utilizate de autoritățile de aplicare a legii sau în numele acestora pentru a face previziuni, a genera profiluri sau evaluări ale riscurilor bazate pe crearea de profiluri ale persoanelor fizice sau pe analiza datelor pe baza trăsăturilor și caracteristicilor de personalitate, inclusiv localizarea persoanei, sau pe baza comportamentului infracțional anterior al persoanelor fizice sau al grupurilor de persoane, în scopul de a anticipa apariția sau reapariția unei (unor) infracțiuni reale sau potențiale sau a altor comportamente sociale sau administrative incriminate, inclusiv sistemele de predicție a fraudei, prezintă un risc deosebit de discriminare împotriva anumitor persoane sau grupuri de persoane, deoarece încalcă demnitatea umană, precum și principiul juridic esențial al prezumției de nevinovăție. Prin urmare, astfel de sisteme de IA ar trebui interzise.

Amendamentul 51

Propunere de regulament

Considerentul 26 b (nou)

Textul propus de Comisie

Amendamentul

 

(26b)

Extragerea nediferențiată și nedirecționată a datelor biometrice din înregistrările de pe platformele de comunicare socială sau CCTV pentru a crea sau a extinde bazele de date de recunoaștere facială sporește sentimentul de supraveghere în masă și poate duce la încălcări grave ale drepturilor fundamentale, inclusiv ale dreptului la viață privată. Prin urmare, ar trebui interzisă utilizarea sistemelor de IA în acest scop preconizat.

Amendamentul 52

Propunere de regulament

Considerentul 26 c (nou)

Textul propus de Comisie

Amendamentul

 

(26c)

Există preocupări serioase cu privire la baza științifică a sistemelor de IA care vizează detectarea emoțiilor, a caracteristicilor fizice sau fiziologice, cum ar fi expresiile faciale, mișcările, frecvența pulsului sau vocea. Emoțiile sau exprimarea emoțiilor și percepțiile acestora variază considerabil de la o cultură la alta și de la o situație la alta și chiar la nivelul unei singure persoane. Printre principalele deficiențe ale unor astfel de tehnologii se numără fiabilitatea limitată (categoriile de emoții nu sunt nici exprimate în mod fiabil printr-un set comun de mișcări fizice sau fiziologice și nici asociate fără echivoc cu un astfel de set), lipsa specificității (expresiile fizice sau fiziologice nu corespund perfect categoriilor de emoții) și generalizibilitatea limitată (efectele contextului și ale culturii nu sunt suficient luate în considerare). Probleme de fiabilitate și, prin urmare, riscuri majore de abuz pot apărea, în special, atunci când se implementează sistemul în situații reale legate de aplicarea legii, gestionarea frontierelor, locul de muncă și instituțiile de învățământ. Prin urmare, introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA destinate utilizării în aceste contexte pentru detectarea stării emoționale a persoanelor fizice ar trebui interzise.

Amendamentul 53

Propunere de regulament

Considerentul 26 d (nou)

Textul propus de Comisie

Amendamentul

 

(26d)

Practicile interzise de legislația Uniunii, inclusiv în temeiul dreptului privind protecția datelor, al dreptului privind nediscriminarea, al dreptului privind protecția consumatorilor și al dreptului concurenței, nu ar trebui să fie afectate de prezentul regulament.

Amendamentul 54

Propunere de regulament

Considerentul 27

Textul propus de Comisie

Amendamentul

(27)

Sistemele de IA cu grad ridicat de risc ar trebui introduse pe piața Uniunii sau puse în funcțiune numai dacă respectă anumite cerințe obligatorii. Aceste cerințe ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare reduce la minimum orice eventuală restricționare a comerțului internațional, dacă este cazul.

(27)

Sistemele de IA cu grad ridicat de risc ar trebui introduse pe piața Uniunii, puse în funcțiune sau utilizate numai dacă respectă anumite cerințe obligatorii. Aceste cerințe ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii , inclusiv drepturile fundamentale, democrația, statul de drept sau mediul. Pentru a asigura alinierea la legislația sectorială și pentru a evita suprapunerile, cerințele pentru sistemele de IA cu grad ridicat de risc ar trebui să țină cont de legislația sectorială care stabilește cerințe pentru sistemele de IA cu grad ridicat de risc incluse în domeniul de aplicare al prezentului regulament, cum ar fi Regulamentul (UE) 2017/745 privind dispozitivele medicale și Regulamentul (UE) 2017/746 privind dispozitivele de diagnostic in vitro sau Directiva 2006/42/CE privind echipamentele tehnice . Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare reduce la minimum orice eventuală restricționare a comerțului internațional, dacă este cazul. Având în vedere ritmul rapid al dezvoltării tehnologice, precum și posibilele modificări ale utilizării sistemelor de IA, lista zonelor cu risc ridicat și a cazurilor de utilizare din anexa III ar trebui totuși să facă obiectul unei reexaminări permanente prin intermediul unei evaluări periodice.

Amendamentul 55

Propunere de regulament

Considerentul 28

Textul propus de Comisie

Amendamentul

(28)

Sistemele de IA ar putea avea efecte adverse asupra sănătății și siguranței persoanelor, în special atunci când ele funcționează drept componente ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele își găsesc drumul pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea în condiții de siguranță și să își îndeplinească funcțiile în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte. Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de Cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un risc ridicat. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum și nediscriminarea, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu handicap, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție, dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze că, în ceea ce privește copiii, aceștia au drepturi specifice, astfel cum sunt consacrate la articolul 24 din Carta UE și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului (dezvoltată în continuare în Comentariul general nr. 25 al CDC privind mediul digital), ambele necesitând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în Cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, luat în considerare atunci când se evaluează gravitatea prejudiciului pe care un sistem de IA îl poate cauza, inclusiv în ceea ce privește sănătatea și siguranța persoanelor.

(28)

Sistemele de IA ar putea avea un impact negativ asupra sănătății și siguranței persoanelor, în special atunci când ele funcționează drept componente de siguranță ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele își găsesc drumul pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea în condiții de siguranță și să își îndeplinească funcțiile în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte.

Amendamentul 56

Propunere de regulament

Considerentul 28 a (nou)

Textul propus de Comisie

Amendamentul

 

(28a)

Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de Cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un risc ridicat. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum și nediscriminarea, dreptul la educație, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu dizabilități, egalitatea de gen, drepturile de proprietate intelectuală, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție, dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze că, în ceea ce privește copiii, aceștia au drepturi specifice, astfel cum sunt consacrate la articolul 24 din Carta UE și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului (dezvoltată în continuare în Comentariul general nr. 25 al CDC privind mediul digital), ambele necesitând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în Cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, luat în considerare atunci când se evaluează gravitatea prejudiciului pe care un sistem de IA îl poate cauza, inclusiv în ceea ce privește sănătatea și siguranța persoanelor sau mediul.

Amendamentul 57

Propunere de regulament

Considerentul 29

Textul propus de Comisie

Amendamentul

(29)

În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului (39), al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului (40), al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului (41), al Directivei (UE) 2014/90/UE a Parlamentului European și a Consiliului (42), al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului (43), al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului (44), al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului (45) și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului (46), este oportun să se modifice aceste acte legislative pentru a se asigura că Comisia ia în considerare, pe baza specificităților tehnice și de reglementare ale fiecărui sector, și fără a afecta mecanismele existente de guvernanță, de evaluare a conformității și de aplicare și autoritățile stabilite în acestea, cerințele obligatorii pentru sistemele de IA cu risc ridicat stabilite în prezentul regulament atunci când adoptă orice act relevant viitor delegat sau de punere în aplicare pe baza acestor acte legislative.

(29)

În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului (39), al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului (40), al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului (41), al Directivei (UE) 2014/90/UE a Parlamentului European și a Consiliului (42), al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului (43), al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului (44), al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului (45) și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului (46), este oportun să se modifice aceste acte legislative pentru a se asigura că Comisia ia în considerare, pe baza specificităților tehnice și de reglementare ale fiecărui sector, și fără a afecta mecanismele existente de guvernanță, de evaluare a conformității , de supraveghere a pieței și de aplicare și autoritățile stabilite în acestea, cerințele obligatorii pentru sistemele de IA cu risc ridicat stabilite în prezentul regulament atunci când adoptă orice act relevant viitor delegat sau de punere în aplicare pe baza acestor acte legislative.

Amendamentul 58

Propunere de regulament

Considerentul 30

Textul propus de Comisie

Amendamentul

(30)

În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii, sau care sunt ele însele astfel de produse, este oportun ca acestea să fie clasificate ca având un grad ridicat de risc în temeiul prezentului regulament, în cazul în care produsul în cauză este supus procedurii de evaluare a conformității efectuate de un organism terț de evaluare a conformității în temeiul legislației de armonizare relevante a Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale și dispozitivele medicale pentru diagnostic in vitro.

(30)

În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii enumerate în anexa II , sau care sunt ele însele astfel de produse, este oportun ca acestea să fie clasificate ca având un grad ridicat de risc în temeiul prezentului regulament, în cazul în care produsul în cauză este supus procedurii de evaluare a conformității , menită să asigure respectarea cerințelor de siguranță esențiale, efectuate de un organism terț de evaluare a conformității în temeiul dreptului de armonizare relevant al Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale și dispozitivele medicale pentru diagnostic in vitro.

Amendamentul 59

Propunere de regulament

Considerentul 31

Textul propus de Comisie

Amendamentul

(31)

Clasificarea unui sistem de IA ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui să însemne neapărat că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat „cu risc ridicat” în conformitate cu criteriile stabilite în legislația relevantă de armonizare a Uniunii care se aplică produsului. Acest lucru este valabil în special în cazul Regulamentului (UE) 2017/745 al Parlamentului European și al Consiliului (47) și al Regulamentului (UE) 2017/746 al Parlamentului European și al Consiliului (48), care prevăd o evaluare a conformității de către o parte terță pentru produsele cu risc mediu și cu risc ridicat.

(31)

Clasificarea unui sistem de IA ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui să însemne că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat „cu risc ridicat” în conformitate cu criteriile stabilite în dreptul relevant de armonizare al Uniunii care se aplică produsului. Acest lucru este valabil în special în cazul Regulamentului (UE) 2017/745 al Parlamentului European și al Consiliului (47) și al Regulamentului (UE) 2017/746 al Parlamentului European și al Consiliului (48), care prevăd o evaluare a conformității de către o parte terță pentru produsele cu risc mediu și cu risc ridicat.

Amendamentul 60

Propunere de regulament

Considerentul 32

Textul propus de Comisie

Amendamentul

(32)

În ceea ce privește sistemele de IA autonome, adică alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale produselor sau care sunt ele însele produse, este oportun ca acestea să fie clasificate ca fiind cu risc ridicat dacă, având în vedere scopul preconizat, prezintă un risc ridicat de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor, ținând seama atât de gravitatea posibilelor prejudicii, cât și de probabilitatea producerii acestora , și dacă sunt utilizate într-o serie de domenii predefinite în mod specific în regulament . Identificarea acestor sisteme se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere și pentru orice modificare viitoare a listei de sisteme de IA cu grad ridicat de risc.

(32)

În ceea ce privește sistemele de IA autonome, adică alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale produselor sau care sunt ele însele produse și care sunt enumerate într-unul dintre domeniile și cazurile de utilizare din anexa IIII , este oportun ca acestea să fie clasificate ca fiind cu risc ridicat dacă, având în vedere scopul preconizat, prezintă un risc semnificativ de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor și dacă , în cazul în care sistemul de IA este utilizat drept componentă de siguranță a unei infrastructuri critice, mediului. Un astfel de risc semnificativ de a aduce prejudicii ar trebui identificat prin evaluarea , pe de o parte, a efectului unui astfel de risc în ceea ce privește nivelul său de gravitate, intensitate, probabilitatea apariției și durata combinată și , pe de altă parte, dacă riscul poate afecta o persoană, mai multe persoane sau un anumit grup de persoane. O astfel de combinație ar putea duce, de exemplu, la o gravitate ridicată, dar cu o probabilitate scăzută de a afecta o persoană fizică, sau la o probabilitate ridicată de a afecta un grup de persoane cu o intensitate scăzută pe o perioadă lungă de timp, în funcție de context . Identificarea acestor sisteme se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere și pentru orice modificare viitoare a listei de sisteme de IA cu grad ridicat de risc.

Amendamentul 61

Propunere de regulament

Considerentul 32 a (nou)

Textul propus de Comisie

Amendamentul

 

(32a)

Furnizorii ale căror sisteme de IA se încadrează într-unul dintre domeniile și cazurile de utilizare enumerate în anexa III care consideră că sistemul lor nu prezintă un risc semnificativ de afectare a sănătății, a siguranței, a drepturilor fundamentale sau a mediului ar trebui să informeze autoritățile naționale de supraveghere prin transmiterea unei notificări motivate. Această notificare ar putea lua forma unui rezumat de o pagină al informațiilor relevante privind sistemul de IA în cauză, inclusiv scopul preconizat al acestuia și motivul pentru care nu ar prezenta un risc semnificativ de afectare a sănătății, a siguranței, a drepturilor fundamentale sau a mediului. Comisia ar trebui să specifice criterii care să permită întreprinderilor să evalueze dacă sistemul lor ar prezenta astfel de riscuri, precum și să elaboreze un model de notificare ușor de utilizat și standardizat. Furnizorii ar trebui să transmită notificarea cât mai curând posibil și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune a sistemului de IA, în mod ideal în etapa de dezvoltare, și ar trebui să fie liberi să îl introducă pe piață în orice moment după notificare. Cu toate acestea, în cazul în care estimează că sistemul de IA în cauză a fost clasificat greșit, autoritatea de supraveghere ar trebui să formuleze o obiecție în privința notificării în termen de trei luni. Obiecția ar trebui să fie motivată și să explice în mod corespunzător de ce sistemul de IA a fost clasificat greșit. Furnizorul ar trebui să își păstreze dreptul de a exercita o cale de atac prin furnizarea de argumente suplimentare. În cazul în care, după cele trei luni, nu s-a înregistrat nicio obiecție cu privire la notificare, autoritățile naționale de supraveghere ar putea interveni în continuare dacă sistemul de IA prezintă un risc la nivel național, la fel ca în cazul oricărui alt sistem de IA de pe piață. Autoritățile naționale de supraveghere ar trebui să transmită Oficiului pentru IA rapoarte anuale în care să detalieze notificările primite și deciziile adoptate.

Amendamentul 62

Propunere de regulament

Considerentul 33

Textul propus de Comisie

Amendamentul

(33)

Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate subiective și pot avea efecte discriminatorii. Acest lucru este deosebit de relevant în ceea ce privește vârsta, etnia, sexul sau handicapul. Prin urmare, sistemele de identificare biometrică la distanță „în timp real” și „ulterior” ar trebui clasificate ca având un grad ridicat de risc. Având în vedere riscurile pe care le prezintă, ambele tipuri de sisteme de identificare biometrică la distanță ar trebui să facă obiectul unor cerințe specifice privind capacitățile de jurnalizare și supravegherea umană.

eliminat

Amendamentul 63

Propunere de regulament

Considerentul 33 a (nou)

Textul propus de Comisie

Amendamentul

 

(33a)

Întrucât datele biometrice constituie o categorie specială de date sensibile cu caracter personal în conformitate cu Regulamentul 2016/679, este oportun să se clasifice ca prezentând un grad ridicat de risc mai multe cazuri de utilizare critică a sistemelor biometrice și a sistemelor bazate pe biometrie. Sistemele de IA destinate să fie utilizate pentru identificarea biometrică a persoanelor fizice și sistemele de IA destinate a fi utilizate pentru a face deducții în legătură cu caracteristicile personale ale persoanelor fizice pe baza datelor biometrice sau bazate pe biometrie, inclusiv sistemele de recunoaștere a emoțiilor, cu excepția celor interzise în temeiul prezentului regulament, ar trebui, prin urmare, să fie clasificate drept prezentând un risc ridicat. Această clasificare nu ar trebui să includă sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, la un dispozitiv sau la un sediu (verificare comparativă între două seturi de date). Sistemele biometrice și sistemele bazate pe biometrie care sunt prevăzute în dreptul Uniunii pentru a permite măsuri de securitate cibernetică și de protecție a datelor cu caracter personal nu ar trebui să fie considerate drept prezentând un risc semnificativ de prejudiciere a sănătății, a siguranței și a drepturilor fundamentale.

Amendamentul 64

Propunere de regulament

Considerentul 34

Textul propus de Comisie

Amendamentul

(34)

În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca fiind cu risc ridicat sistemele de IA destinate utilizării ca elemente de siguranță în gestionarea și exploatarea traficului rutier și în aprovizionarea cu apă, gaz, încălzire și energie electrică, deoarece defectarea sau funcționarea defectuoasă a acestora poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice.

(34)

În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca fiind cu risc ridicat sistemele de IA destinate utilizării ca elemente de siguranță în gestionarea și exploatarea aprovizionării cu apă, gaz, încălzire și energie electrică și a infrastructurii digitale critice , deoarece defectarea sau funcționarea defectuoasă a acestora poate afecta securitatea și integritatea acestor infrastructuri critice sau poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice. Componentele de siguranță ale infrastructurii critice, inclusiv ale infrastructurii digitale critice, sunt sisteme utilizate pentru a proteja în mod direct integritatea fizică a infrastructurii critice sau sănătatea și siguranța persoanelor și a bunurilor. Defectarea sau funcționarea defectuoasă a unor astfel de componente ar putea duce în mod direct la riscuri pentru integritatea fizică a infrastructurii critice și, prin urmare, la riscuri pentru sănătatea și siguranța persoanelor și a bunurilor. Componentele destinate a fi utilizate exclusiv în scopuri de securitate cibernetică nu ar trebui să se califice drept componente de siguranță. Exemple de astfel de componente de siguranță pot include sisteme de monitorizare a presiunii apei sau sisteme de control al alarmei de incendiu în centrele de cloud computing.

Amendamentul 65

Propunere de regulament

Considerentul 35

Textul propus de Comisie

Amendamentul

(35)

Sistemele de IA utilizate în educație sau în formarea profesională, în special pentru determinarea accesului sau desemnarea persoanelor în instituțiile de învățământ și formare profesională sau pentru evaluarea persoanelor care participă la teste ca parte a educației lor sau ca o condiție prealabilă pentru aceasta, ar trebui considerate ca având un grad ridicat de risc, deoarece pot determina parcursul educațional și profesional al vieții unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloacele de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat, și pot perpetua tiparele istorice de discriminare.

(35)

Implementarea sistemelor de IA în educație este importantă pentru a contribui la modernizarea unor întregi sisteme de învățământ, la creșterea calității educației, atât offline, cât și online, și la accelerarea educației digitale, punând-o astfel la dispoziția unui public mai larg. Sistemele de IA utilizate în educație sau în formarea profesională, în special pentru determinarea accesului sau influențarea în mod semnificativ a deciziilor privind admiterea sau desemnarea persoanelor în instituțiile de învățământ și formare profesională sau pentru evaluarea persoanelor care participă la teste ca parte a educației lor sau ca o condiție prealabilă pentru aceasta sau pentru a evalua nivelul adecvat de educație pentru o persoană și a influența în mod semnificativ nivelul de educație și de formare de care vor beneficia persoanele fizice sau pe care vor fi în măsură să îl acceseze sau pentru a monitoriza și depista comportamentul interzis al elevilor sau studenților în timpul testelor ar trebui clasificate drept sisteme de IA cu un grad ridicat de risc, deoarece pot determina parcursul educațional și profesional al vieții unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloacele de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot fi deosebit de intruzive și pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat, și pot perpetua tiparele istorice de discriminare , de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor cu anumite origini rasiale sau etnice sau orientări sexuale .

Amendamentul 66

Propunere de regulament

Considerentul 36

Textul propus de Comisie

Amendamentul

(36)

Sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor privind promovarea și încetarea activității, precum și pentru alocarea sarcinilor, monitorizarea sau evaluarea persoanelor aflate în raporturi contractuale legate de muncă, ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră și asupra mijloacelor de subzistență ale acestor persoane. Relațiile contractuale relevante legate de muncă ar trebui să implice angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Aceste persoane nu ar trebui, în principiu, să fie considerate utilizatori în sensul prezentului regulament. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tiparele istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu handicap sau a persoanelor de anumite origini rasiale sau etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot avea , de asemenea, un impact asupra drepturilor lor la protecția datelor și la viața privată.

(36)

Sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor sau influențarea în mod semnificativ a deciziilor privind începerea, promovarea și încetarea activității, precum și pentru alocarea personalizată a sarcinilor pe baza comportamentului personal, a trăsăturilor individuale sau a datelor biometrice , monitorizarea sau evaluarea persoanelor aflate în raporturi contractuale legate de muncă, ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră, asupra mijloacelor de subzistență ale acestor persoane și asupra drepturilor lucrătorilor . Relațiile contractuale relevante legate de muncă ar trebui să implice în mod semnificativ angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tiparele istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu handicap sau a persoanelor de anumite origini rasiale sau etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot submina , de asemenea, esența drepturilor fundamentale ale acestora la protecția datelor și la viața privată. Prezentul regulament se aplică fără a aduce atingere competențelor Uniunii și ale statelor membre de a prevedea norme mai specifice pentru utilizarea sistemelor de IA în contextul ocupării forței de muncă.

Amendamentul 67

Propunere de regulament

Considerentul 37

Textul propus de Comisie

Amendamentul

(37)

Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite servicii și beneficii publice și private esențiale, necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și servicii de telecomunicații. Sistemele de IA utilizate în acest scop pot duce la discriminarea persoanelor sau a grupurilor și perpetuează modelele istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, handicap , vârstă, orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Având în vedere amploarea foarte limitată a impactului și alternativele disponibile pe piață, este oportun să se excepteze sistemele de IA în scopul evaluării bonității și al evaluării creditelor atunci când sunt puse în funcțiune de către micii furnizori pentru uzul propriu . Persoanele fizice care solicită sau primesc prestații și servicii de asistență publică din partea autorităților publice depind, în general, de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui refuzate, reduse, revocate sau recuperate de autorități, acestea pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac eficientă. Prin urmare, aceste sisteme ar trebui clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În cele din urmă, sistemele de IA utilizate pentru dispecerizarea sau stabilirea priorității în dispecerizarea serviciilor de primă intervenție de urgență ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și a bunurilor acestora.

(37)

Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite servicii publice și private esențiale, inclusiv servicii de asistență medicală, și servicii esențiale, inclusiv locuințe, energie electrică, încălzire/răcire și internet, dar fără a se limita la acestea, și beneficii necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și servicii de telecomunicații. Sistemele de IA utilizate în acest scop pot duce la discriminarea persoanelor sau a grupurilor și perpetuează modelele istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, gen, dizabilități , vârstă, orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Cu toate acestea, sistemele de IA prevăzute de dreptul Uniunii în scopul detectării fraudei în furnizarea de servicii financiare nu ar trebui să fie considerate ca prezentând un grad ridicat de risc în temeiul prezentului regulament. Persoanele fizice care solicită sau primesc prestații și servicii de asistență publică din partea autorităților publice , inclusiv servicii de asistență medicală și servicii esențiale, inclusiv locuințe, energie electrică, încălzire/răcire și internet, dar fără a se limita la acestea, depind, în general, de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui refuzate, reduse, revocate sau recuperate de autorități, acestea pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac eficientă. În mod similar, sistemele de IA destinate a fi utilizate pentru a lua decizii sau pentru a influența în mod semnificativ deciziile privind eligibilitatea persoanelor fizice pentru asigurarea de sănătate și de viață pot avea, de asemenea, un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și pot încălca drepturile lor fundamentale, de exemplu prin limitarea accesului la asistență medicală sau prin perpetuarea discriminării bazate pe caracteristici personale. Prin urmare, aceste sisteme ar trebui clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În cele din urmă, sistemele de IA utilizate pentru evaluarea și clasificarea apelurilor de urgență ale persoanelor fizice sau pentru dispecerizarea sau stabilirea priorității în dispecerizarea serviciilor de primă intervenție de urgență ar trebui, de asemenea, clasificate ca având un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și a bunurilor acestora.

Amendamentul 68

Propunere de regulament

Considerentul 37 a (nou)

Textul propus de Comisie

Amendamentul

 

(37a)

Având în vedere rolul și responsabilitatea poliției și a autorităților judiciare, precum și impactul deciziilor pe care le iau acestea în scopul prevenirii, investigării, depistării sau urmăririi penale a infracțiunilor sau al executării pedepselor, unele cazuri specifice de utilizare a aplicațiilor de IA în asigurarea respectării legii trebuie clasificate ca având un grad ridicat de risc, în special în cazurile în care există potențialul de a afecta în mod semnificativ viața sau drepturile fundamentale ale persoanelor.

Amendamentul 69

Propunere de regulament

Considerentul 38

Textul propus de Comisie

Amendamentul

(38)

Acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în Cartă. În special, în cazul în care în sistemul de IA nu se introduc date de înaltă calitate, în cazul în care acesta nu îndeplinește cerințele adecvate în ceea ce privește precizia sau robustețea sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, acesta poate selecta persoanele într-un mod discriminatoriu sau incorect sau injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac eficientă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special, în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să se clasifice ca având un grad ridicat de risc o serie de sisteme de IA destinate a fi utilizate în contextul asigurării respectării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și căi de atac eficace. Având în vedere natura activităților în cauză și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru evaluări individuale ale riscurilor, pentru poligrafe și instrumente similare , sau pentru detectarea stării emoționale a persoanelor fizice, pentru detecta „deepfake-urile” , pentru a evalua fiabilitatea probelor în cadrul procedurilor penale , pentru a anticipa apariția sau repetarea unei infracțiuni reale sau potențiale pe baza stabilirii profilului criminalistic al persoanelor fizice sau pentru a evalua trăsăturile și caracteristicile de personalitate sau comportamentul infracțional anterior al unor persoane fizice sau al unor grupuri , pentru stabilirea de profiluri criminalistice în cursul depistării, al investigării sau al urmăririi penale a infracțiunilor, precum și pentru analiza infracționalității în ceea ce privește persoanele fizice. Sistemele de IA destinate în mod special utilizării în proceduri administrative de către autoritățile fiscale și vamale nu ar trebui să fie considerate sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor.

(38)

Acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în Cartă. În special, în cazul în care în sistemul de IA nu se introduc date de înaltă calitate, în cazul în care acesta nu îndeplinește cerințele adecvate în ceea ce privește performanța, precizia sau robustețea sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, acesta poate selecta persoanele într-un mod discriminatoriu sau incorect sau injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac eficientă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special, în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să se clasifice ca având un grad ridicat de risc o serie de sisteme de IA destinate a fi utilizate în contextul asigurării respectării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și căi de atac eficace. Având în vedere natura activităților în cauză și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele acestora sau de agențiile , oficiile sau organismele Uniunii în sprijinul autorităților de aplicare legii , în calitate de poligrafe și instrumente similare , în măsura în care utilizarea lor este permisă în temeiul dreptului aplicabil al Uniunii sau al dreptului intern, pentru a evalua fiabilitatea probelor în cadrul procedurilor penale , pentru stabilirea de profiluri criminalistice în cursul depistării, al investigării sau al urmăririi penale a infracțiunilor, precum și pentru analiza infracționalității în ceea ce privește persoanele fizice. Sistemele de IA destinate în mod special utilizării în proceduri administrative de către autoritățile fiscale și vamale nu ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor. Utilizarea de instrumente de IA de către autoritățile de aplicare a legii și autoritățile judiciare nu ar trebui să devină un factor de inegalitate, fragmentare socială sau excluziune. Impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților nu ar trebui ignorat, în special dificultatea de a obține informații relevante despre funcționarea acestora și, în consecință, dificultatea de a contesta rezultatele lor în instanță, în special de către persoanele anchetate.

Amendamentul 70

Propunere de regulament

Considerentul 39

Textul propus de Comisie

Amendamentul

(39)

Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este oportun să fie clasificate cu grad ridicat de risc sistemele de IA destinate a fi utilizate de autoritățile publice competente care au atribuții în domeniile migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare sau pentru a detecta starea emoțională a unei persoane fizice , pentru a evalua anumite riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil, pentru a verifica autenticitatea documentelor relevante ale persoanelor fizice și pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului (49), de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului (50) și de alte acte legislative relevante.

(39)

Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este oportun să se clasifice drept sisteme de IA cu grad ridicat de risc destinate a fi utilizate de către autoritățile publice competente sau în numele acestora sau de către agențiile, oficiile sau organismele Uniunii însărcinate cu sarcini în domeniul migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare , în măsura în care utilizarea acestora este permisă în temeiul dreptului relevant al Uniunii și al dreptului intern , pentru evaluarea anumitor riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil; pentru a verifica autenticitatea documentelor relevante ale persoanelor fizice și pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea și analiza veridicității probelor în privința cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut ; pentru monitorizarea, supravegherea sau prelucrarea datelor cu caracter personal în contextul activităților de gestionare a frontierelor, în scopul detectării, recunoașterii sau identificării persoanelor fizice; pentru previzionarea sau prezicerea tendințelor legate de mișcările migratorii și de trecerea frontierei . Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului (49), de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului (50) și de alte acte legislative relevante. Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră nu ar trebui în niciun caz să fie folosite de statele membre sau de instituțiile, agențiile sau organismele Uniunii Europene ca mijloc de eludare a obligațiilor lor internaționale în temeiul Convenției din 28 iulie 1951 privind statutul refugiaților, astfel cum a fost modificată prin Protocolul din 31 ianuarie 1967, și nici nu ar trebui să fie folosite pentru a încălca în niciun mod principiul nereturnării sau pentru a refuza căile legale de migrație, sigure și efective, pentru intrarea pe teritoriul Uniunii și nici dreptul la protecție internațională.

Amendamentul 71

Propunere de regulament

Considerentul 40

Textul propus de Comisie

Amendamentul

(40)

Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui clasificate ca având un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac eficientă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de părtinire, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA menite să ajute autoritățile judiciare să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte. Cu toate acestea, o astfel de calificare nu ar trebui să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative sau alocarea resurselor.

(40)

Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui clasificate ca având un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac eficientă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de părtinire, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA menite să fie utilizate de o autoritate judiciară sau de un organ administrativ sau în numele acestora pentru a ajuta autoritățile judiciare sau organele administrative să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte , sau utilizate într-un mod similar în soluționarea alternativă a litigiilor. Utilizarea instrumentelor de inteligență artificială poate sprijini, dar nu ar trebui să înlocuiască puterea decizională a judecătorilor sau independența sistemului judiciar, întrucât procesul decizional final trebuie să rămână o activitate și o decizie umană . Cu toate acestea, o astfel de calificare nu ar trebui să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative sau alocarea resurselor.

Amendamentul 72

Propunere de regulament

Considerentul 40 a (nou)

Textul propus de Comisie

Amendamentul

 

(40a)

Pentru a aborda riscurile de ingerințe externe nejustificate în dreptul de vot consacrat la articolul 39 din cartă și de efecte disproporționate asupra proceselor democratice, a democrației și a statului de drept, sistemele de IA destinate a fi utilizate pentru a influența rezultatul unor alegeri sau al unui referendum sau comportamentul de vot al persoanelor fizice în exercitarea votului lor în cadrul alegerilor sau al referendumurilor ar trebui clasificate drept sisteme de IA cu grad ridicat de risc, cu excepția sistemelor de IA la ale căror rezultate persoanele fizice nu sunt expuse în mod direct, cum ar fi instrumentele utilizate pentru organizarea, optimizarea și structurarea campaniilor politice din punct de vedere administrativ și logistic.

Amendamentul 73

Propunere de regulament

Considerentul 40 b (nou)

Textul propus de Comisie

Amendamentul

 

(40b)

Având în vedere proporția persoanelor fizice care utilizează serviciile furnizate de platformele de comunicare socială desemnate drept platforme online foarte mari, astfel de platforme online pot fi utilizate într-un mod care influențează puternic siguranța online, formarea opiniei și a discursului public, procesele electorale și democratice și preocupările societale. Prin urmare, este oportun ca sistemele de IA utilizate de platformele online respective în sistemele lor de recomandare să facă obiectul prezentului regulament, astfel încât să se asigure că sistemele de IA respectă cerințele prevăzute în prezentul regulament, inclusiv cerințele tehnice privind guvernanța datelor, documentația tehnică și trasabilitatea, transparența, supravegherea umană, acuratețea și robustețea. Respectarea prezentului regulament ar trebui să permită acestor platforme online foarte mari să își respecte obligațiile mai extinse de evaluare a riscurilor și de atenuare a riscurilor prevăzute la articolul 34 și 35 din Regulamentul (UE) 2022/2065. Obligațiile prevăzute în prezentul regulament nu aduc atingere Regulamentului (UE) 2022/2065 și ar trebui să completeze obligațiile impuse în temeiul Regulamentului (UE) 2022/2065 atunci când platforma de comunicare socială a fost desemnată drept platformă online foarte mare. Având în vedere impactul la nivel european al platformelor de comunicare socială desemnate drept platforme online foarte mari, autoritățile desemnate în temeiul Regulamentului (UE) 2022/2065 ar trebui să acționeze ca autorități de aplicare a legii cu scopul de a asigura respectarea acestei dispoziții.

Amendamentul 74

Propunere de regulament

Considerentul 41

Textul propus de Comisie

Amendamentul

(41)

Faptul că un sistem de IA este clasificat ca prezentând un risc ridicat în temeiul prezentului regulament nu ar trebui interpretat ca indicând faptul că utilizarea sistemului este neapărat legală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii , cum ar fi în ceea ce privește protecția datelor cu caracter personal, utilizarea poligrafelor și a instrumentelor similare sau a altor sisteme pentru a detecta starea emoțională a persoanelor fizice . Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din Cartă, precum și din legislația secundară a Uniunii și din dreptul intern aplicabil. Prezentul regulament nu ar trebui înțeles ca oferind temeiul juridic pentru prelucrarea datelor cu caracter personal, inclusiv a categoriilor speciale de date cu caracter personal, după caz.

(41)

Faptul că un sistem de IA este clasificat ca sistem de IA care prezintă un risc ridicat în temeiul prezentului regulament nu ar trebui interpretat ca indicând faptul că utilizarea sistemului este neapărat legală sau ilegală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii. Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din Cartă, precum și din legislația secundară a Uniunii și din dreptul intern aplicabil.

Amendamentul 75

Propunere de regulament

Considerentul 41 a (nou)

Textul propus de Comisie

Amendamentul

 

(41a)

O serie de norme obligatorii din punct de vedere juridic la nivel european, național și internațional se aplică deja sau sunt relevante pentru sistemele de IA în prezent, inclusiv dreptul primar al Uniunii (Tratatele Uniunii Europene și Carta drepturilor fundamentale a UE), dreptul secundar al UE (cum ar fi Regulamentul general privind protecția datelor, Directiva privind răspunderea pentru produse, Regulamentul privind libera circulație a datelor fără caracter personal, directivele privind combaterea discriminării, directivele privind protecția consumatorilor și securitatea și sănătatea în muncă), tratatele ONU privind drepturile omului și convențiile Consiliului Europei (cum ar fi Convenția europeană a drepturilor omului) și dreptul național, dar fără a se limita la acestea. Pe lângă normele aplicabile orizontal, există diverse norme specifice domeniului care se aplică anumitor aplicații de IA (cum ar fi, de exemplu, Regulamentul privind dispozitivele medicale în sectorul asistenței medicale).

Amendamentul 76

Propunere de regulament

Considerentul 42

Textul propus de Comisie

Amendamentul

(42)

Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse sau puse în funcțiune în alt mod pe piața Uniunii pentru utilizatori și persoanele afectate, ar trebui să se aplice anumite cerințe obligatorii, ținând seama de scopul preconizat al utilizării sistemului și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor.

(42)

Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse sau puse în funcțiune în alt mod pe piața Uniunii pentru operatori și persoanele afectate, ar trebui să se aplice anumite cerințe obligatorii, ținând seama de scopul preconizat , de utilizarea abuzivă previzibilă în mod rezonabil a sistemului și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor. Aceste cerințe ar trebui să fie bazate pe obiective, adecvate scopului urmărit, rezonabile și eficace, fără să adauge sarcini de reglementare sau costuri nejustificate pentru operatori.

Amendamentul 77

Propunere de regulament

Considerentul 43

Textul propus de Comisie

Amendamentul

(43)

Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către utilizatori , supravegherea umană, robustețea, acuratețea și securitatea cibernetică . Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale, după caz, în funcție de scopul preconizat al sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului.

(43)

Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea și relevanța seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către operatori , supravegherea umană, robustețea, acuratețea și securitatea. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale, precum și pentru mediu, democrație și statul de drept, după caz, în funcție de scopul preconizat sau de utilizarea abuzivă previzibilă în mod rezonabil a sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului.

Amendamentul 78

Propunere de regulament

Considerentul 44

Textul propus de Comisie

Amendamentul

(44)

Calitatea ridicată a datelor este esențială pentru performanța multor sisteme de IA, în special atunci când se utilizează tehnici care implică formarea de modele, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine sursa discriminării, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenament, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenament, de validare și de testare ar trebui să fie suficient de relevante, reprezentative și lipsite de erori și complete având în vedere scopul preconizat al sistemului. Acestea ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. În special, seturile de date de antrenament, de validare și de testare ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului sau contextului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA. Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din părtinirea generată de sistemele de IA, furnizorii ar trebui să aibă posibilitatea de a prelucra și categorii speciale de date cu caracter personal, ca o chestiune de interes public major, pentru a asigura monitorizarea, detectarea și corectarea părtinirii în ceea ce privește sistemele de IA cu grad ridicat de risc.

(44)

Accesul la date de înaltă calitate joacă un rol esențial pentru furnizarea structurii și asigurarea performanței multor sisteme de IA, în special atunci când se utilizează tehnici care implică formarea de modele, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine o sursă a discriminării, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenament, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenament și, după caz , de validare și de testare , inclusiv etichetele, ar trebui să fie suficient de relevante, reprezentative , verificate în mod corespunzător în ceea ce privește erorile și cât mai exhaustive având în vedere scopul preconizat al sistemului. Acestea ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc , acordând o atenție deosebită atenuării posibilelor părtiniri din seturile de date, care ar putea conduce la riscuri pentru drepturile fundamentale sau la rezultate discriminatorii pentru persoanele afectate de sistemul de IA cu grad ridicat de risc. Părtinirile pot fi, de exemplu, inerente seturilor de date subiacente, mai ales când sunt utilizate date istorice, introduse de dezvoltatorii de algoritmi sau generate în timpul punerii în aplicare în condiții reale a sistemelor. Rezultatele produse de sistemele de IA sunt influențate de aceste părtiniri inerente care tind să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri vulnerabile sau etnice sau comunități rasializate. În special, seturile de date de antrenament, de validare și de testare ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului sau contextului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA. Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din părtinirea generată de sistemele de IA, furnizorii ar trebui , în mod excepțional și după aplicarea tuturor condițiilor aplicabile prevăzute în prezentul regulament și în Regulamentul (UE) 2016/679, în Directiva (UE) 2016/680 și în Regulamentul (CE) nr. 2018/1725, să aibă posibilitatea de a prelucra și categorii speciale de date cu caracter personal, ca o chestiune de interes public major, pentru a asigura monitorizarea, detectarea și corectarea părtinirii negative în ceea ce privește sistemele de IA cu grad ridicat de risc. Părtinirea negativă ar trebui înțeleasă ca părtinire care creează un efect discriminatoriu direct sau indirect împotriva unei persoane fizice. Cerințele legate de guvernanța datelor pot fi respectate prin recurgerea la părți terțe care oferă servicii de conformitate certificate, inclusiv verificarea guvernanței datelor, integritatea seturilor de date și practicile de antrenament, validare și testare a datelor.

Amendamentul 79

Propunere de regulament

Considerentul 45

Textul propus de Comisie

Amendamentul

(45)

Pentru dezvoltarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele de inovare digitală, instalațiile de testare experimentate și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile lor de activitate respective care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor medicale va facilita accesul nediscriminatoriu la datele medicale și antrenarea algoritmilor inteligenței artificiale cu privire la aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.

(45)

Pentru dezvoltarea și evaluarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele de inovare digitală, instalațiile de testare experimentate și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile lor de activitate respective care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor medicale va facilita accesul nediscriminatoriu la datele medicale și antrenarea algoritmilor inteligenței artificiale cu privire la aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.

Amendamentul 80

Propunere de regulament

Considerentul 45 a (nou)

Textul propus de Comisie

Amendamentul

 

(45a)

Dreptul la viața privată și la protecția datelor cu caracter personal trebuie să fie garantat pe parcursul întregului ciclu de viață al sistemului de IA. În acest sens, principiile reducerii la minimum a datelor și protecției datelor începând cu momentul conceperii și implicit, principii prevăzute de legislația Uniunii privind protecția datelor, sunt de importanță fundamentală atunci când prelucrarea datelor se face cu riscuri semnificative pentru drepturile fundamentale ale persoanelor fizice. Furnizorii și utilizatorii de sisteme de IA ar trebui să aplice cele mai noi măsuri tehnice și organizatorice pentru a proteja aceste drepturi. Printre aceste măsuri ar trebui să se numere nu numai anonimizarea și criptarea, ci și folosirea unei tehnologii tot mai disponibile care permite să se aplice algoritmi datelor și să se obțină informații valoroase fără ca aceste date să fie transmise între părți și fără ca înseși datele primare sau datele structurate să fie copiate inutil.

Amendamentul 81

Propunere de regulament

Considerentul 46

Textul propus de Comisie

Amendamentul

(46)

Deținerea de informații cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe parcursul întregului lor ciclu de viață este esențială pentru verificarea conformității cu cerințele prevăzute în prezentul regulament. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante. Aceste informații ar trebui să includă caracteristicile generale, capacitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor. Documentația tehnică ar trebui actualizată permanent .

(46)

Deținerea de informații cuprinzătoare cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe parcursul întregii lor durate de viață este esențială pentru verificarea conformității cu cerințele prevăzute în prezentul regulament. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante. Aceste informații ar trebui să includă caracteristicile generale, capacitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor. Documentația tehnică ar trebui actualizată în mod adecvat pe parcursul întregului ciclu de viață al sistemului de IA. Sistemele de IA pot avea un impact considerabil asupra mediului și un consum ridicat de energie în timpul ciclului lor de viață. Pentru a înțelege mai bine impactul sistemelor de IA asupra mediului, documentația tehnică elaborată de furnizori ar trebui să includă informații privind consumul de energie al sistemului de IA, inclusiv consumul în timpul dezvoltării și consumul preconizat în timpul utilizării. Aceste informații ar trebui să țină seama de legislația relevantă a Uniunii și de cea națională. Informațiile comunicate ar trebui să fie inteligibile, comparabile și verificabile și, în acest scop, Comisia ar trebui să elaboreze orientări privind o metodologie armonizată pentru calcularea și raportarea acestor informații. Pentru a garanta posibilitatea de a stabili o documentație unică, termenii și definițiile legate de documentația necesară și de orice documentație impusă de legislația Uniunii în domeniu ar trebui aliniate cât mai mult posibil.

Amendamentul 82

Propunere de regulament

Considerentul 46 a (nou)

Textul propus de Comisie

Amendamentul

 

(46a)

Sistemele de IA ar trebui să ia în considerare metodele de ultimă generație și standardele relevante aplicabile pentru a reduce consumul de energie și de resurse și deșeurile, precum și pentru a crește eficiența energetică și eficiența globală a sistemului. Aspectele de mediu ale sistemelor de IA care sunt semnificative în sensul prezentului regulament sunt consumul de energie al sistemului de IA în faza de dezvoltare, formare și implementare, precum și înregistrarea, raportarea și stocarea acestor date. Proiectarea sistemelor de IA ar trebui să permită măsurarea și înregistrarea consumului de energie și de resurse în fiecare etapă de dezvoltare, de antrenare și de implementare. Monitorizarea și raportarea emisiilor sistemelor de IA trebuie să fie solide, transparente, coerente și exacte. Cu scopul de a asigura aplicarea uniformă a prezentului regulament și un ecosistem juridic stabil pentru furnizorii și operatorii de pe piața unică, Comisia ar trebui să elaboreze o specificație comună privind metodologia de îndeplinire a cerinței de raportare și documentare privind consumul de energie și de resurse în timpul dezvoltării, antrenării și implementării. Aceste specificații comune privind metodologia de măsurare pot dezvolta un scenariu de referință pe baza căruia Comisia poate decide mai bine dacă sunt necesare intervenții de reglementare viitoare, după efectuarea unei evaluări a impactului care să țină seama de legislația existentă.

Amendamentul 83

Propunere de regulament

Considerentul 46 b (nou)

Textul propus de Comisie

Amendamentul

 

(46b)

Pentru a atinge obiectivele prezentului regulament și a contribui la obiectivele de mediu ale Uniunii, asigurând în același timp buna funcționare a pieței interne, ar putea fi necesar să se stabilească recomandări și orientări și, în cele din urmă, obiective în materie de durabilitate. În acest scop, Comisia are dreptul de a elabora o metodologie pentru a contribui la stabilirea indicatorilor-cheie de performanță (ICP) și a unei referințe pentru obiectivele de dezvoltare durabilă (ODD). Obiectivul ar trebui să fie, în primul rând, acela de a permite o comparație echitabilă între opțiunile de punere în aplicare a IA, stimulând promovarea utilizării unor tehnologii de IA mai eficace care să răspundă preocupărilor legate de energie și de resurse. Pentru a îndeplini acest obiectiv, prezentul regulament ar trebui să prevadă mijloacele pentru a stabili o colectare de referință a datelor raportate privind emisiile generate de dezvoltare, de antrenare și de implementare.

Amendamentul 84

Propunere de regulament

Considerentul 47 a (nou)

Textul propus de Comisie

Amendamentul

 

(47a)

Astfel de cerințe privind transparența și posibilitatea de a explica procesul decizional bazat pe IA ar trebui să contribuie și la contracararea efectelor descurajatoare ale asimetriei digitale și ale așa-numitelor interfețe înșelătoare („dark patterns”) care vizează indivizii și consimțământul în cunoștință de cauză al acestora.

Amendamentul 85

Propunere de regulament

Considerentul 49

Textul propus de Comisie

Amendamentul

(49)

Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, în conformitate cu stadiul actual al tehnologiei general recunoscut. Nivelul de acuratețe și de precizie ar trebui comunicat utilizatorilor .

(49)

Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, în conformitate cu stadiul actual al tehnologiei general recunoscut. Indicatorii de performanță și nivelul preconizat al acestora ar trebui definiți cu obiectivul principal de a atenua riscurile și impactul negativ al sistemului de IA. Nivelul preconizat al indicatorilor de performanță ar trebui comunicat operatorilor într-un mod clar, transparent, ușor de înțeles și inteligibil. Declarația privind indicatorii de performanță nu poate fi considerată o dovadă a nivelurilor viitoare, dar trebuie aplicate metode pertinente pentru a asigura niveluri coerente în timpul utilizării. Deși există organisme de standardizare care stabilesc standarde, este necesară o coordonare privind analiza comparativă pentru a stabili în ce mod ar trebui măsurate aceste cerințe și caracteristici standardizate ale sistemelor de IA. Oficiul european pentru inteligența artificială ar trebui să reunească autoritățile naționale și internaționale din domeniul metrologiei și al analizei comparative și să ofere orientări fără caracter obligatoriu pentru a aborda aspectele tehnice ale modului de măsurare a nivelurilor adecvate de performanță și robustețe.

Amendamentul 86

Propunere de regulament

Considerentul 50

Textul propus de Comisie

Amendamentul

(50)

Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie rezistente la riscurile legate de limitările sistemului (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute), precum și la acțiunile răuvoitoare care pot compromite securitatea sistemului de IA și pot avea ca rezultat un comportament dăunător sau nedorit în alt mod. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau subiective generate de sistemul de IA.

(50)

Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie rezistente la riscurile legate de limitările sistemului (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute), precum și la acțiunile răuvoitoare care pot compromite securitatea sistemului de IA și pot avea ca rezultat un comportament dăunător sau nedorit în alt mod. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau subiective generate de sistemul de IA. Utilizatorii sistemului de IA ar trebui să ia măsuri pentru a se asigura că posibilul compromis între robustețe și acuratețe nu conduce la rezultate discriminatorii sau negative pentru subgrupurile minoritare.

Amendamentul 87

Propunere de regulament

Considerentul 51

Textul propus de Comisie

Amendamentul

(51)

Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA pot mobiliza active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, „data poisoning”) sau modele antrenate (de exemplu, atacuri contradictorii), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc ar trebui, prin urmare, să ia măsuri adecvate, ținând seama, de asemenea, după caz, de infrastructura TIC subiacentă.

(51)

Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA pot mobiliza active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, „data poisoning”) sau modele antrenate (de exemplu, atacuri contradictorii sau atacuri la adresa confidențialității ), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc , precum și organismele notificate, autoritățile naționale competente și autoritățile de supraveghere a pieței ar trebui, prin urmare, să ia măsuri adecvate, ținând seama, de asemenea, după caz, de infrastructura TIC subiacentă. IA cu grad ridicat de risc ar trebui să fie însoțită de soluții de securitate și de corecții software pe toată durata de viață a produsului sau, dacă nu există o dependență de un produs specific, pentru o perioadă care trebuie specificată de producător.

Amendamentul 88

Propunere de regulament

Considerentul 53 a (nou)

Textul propus de Comisie

Amendamentul

 

(53a)

În calitate de semnatare ale Convenției Națiunilor Unite privind drepturile persoanelor cu handicap (UNCRPD), Uniunea și statele membre au obligația juridică să protejeze persoanele cu dizabilități împotriva discriminării și să promoveze egalitatea acestora, să se asigure că persoanele cu dizabilități au acces, în condiții de egalitate cu ceilalți, la tehnologiile și sistemele informației și comunicațiilor și să garanteze respectarea vieții private a persoanelor cu dizabilități. Având în vedere importanța și utilizarea în creștere a sistemelor de IA, aplicarea principiilor proiectării universale la toate noile tehnologii și servicii ar trebui să asigure accesul deplin, egal și nerestricționat al tuturor persoanelor potențial afectate de tehnologiile IA sau care utilizează aceste tehnologii, inclusiv al persoanelor cu dizabilități, într-un mod care să țină seama pe deplin de demnitatea și diversitatea lor inerentă. Prin urmare, este esențial ca furnizorii să asigure conformitatea deplină cu cerințele de accesibilitate, inclusiv cu Directiva (UE) 2016/2102 și cu Directiva (UE) 2019/882. Furnizorii ar trebui să asigure conformitatea cu aceste cerințe din faza de proiectare. Prin urmare, măsurile necesare ar trebui integrate cât mai mult posibil în proiectarea sistemului de IA cu grad ridicat de risc.

Amendamentul 89

Propunere de regulament

Considerentul 54

Textul propus de Comisie

Amendamentul

(54)

Furnizorul ar trebui să instituie un sistem solid de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.

(54)

Furnizorul ar trebui să instituie un sistem solid de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Pentru furnizorii care dispun deja de sisteme de management al calității bazate pe standarde precum ISO 9001 sau pe alte standarde relevante, nu ar trebui să se prevadă o duplicare completă a sistemului de management al calității, ci, mai degrabă, o adaptare a sistemelor lor existente la anumite aspecte legate de respectarea cerințelor specifice ale prezentului regulament. Acest lucru ar trebui să se reflecte, de asemenea, în viitoarele activități de standardizare sau în orientările adoptate de Comisie în acest sens. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.

Amendamentul 90

Propunere de regulament

Considerentul 56

Textul propus de Comisie

Amendamentul

(56)

Pentru a permite asigurarea respectării prezentului regulament și a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, în cazul în care un importator nu poate fi identificat, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.

(56)

Pentru a permite asigurarea respectării prezentului regulament și a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.

Amendamentul 91

Propunere de regulament

Considerentul 58

Textul propus de Comisie

Amendamentul

(58)

Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru utilizatori . Utilizatorii ar trebui, în special, să utilizeze sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui prevăzute alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz.

(58)

Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru operatori . Operatorii ar trebui, în special, să utilizeze sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui prevăzute alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz.

Amendamentul 92

Propunere de regulament

Considerentul 58 a (nou)

Textul propus de Comisie

Amendamentul

 

(58a)

Deși riscurile legate de sistemele de IA pot rezulta din modul în care sunt proiectate sistemele respective, pot decurge riscuri și din modul în care aceste sisteme de IA sunt utilizate. Prin urmare, operatorii sistemelor de IA cu grad ridicat de risc joacă un rol esențial în a garanta că drepturile fundamentale sunt protejate, completând obligațiile furnizorului la dezvoltarea sistemului de IA. Operatorii sunt cei mai în măsură să înțeleagă modul în care sistemul de IA cu grad ridicat de risc va fi utilizat concret și, prin urmare, pot identifica potențialele riscuri semnificative care nu au fost prevăzute în faza de dezvoltare, datorită cunoașterii mai exacte a contextului de utilizare, a persoanelor sau a grupurilor de persoane care ar putea fi afectate, inclusiv a grupurilor marginalizate și vulnerabile. Operatorii ar trebui să identifice structuri de guvernanță adecvate în acest context specific de utilizare, cum ar fi mecanisme de supraveghere umană, proceduri de soluționare a plângerilor și căi de atac, deoarece alegerile din cadrul structurilor de guvernanță pot avea un rol esențial în atenuarea riscurilor la adresa drepturilor fundamentale în cazuri concrete de utilizare. Pentru a garanta în mod eficient că drepturile fundamentale sunt protejate, operatorii sistemelor de IA cu grad ridicat de risc ar trebui să efectueze, prin urmare, o evaluare a impactului asupra drepturilor fundamentale înainte de a le pune în funcțiune. Evaluarea impactului ar trebui însoțită de un plan detaliat care să descrie măsurile sau instrumentele care vor contribui la atenuarea riscurilor identificate pentru drepturile fundamentale din momentul punerii în funcțiune. În cazul în care nu se poate defini un astfel de plan, operatorul ar trebui să se abțină de la punerea în funcțiune a sistemului. Atunci când efectuează această evaluare a impactului, operatorii ar trebui să notifice autoritatea națională de supraveghere și, în cea mai mare măsură posibilă, părțile interesate relevante, precum și reprezentanții grupurilor de persoane care ar putea fi afectate de sistemul de IA, pentru a colecta informațiile relevante considerate necesare pentru a efectua evaluarea impactului și sunt încurajați să pună la dispoziția publicului pe site-ul lor internet rezumatul evaluării impactului asupra drepturilor fundamentale. Aceste obligații nu ar trebui să se aplice IMM-urilor care, din cauza absenței resurselor, ar putea întâmpina dificultăți în efectuarea acestei consultări. Cu toate acestea, ele ar trebui, de asemenea, să depună eforturi să includă acești reprezentanți atunci când efectuează o evaluare a impactului asupra drepturilor fundamentale. În plus, având în vedere impactul potențial și necesitatea unei supravegheri și a unui control democratic, operatorii de sisteme de IA cu grad ridicat de risc care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii, precum și operatorii care sunt societăți desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925 ar trebui să aibă obligația de a înregistra utilizarea oricărui sistem de IA cu grad ridicat de risc într-o bază de date publică. Ceilalți operatori se pot înregistra în mod voluntar.

Amendamentul 93

Propunere de regulament

Considerentul 59

Textul propus de Comisie

Amendamentul

(59)

Este oportun să se aibă în vedere faptul că utilizatorul sistemului de IA ar trebui să fie persoana fizică sau juridică, autoritatea publică, agenția sau alt organism sub a cărui autoritate funcționează sistemul de IA, cu excepția cazului în care utilizarea se face în cursul unei activități personale neprofesionale.

(59)

Este oportun să se aibă în vedere faptul că operatorul sistemului de IA ar trebui să fie persoana fizică sau juridică, autoritatea publică, agenția sau alt organism sub a cărui autoritate funcționează sistemul de IA, cu excepția cazului în care utilizarea se face în cursul unei activități personale neprofesionale.

Amendamentul 94

Propunere de regulament

Considerentul 60

Textul propus de Comisie

Amendamentul

(60)

Având în vedere complexitatea lanțului valoric al inteligenței artificiale , părțile terțe relevante, în special cele implicate în vânzarea și furnizarea de software, instrumente și componente software , modele și date pre-antrenate sau furnizorii de servicii de rețea ar trebui să coopereze, după caz, cu furnizorii și utilizatorii pentru a permite respectarea de către aceștia obligațiilor care le revin în temeiul prezentului regulament și cu autoritățile competente instituite în temeiul prezentului regulament .

(60)

În cadrul lanțului valoric al IA, numeroase entități furnizează adesea instrumente și servicii, dar și componente sau procese care sunt apoi încorporate de furnizor în sistemul de IA, inclusiv în ceea ce privește colectarea și prelucrarea prealabilă a datelor, antrenarea modelelor, reconversia modelelor, testarea și evaluarea modelelor, integrarea în software sau alte aspecte ale dezvoltării de modele. Entitățile implicate își pot pune oferta la dispoziție pe piață, direct sau indirect, prin interfețe, cum ar fi interfețele de programare a aplicațiilor (IPA), distribuite sub licențe gratuite și cu sursă deschisă, dar și din ce în ce mai mult prin platforme de forță de muncă din domeniul IA, prin revânzarea parametrilor antrenați, prin kituri de bricolaj pentru a construi modele sau oferind acces contra cost la un model care servește arhitecturii de dezvoltare și formare de modele. Având în vedere această complexitate a lanțului valoric al IA , toate părțile terțe relevante, în special cele care sunt implicate în dezvoltarea, vânzarea și furnizarea pe piață de instrumente software, componente, modele pre-antrenate sau date încorporate în sistemul de IA sau furnizorii de servicii de rețea, ar trebui , fără a-și compromite propriile drepturi de proprietate intelectuală sau secrete comerciale, să pună la dispoziție informațiile, antrenarea sau cunoștințele de specialitate necesare și să coopereze, după caz, cu furnizorii pentru a le permite să controleze toate aspectele relevante pentru conformitate ale sistemului de IA care intră sub incidența prezentului regulament. Pentru a permite o guvernanță eficientă din punctul de vedere al costurilor a lanțului valoric al IA, nivelul de control este dezvăluit în mod explicit de fiecare parte terță care furnizează furnizorului un instrument, un serviciu, o componentă sau un proces care este ulterior încorporat de furnizor în sistemul de IA.

Amendamentul 95

Propunere de regulament

Considerentul 60 a (nou)

Textul propus de Comisie

Amendamentul

 

(60a)

În cazul în care una dintre părți se află într-o poziție de negociere mai puternică, există riscul ca partea respectivă să poată profita de această poziție în detrimentul celeilalte părți contractante atunci când negociază furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile corective în caz de încălcare sau de reziliere a obligațiilor conexe. Astfel de dezechilibre contractuale afectează în special microîntreprinderile, întreprinderile mici și mijlocii, precum și întreprinderile nou-înființate, cu excepția cazului în care acestea sunt deținute sau subcontractate de o întreprindere care este în măsură să despăgubească subcontractantul în mod corespunzător, dat fiind că ele nu dispun de o capacitate semnificativă de negociere a condițiilor acordului contractual și că nu pot avea altă opțiune decât să accepte clauzele contractuale sau să renunțe la contract. Prin urmare, clauzele contractuale abuzive care reglementează furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile reparatorii pentru încălcarea sau rezilierea obligațiilor conexe nu ar trebui să fie obligatorii pentru astfel de microîntreprinderi, întreprinderi mici sau mijlocii și întreprinderi nou-înființate dacă le-au fost impuse în mod unilateral.

Amendamentul 96

Propunere de regulament

Considerentul 60 b (nou)

Textul propus de Comisie

Amendamentul

 

(60b)

În normele referitoare la clauzele contractuale ar trebui să se țină seama de principiul libertății contractuale, un concept esențial în relațiile dintre întreprinderi. Prin urmare, nu toate clauzele contractuale ar trebui să facă obiectul unui test privind caracterul abuziv, ci numai clauzele care sunt impuse în mod unilateral microîntreprinderilor, întreprinderilor mici și mijlocii și întreprinderilor nou-înființate. Sunt vizate situațiile în care singura opțiune este între a accepta clauze contractuale sau a renunța la contract, situații în care una dintre părți oferă o anumită clauză contractuală, iar microîntreprinderea, întreprinderea mică sau mijlocie și întreprinderea nou-înființată nu poate influența conținutul clauzei respective, în pofida încercării de a o negocia. O clauză contractuală care este pur și simplu oferită de una dintre părți și acceptată de microîntreprindere, de întreprinderea mică sau mijlocie sau de întreprinderea nou-înființată, sau o clauză care este negociată și asupra căreia părțile contractante convin ulterior după aducerea unor modificări nu ar trebui considerată ca fiind impusă unilateral.

Amendamentul 97

Propunere de regulament

Considerentul 60 c (nou)

Textul propus de Comisie

Amendamentul

 

(60c)

În plus, normele privind clauzele contractuale abuzive ar trebui să se aplice numai elementelor unui contract care sunt legate de furnizarea de instrumente, servicii, componente sau procese utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurilor reparatorii pentru încălcarea sau rezilierea obligațiilor conexe. Alte părți ale aceluiași contract, care nu au legătură cu aceste elemente, nu ar trebui să facă obiectul testului privind caracterul abuziv prevăzut în prezentul regulament.

Amendamentul 98

Propunere de regulament

Considerentul 60 d (nou)

Textul propus de Comisie

Amendamentul

 

(60d)

Criteriile de identificare a clauzelor contractuale abuzive ar trebui să se aplice numai clauzelor contractuale excesive, în cazul cărora se abuzează de o poziție de negociere mai puternică. Marea majoritate a clauzelor contractuale care sunt mai avantajoase din punct de vedere comercial pentru o parte decât pentru cealaltă parte, inclusiv cele care sunt normale în contractele dintre întreprinderi, reprezintă o expresie normală a principiului libertății contractuale și continuă să se aplice. În cazul în care o clauză contractuală nu este inclusă în lista clauzelor considerate întotdeauna abuzive, se aplică dispoziția generală privind caracterul abuziv. În această privință, clauzele din lista clauzelor abuzive ar trebui să servească drept etalon pentru interpretarea dispoziției generale privind caracterul abuziv.

Amendamentul 99

Propunere de regulament

Considerentul 60 e (nou)

Textul propus de Comisie

Amendamentul

 

(60e)

Modelele de bază sunt o evoluție recentă, în care modelele de IA sunt dezvoltate pornind de la algoritmi concepuți pentru a optimiza caracterul general și versatilitatea rezultatelor. Modelele respective sunt adesea antrenate cu gamă largă de surse de date și cu cantități mari de date pentru a îndeplini un număr mare de sarcini în aval, inclusiv unele pentru care nu au fost dezvoltate și antrenate în mod specific. Modelul de bază poate fi unimodal sau multimodal, antrenat prin diverse metode, cum ar fi învățarea supravegheată sau învățarea prin întărire. Sistemele de IA cu scop preconizat specific sau sistemele de IA de uz general pot fi o punere în aplicare a unui model de bază, ceea ce înseamnă că fiecare model de bază poate fi reutilizat în nenumărate sisteme de IA din aval sau în sisteme de IA de uz general. Aceste modele au o importanță din ce în ce mai mare pentru multe aplicații și sisteme din aval.

Amendamentul 100

Propunere de regulament

Considerentul 60 f (nou)

Textul propus de Comisie

Amendamentul

 

(60f)

În cazul modelelor de bază furnizate ca serviciu, cum ar fi accesul la informații prealabile referitoare la pasageri (API), cooperarea cu furnizorii din aval ar trebui să se extindă pe întreaga perioadă în care serviciul este furnizat și sprijinit, pentru a permite atenuarea adecvată a riscurilor, cu excepția cazului în care furnizorul modelului de bază transferă modelul de antrenare, precum și informații cuprinzătoare și adecvate privind seturile de date și procesul de dezvoltare a sistemului sau restricționează serviciul, cum ar fi accesul la API, astfel încât furnizorul din aval să fie în măsură să respecte pe deplin prezentul regulament fără sprijin suplimentar din partea furnizorului inițial al modelului de bază.

Amendamentul 101

Propunere de regulament

Considerentul 60 g (nou)

Textul propus de Comisie

Amendamentul

 

(60g)

Având în vedere natura și complexitatea lanțului valoric pentru sistemele de IA, este esențial să se precizeze rolul actorilor care contribuie la dezvoltarea sistemelor de IA. Există o incertitudine considerabilă privind modul în care vor evolua modelele de bază, atât în ceea ce privește tipologia modelelor, cât și în ceea ce privește autoguvernanța. Prin urmare, este esențial să se precizeze situația juridică a furnizorilor de modele de bază. Ținând seama de complexitatea și impactul lor neprevăzut și de absența de control a furnizorului de IA din aval asupra dezvoltării modelului de bază și dezechilibrul de putere aferent și pentru a asigura o partajare echitabilă a responsabilităților de-a lungul lanțului valoric al IA, aceste modele ar trebui să facă obiectul unor cerințe și obligații proporționale și mai specifice în temeiul prezentului regulament, și anume modelele de bază ar trebui să evalueze și să atenueze posibilele riscuri și prejudicii printr-o proiectare, testare și analiză adecvate, ar trebui să pună în aplicare măsuri de guvernanță a datelor, cum ar fi evaluarea părtinirilor, ar trebui să respecte cerințele tehnice de proiectare pentru a asigura niveluri adecvate de performanță, previzibilitate, posibilitate de interpretare și de corectare, siguranță și securitate cibernetică și ar trebui să respecte standardele de mediu. Aceste obligații ar trebui să fie însoțite de standarde. De asemenea, sistemele de uz general ar trebui să aibă obligații de informare și să pregătească toată documentația tehnică necesară pentru ca potențialii furnizori din aval să fie în măsură să își respecte obligațiile care le revin în temeiul prezentului regulament. Modelele de bază generative ar trebui să asigure transparența cu privire la faptul că conținutul este generat de un sistem de IA, nu de oameni. Aceste cerințe și obligații specifice nu echivalează cu considerarea modelelor de bază ca sisteme de IA cu risc ridicat, dar ar trebui să garanteze că sunt îndeplinite obiectivele prezentului regulament de a asigura un nivel ridicat de protecție a drepturilor fundamentale, a sănătății și siguranței, a mediului, a democrației și a statului de drept. Modelele pre-antrenate dezvoltate pentru un set mai restrâns, mai puțin general și mai limitat de aplicații și care nu pot fi adaptate la o gamă largă de sarcini, cum ar fi sistemele de IA polivalente simple, nu ar trebui să fie considerate modele de bază în sensul prezentului regulament, datorită capacității lor mai mari de interpretare, ceea ce face ca comportamentul lor să fie mai puțin imprevizibil.

Amendamentul 102

Propunere de regulament

Considerentul 60 h (nou)

Textul propus de Comisie

Amendamentul

 

(60h)

Având în vedere natura modelelor de bază, lipsesc cunoștințele de specialitate privind evaluarea conformității, iar metodele de audit efectuate de terți sunt încă în curs de elaborare. Prin urmare, sectorul în sine dezvoltă noi modalități de evaluare a modelelor de bază care îndeplinesc parțial obiectivul auditului (cum ar fi evaluarea modelelor, testarea penetrării bazată pe amenințări sau tehnicile de verificare și validare a învățării automate). Aceste evaluări interne ale modelelor de bază ar trebui să fie aplicabile pe scară largă (de exemplu, independent de canalele de distribuție, de modalități, de metodele de dezvoltare), să abordeze riscurile specifice unor astfel de modele, ținând seama de practicile de cele mai recente ale industriei și să se concentreze pe dezvoltarea unei înțelegeri tehnice și a unui control suficient asupra modelului, pe gestionarea riscurilor previzibile în mod rezonabil, precum și pe analiza și testarea aprofundată a modelului prin măsuri adecvate, cum ar fi prin implicarea unor evaluatori independenți. Întrucât modelele de bază reprezintă o evoluție nouă și rapidă în domeniul inteligenței artificiale, este oportun ca Comisia și Oficiul pentru IA să monitorizeze și să evalueze periodic cadrul legislativ și de guvernanță al acestor modele și, în special, al sistemelor de IA generative bazate pe astfel de modele, care ridică probleme considerabile legate de generarea de conținut care încalcă dreptul Uniunii, de normele privind drepturile de autor și de eventuale utilizări abuzive. Este oportun să se precizeze că prezentul regulament nu ar trebui să aducă atingere dreptului Uniunii privind dreptul de autor și drepturile conexe, cum ar fi Directivele 2001/29/CE, 2004/48/ECR și (UE) 2019/790 ale Parlamentului European și ale Consiliului.

Amendamentul 103

Propunere de regulament

Considerentul 61

Textul propus de Comisie

Amendamentul

(61)

Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament. Conformitatea cu normele armonizate, astfel cum se prevede în Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului (54), ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Cu toate acestea , Comisia ar putea adopta specificații tehnice comune în domenii în care nu există norme armonizate sau în care acestea sunt insuficiente .

(61)

Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament. Conformitatea cu normele armonizate, astfel cum se prevede în Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului (54), ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Pentru a asigura eficacitatea standardelor ca instrumente de politică pentru Uniune și având în vedere importanța standardelor pentru a asigura conformitatea cu cerințele prezentului regulament și pentru competitivitatea societăților , este necesar să se asigure o reprezentare echilibrată a intereselor prin implicarea tuturor părților interesate relevante la elaborarea standardelor. Procesul de standardizare ar trebui să fie transparent în ceea ce privește persoanele juridice și fizice care participă la activitățile de standardizare.

Amendamentul 104

Propunere de regulament

Considerentul 61 a (nou)

Textul propus de Comisie

Amendamentul

 

(61a)

Pentru a facilita conformitatea, primele cereri de standardizare ar trebui să fie emise de Comisie cel târziu la două luni de la intrarea în vigoare a prezentului regulament. Acest lucru ar trebui să contribuie la îmbunătățirea securității juridice, promovând astfel investițiile și inovarea în domeniul IA, precum și competitivitatea și creșterea pieței Uniunii, consolidând în același timp guvernanța multipartită care reprezintă toate părțile interesate europene relevante, cum ar fi Oficiul pentru IA, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și industria, IMM-urile, întreprinderile nou-înființate, societatea civilă, cercetătorii și partenerii sociali și ar trebui, în cele din urmă, să faciliteze cooperarea la nivel mondial în materie de standardizare în domeniul IA în concordanță cu valorile Uniunii. Atunci când pregătește cererea de standardizare, Comisia ar trebui să consulte Oficiul pentru IA și Forumul consultativ pentru IA cu scopul de a colecta cunoștințe de specialitate pertinente.

Amendamentul 105

Propunere de regulament

Considerentul 61 b (nou)

Textul propus de Comisie

Amendamentul

 

(61b)

Atunci când sistemele de IA sunt destinate să fie utilizate la locul de muncă, standardele armonizate ar trebui să se limiteze la specificațiile și procedurile tehnice.

Amendamentul 106

Propunere de regulament

Considerentul 61 c (nou)

Textul propus de Comisie

Amendamentul

 

(61c)

Comisia ar trebui să fie în măsură să adopte specificații comune în anumite condiții, atunci când nu există un standard armonizat relevant, sau să răspundă unor preocupări specifice legate de drepturile fundamentale. Pe parcursul întregului proces de redactare, Comisia ar trebui să consulte periodic Oficiul pentru IA și forumul său consultativ, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și părțile interesate relevante, cum ar fi industria, IMM-urile, întreprinderile nou-înființate, societatea civilă, cercetătorii și partenerii sociali.

Amendamentul 107

Propunere de regulament

Considerentul 61 d (nou)

Textul propus de Comisie

Amendamentul

 

(61d)

Atunci când adoptă specificații comune, Comisia ar trebui să depună eforturi pentru a alinia reglementările referitoare la IA cu parteneri globali care împărtășesc aceeași viziune, ceea ce este esențial pentru stimularea inovării și a parteneriatelor transfrontaliere în domeniul IA, întrucât coordonarea cu partenerii care împărtășesc aceeași viziune în cadrul organismelor internaționale de standardizare este extrem de importantă.

Amendamentul 108

Propunere de regulament

Considerentul 62

Textul propus de Comisie

Amendamentul

(62)

Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune.

(62)

Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune. Pentru a crește încrederea în lanțul valoric și a le oferi certitudine întreprinderilor cu privite la performanța sistemelor lor, părțile terțe care furnizează componente de IA pot solicita voluntar o evaluare a conformității efectuată de către terți.

Amendamentul 109

Propunere de regulament

Considerentul 64

Textul propus de Comisie

Amendamentul

(64)

Având în vedere experiența mai extinsă a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor, pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor, pentru care ar trebui prevăzută implicarea unui organism notificat în evaluarea conformității, în măsura în care acestea nu sunt interzise.

(64)

Având în vedere complexitatea sistemelor de IA cu grad ridicat de risc și riscurile asociate acestora, este esențial să se dezvolte o capacitate mai adecvată pentru aplicarea evaluării conformității de către terți sistemelor de IA cu grad ridicat de risc. Cu toate acestea, având în vedere experiența actuală a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor, pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor , sau a sistemelor de IA destinate a fi utilizate pentru a trage concluzii cu privire la caracteristicile personale ale persoanelor fizice pe baza datelor biometrice sau bazate pe biometrie, inclusiv a sistemelor de recunoaștere a emoțiilor , pentru care ar trebui prevăzută implicarea unui organism notificat în evaluarea conformității, în măsura în care acestea nu sunt interzise.

Amendamentul 110

Propunere de regulament

Considerentul 65

Textul propus de Comisie

Amendamentul

(65)

Pentru a efectua evaluarea conformității de către terți a sistemelor de IA destinate utilizării pentru identificarea biometrică la distanță a persoanelor , autoritățile naționale competente ar trebui să desemneze organismele notificate în temeiul prezentului regulament, cu condiția ca acestea să respecte un set de cerințe, în special în ceea ce privește independența, competența și absența conflictelor de interese.

(65)

Pentru a efectua evaluări ale conformității de către terți atunci când este necesar , autoritățile naționale competente ar trebui să desemneze organismele notificate în temeiul prezentului regulament, cu condiția ca acestea să respecte un set de cerințe, în special în ceea ce privește independența, competența, absența conflictelor de interese și cerințele minime de securitate cibernetică . Statele membre ar trebui să încurajeze desemnarea unui număr suficient de organisme de evaluare a conformității, pentru ca certificarea să poată fi realizată în timp util. Procedurile de evaluare, desemnare, notificare și monitorizare a organismelor de evaluare a conformității ar trebui să fie elaborate cât mai uniform în toate statele membre, cu scopul de a elimina barierele administrative frontaliere și de a garanta realizarea potențialului pieței interne.

Amendamentul 111

Propunere de regulament

Considerentul 65 a (nou)

Textul propus de Comisie

Amendamentul

 

(65a)

În conformitate cu angajamentele asumate de UE în temeiul Acordului privind barierele tehnice în calea comerțului al Organizației Mondiale a Comerțului, este adecvat să se maximizeze acceptarea rezultatelor testelor realizate de organismele competente de evaluare a conformității, indiferent de teritoriul în care acestea sunt stabilite, dacă este necesar pentru a demonstra conformitatea cu cerințele aplicabile ale prezentului regulament. Comisia ar trebui să exploreze în mod activ posibile instrumente internaționale în acest scop și, în special, să urmărească posibila instituire a unor acorduri de recunoaștere reciprocă cu țări care se află la un nivel comparabil de dezvoltare tehnică și au o abordare compatibilă în ceea ce privește IA și evaluarea conformității.

Amendamentul 112

Propunere de regulament

Considerentul 66

Textul propus de Comisie

Amendamentul

(66)

În conformitate cu noțiunea stabilită de comun acord a modificării substanțiale pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca un sistem de IA să fie supus unei noi evaluări a conformității ori de câte ori apare o modificare care ar putea afecta conformitatea sistemului cu prezentul regulament sau atunci când scopul preconizat al sistemului se modifică. În plus, în ceea ce privește sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune (adică adaptează automat modul în care sunt îndeplinite funcțiile), este necesar să se prevadă norme care să stabilească faptul că modificările algoritmului și ale performanței sale care au fost predeterminate de furnizor și evaluate la momentul evaluării conformității nu ar trebui să constituie o modificare substanțială.

(66)

În conformitate cu noțiunea stabilită de comun acord a modificării substanțiale pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca un sistem de IA cu grad ridicat de risc să fie supus unei noi evaluări a conformității ori de câte ori apare o modificare neplanificată care depășește modificările controlate sau prestabilite de către furnizor, inclusiv învățarea continuă, și care poate crea un nou risc inacceptabil și poate afecta în mod considerabil conformitatea sistemului de IA cu grad ridicat de risc cu prezentul regulament sau atunci când scopul preconizat al sistemului se modifică. În plus, în ceea ce privește sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune (adică adaptează automat modul în care sunt îndeplinite funcțiile), este necesar să se prevadă norme care să stabilească faptul că modificările algoritmului și ale performanței sale care au fost predeterminate de furnizor și evaluate la momentul evaluării conformității nu ar trebui să constituie o modificare substanțială. Același lucru ar trebui să se aplice actualizărilor sistemului de IA din motive de securitate în general și pentru a proteja împotriva amenințărilor în continuă evoluție de manipulare a sistemului, cu condiția ca acestea să nu constituie o modificare substanțială.

Amendamentul 113

Propunere de regulament

Considerentul 67

Textul propus de Comisie

Amendamentul

(67)

Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE.

(67)

Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Pentru sistemele fizice de IA cu grad ridicat de risc ar trebui aplicat un marcaj CE fizic care poate fi completat de un marcaj CE digital. Pentru sistemele exclusiv digitale de IA cu grad ridicat de risc ar trebui utilizat un marcaj CE digital. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE.

Amendamentul 114

Propunere de regulament

Considerentul 68

Textul propus de Comisie

Amendamentul

(68)

În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de siguranță publică sau de protecție a vieții și a sănătății persoanelor fizice și de protecție a  proprietății industriale și comerciale , statele membre să poată autoriza introducerea pe piață sau punerea în funcțiune a sistemelor de IA care nu au fost supuse unei evaluări a conformității.

(68)

În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor , pentru mediu și schimbările climatice și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de protecție a vieții și a sănătății persoanelor fizice, de protecție a  mediului și de protecție a infrastructurii critice , statele membre să poată autoriza introducerea pe piață sau punerea în funcțiune a sistemelor de IA care nu au fost supuse unei evaluări a conformității.

Amendamentul 115

Propunere de regulament

Considerentul 69

Textul propus de Comisie

Amendamentul

(69)

Pentru a facilita activitatea Comisiei și a statelor membre în domeniul inteligenței artificiale, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al legislației de armonizare relevante existente a Uniunii, ar trebui să aibă obligația de a-și înregistra propriul sistem de IA cu grad ridicat de risc într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Comisia ar trebui să fie operatorul bazei de date respective, în conformitate cu Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului (55). Pentru a asigura funcționalitatea deplină a bazei de date, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă elaborarea de specificații funcționale de către Comisie și un raport de audit independent.

(69)

Pentru a facilita activitatea Comisiei și a statelor membre în domeniul inteligenței artificiale, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al legislației de armonizare relevante existente a Uniunii, ar trebui să aibă obligația de a-și înregistra propriul sistem de IA cu grad ridicat de risc și modelele de bază într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Această bază de date ar trebui să fie accesibilă publicului în mod gratuit, ușor de înțeles și într-un format care poate fi citit automat. Baza de date ar trebui, de asemenea, să fie ușor de utilizat și să prezinte o navigare ușoară, cu funcționalități de căutare care să permită cel puțin publicului larg să caute în baza de date sisteme specifice cu grad ridicat de risc, localizări, categorii de risc în temeiul anexei IV și cuvinte-cheie. Operatorii care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii sau operatorii care acționează în numele acestora și operatorii care sunt întreprinderi desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925 ar trebui, de asemenea, să se înregistreze în baza de date a UE înainte de a da în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc pentru prima dată și după fiecare modificare substanțială. Ceilalți operatori ar trebui să aibă dreptul de a face acest lucru în mod voluntar. Orice modificare substanțială a sistemelor de IA cu grad ridicat de risc se înregistrează, de asemenea, în baza de date a UE. Comisia ar trebui să fie operatorul bazei de date respective, în conformitate cu Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului (55). Pentru a asigura funcționalitatea deplină a bazei de date, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă elaborarea de specificații funcționale de către Comisie și un raport de audit independent. Comisia ar trebui să țină seama de riscurile în materie de securitate cibernetică și de riscurile legate de pericole atunci când își îndeplinește sarcinile de operator de date în baza de date a UE. Pentru a maximiza disponibilitatea și utilizarea bazei de date de către public, baza de date, inclusiv informațiile puse la dispoziție prin intermediul acesteia, ar trebui să îndeplinească cerințele prevăzute în Directiva 2019/882.

Amendamentul 116

Propunere de regulament

Considerentul 71

Textul propus de Comisie

Amendamentul

(71)

Inteligența artificială este o familie de tehnologii care se dezvoltă rapid și care necesită forme noi de supraveghere normativă și un spațiu sigur pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic favorabil inovării , adaptat exigențelor viitorului și rezistent la perturbări, autoritățile naționale competente din unul sau mai multe state membre ar trebui încurajate să instituie spații de testare în materie de reglementare în domeniul inteligenței artificiale pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere normativă strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod.

(71)

Inteligența artificială este o familie de tehnologii care se dezvoltă rapid și care necesită supraveghere normativă și un spațiu sigur și controlat pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic care promovează inovarea , adaptat exigențelor viitorului și rezistent la perturbări, statele membre ar trebui să instituie cel puțin un spațiu de testare în materie de reglementare în domeniul inteligenței artificiale pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere normativă strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod. Într-adevăr, este de dorit ca stabilirea spațiilor de testare în materie de reglementare, a căror înființare este lăsată în prezent la latitudinea statelor membre, să devină obligatorie, cu criterii stabilite. Spațiul de testare obligatoriu ar putea fi, de asemenea, stabilit în comun cu unul sau mai multe alte state membre, atât timp cât spațiul de testare respectiv ar acoperi nivelul național respectiv al statelor membre implicate. De asemenea, pot fi stabilite spații de testare suplimentare la diferite niveluri, inclusiv la nivelul statelor membre, pentru a facilita cooperarea și sinergiile transfrontaliere. Cu excepția spațiului de testare obligatoriu de la nivel național, statele membre ar trebui, de asemenea, să poată institui spații de testare virtuale sau hibride. Toate spațiile de testare în materie de reglementare ar trebui să poată cuprinde atât produse fizice, cât și virtuale. Autoritățile responsabile cu stabilirea spațiilor de testare în materie de reglementare ar trebui să se asigure că acestea dispun de resurse financiare și umane adecvate pentru funcționarea lor.

Amendamentul 117

Propunere de regulament

Considerentul 72

Textul propus de Comisie

Amendamentul

(72)

Obiectivele spațiilor de testare în materie de reglementare ar trebui să fie promovarea inovării în domeniul IA prin instituirea unui mediu de experimentare și testare controlat în faza de dezvoltare și de precomercializare, cu scopul de a asigura conformitatea sistemelor de IA inovatoare cu prezentul regulament și cu alte acte legislative relevante ale Uniunii și ale statelor membre, sporirea securității juridice pentru inovatori și supravegherea și înțelegerea de către autoritățile competente a oportunităților, a riscurilor emergente și a impactului utilizării IA, precum și accelerarea accesului la piețe, inclusiv prin eliminarea barierelor din calea întreprinderilor mici și mijlocii (IMM-uri) și întreprinderilor nou-înființate. Pentru a asigura punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare spațiilor de testare în materie de reglementare și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Prezentul regulament ar trebui să ofere temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru dezvoltarea anumitor sisteme de IA în interes public în cadrul spațiului de testare în materie de reglementare privind IA, în conformitate cu articolul 6 alineatul (4) din Regulamentul (UE) 2016/679 și cu articolul 6 din Regulamentul (UE) 2018/1725 și fără aduce atingere articolului 4 alineatul (2) din Directiva (UE) 2016/680. Participanții la spațiile de testare ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință pentru a atenua orice risc ridicat la adresa siguranței și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării și experimentării în spațiul de testare. Comportamentul participanților la spațiile de testare ar trebui luat în considerare atunci când autoritățile competente decid dacă să impună sau nu o amendă administrativă în temeiul articolului 83 alineatul (2) din Regulamentul 2016/679 și al articolului 57 din Directiva 2016/680.

(72)

Obiectivele spațiilor de testare în materie de reglementare ar trebui să fie următoarele: ca autoritățile responsabile cu stabilirea să înțeleagă mai bine evoluțiile tehnice, să îmbunătățească metodele de supraveghere și să ofere orientări dezvoltatorilor și furnizorilor de sisteme de IA cu scopul de a asigura conformitatea normativă cu prezentul regulament sau, după caz, cu alte acte legislative aplicabile ale Uniunii și ale statelor membre, precum și cu Carta drepturilor fundamentale; ca potențialii furnizori să permită și să faciliteze testarea și dezvoltarea de soluții inovatoare legate de sistemele de IA în faza de precomercializare cu scopul de consolida securitatea juridică, să se permită mai bună învățare în materie de reglementare stabilind autorități într-un mediu controlat cu scopul de a elabora orientări mai bune și identifica posibile îmbunătățiri viitoare ale cadrului juridic prin intermediul procedurii legislative ordinare. Orice risc semnificativ identificat în cursul dezvoltării și testării unor astfel de sisteme de AI ar trebui să conducă la atenuarea imediată și, în cazul în care atenuarea nu este posibilă, la suspendarea procesului de dezvoltare și testare până la realizarea atenuării respective. Pentru a asigura o punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare spațiilor de testare în materie de reglementare și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Statele membre ar trebui să se asigure că spațiile de testare în materie de reglementare sunt disponibile pe scară largă în întreaga Uniune, în timp ce participarea ar trebui să rămână voluntară. Este deosebit de important să se asigure că IMM-urile și întreprinderile nou-înființate pot accesa cu ușurință aceste spații de testare, că sunt implicate activ și participă la dezvoltarea și testarea sistemelor de IA inovatoare, pentru a putea contribui cu know-how-ul și experiența lor .

Amendamentul 118

Propunere de regulament

Considerentul 72 a (nou)

Textul propus de Comisie

Amendamentul

 

(72a)

Prezentul regulament ar trebui să ofere temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru dezvoltarea anumitor sisteme de IA în interes public în cadrul spațiului de testare în materie de reglementare privind IA doar în condiții specifice, în conformitate cu articolul 6 alineatul (4) din Regulamentul (UE) 2016/679 și cu articolul 6 din Regulamentul (UE) 2018/1725 și fără a aduce atingere articolului 4 alineatul (2) din Directiva (UE) 2016/680. Potențialii furnizori în spațiile de testare ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință pentru a atenua orice risc ridicat la adresa siguranței, a sănătății și a mediului și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării și experimentării în spațiul de testare. Comportamentul potențialilor furnizori la spațiile de testare ar trebui luat în considerare atunci când autoritățile competente decid asupra suspendării temporare sau permanente a participării lor la spațiile de testare, sau dacă să impună sau nu o amendă administrativă în temeiul articolului 83 alineatul (2) din Regulamentul 2016/679 și al articolului 57 din Directiva 2016/680.

Amendamentul 119

Propunere de regulament

Considerentul 72 b (nou)

Textul propus de Comisie

Amendamentul

 

(72b)

Pentru a se asigura că inteligența artificială conduce la rezultate benefice din punct de vedere social și ecologic, statele membre ar trebui să sprijine și să promoveze cercetarea și dezvoltarea IA în sprijinul rezultatelor benefice din punct de vedere social și ecologic, alocând resurse suficiente, inclusiv finanțare publică și din partea Uniunii și acordând acces prioritar la spațiile de testare în materie de reglementare proiectelor conduse de societatea civilă. Aceste proiecte ar trebui să se bazeze pe principiul cooperării interdisciplinare dintre dezvoltatorii de IA, experții în materie de inegalitate și nediscriminare, accesibilitate, drepturile consumatorilor, de mediu și digitale, precum și mediul academic.

Amendamentul 120

Propunere de regulament

Considerentul 73

Textul propus de Comisie

Amendamentul

(73)

Pentru a promova și proteja inovarea, este important ca interesele micilor furnizori și utilizatori de sisteme de IA să fie luate în considerare în mod deosebit. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește sensibilizarea și comunicarea informațiilor. În plus, interesele și nevoile specifice ale micilor furnizorilor sunt luate în considerare atunci când organismele notificate stabilesc taxe de evaluare a conformității. Costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația furnizorilor relevanți și pentru comunicarea cu operatorii este una înțeleasă pe larg de un număr cât mai mare de utilizatori transfrontalieri.

(73)

Pentru a promova și proteja inovarea, este important ca interesele micilor furnizori și utilizatori de sisteme de IA să fie luate în considerare în mod deosebit. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește alfabetizarea în domeniul IA, sensibilizarea și comunicarea informațiilor. Statele membre ar trebui să utilizeze canalele existente și, după caz, să instituie noi canale speciale de comunicare cu IMM-urile, cu întreprinderile nou-înființate, cu utilizatorii, precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament. Astfel de canale existente ar putea include echipele de intervenție în caz de incidente de securitate informatică ale ENISA, agențiile naționale pentru protecția datelor, platforma de IA la cerere, centrele europene de inovare digitală și alte instrumente relevante finanțate prin programele UE, precum și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul Uniunii, fără a se limita la acestea. După caz, aceste canale colaborează pentru a crea sinergii și pentru a asigura omogenitatea orientărilor pe care le furnizează întreprinderilor nou-înființate, IMM-urilor și utilizatorilor. În plus, interesele și nevoile specifice ale micilor furnizorilor sunt luate în considerare atunci când organismele notificate stabilesc taxe de evaluare a conformității. Comisia evaluează periodic costurile de certificare și de asigurare a conformității pentru IMM-uri și întreprinderile nou-înființate, inclusiv prin consultări transparente cu IMM-urile, cu întreprinderile nou-înființate și cu utilizatorii, și colaborează cu statele membre pentru a reduce aceste costuri. De exemplu, costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația furnizorilor relevanți și pentru comunicarea cu operatorii este una înțeleasă pe larg de un număr cât mai mare de utilizatori transfrontalieri. Întreprinderile mijlocii care au trecut recent de la categoria mică la cea mijlocie în sensul Anexei la Recomandarea 2003/361/CE (articolul 16), au acces la aceste inițiative și orientări pentru o perioadă considerată adecvată de către statele membre, deoarece este posibil ca aceste noi întreprinderi mijlocii să nu dispună uneori de resursele juridice și formarea necesare pentru a asigura înțelegerea adecvată și respectarea dispozițiilor.

Amendamentul 121

Propunere de regulament

Considerentul 74

Textul propus de Comisie

Amendamentul

(74)

Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoștințe și de expertiză de pe piață, precum și pentru a facilita respectarea de către furnizori și organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul UE ar trebui , eventual, să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, aceștia pot oferi, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.

(74)

Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoștințe și de expertiză de pe piață, precum și pentru a facilita respectarea de către furnizori și organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivel național sau la nivelul UE ar trebui să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, aceștia pot oferi, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.

Amendamentul 122

Propunere de regulament

Considerentul 76

Textul propus de Comisie

Amendamentul

(76)

Pentru a  facilita o punere în aplicare armonioasă, eficace și armonizată a prezentului regulament, ar trebui instituit un Comitet european pentru inteligența artificială. Comitetul ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament , inclusiv cu privire la specificațiile tehnice sau standardele existente referitoare la cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere și asistență Comisiei cu privire la chestiuni specifice legate de inteligența artificială .

(76)

Pentru a  evita fragmentarea, pentru a asigura funcționarea optimă a pieței unice, pentru a asigura punerea în aplicare eficace și armonizată a prezentului regulament, pentru a atinge un nivel ridicat de încredere și de protecție a sănătății și siguranței, a drepturilor fundamentale, a mediului, a democrației și a statului de drept în întreaga Uniune în ceea ce privește sistemele de IA, pentru a sprijini în mod activ autoritățile naționale de supraveghere, instituțiile, organele, oficiile și agențiile Uniunii în chestiuni legate de prezentul regulament și pentru a spori gradul de utilizare a inteligenței artificiale în întreaga Uniune, ar trebui instituit un Oficiu al Uniunii Europene pentru inteligența artificială. Oficiul pentru IA ar trebui să aibă personalitate juridică, ar trebui să acționeze în deplină independență, ar trebui să fie responsabil pentru o serie de sarcini consultative și de coordonare , inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament și ar trebui să fie finanțat și dotat cu personal în mod adecvat. Statele membre ar trebui să asigure conducerea strategică și controlul Oficiului pentru IA prin consiliul de administrație al Oficiului pentru IA, alături de Comisie, FRA și ENISA. Un director executiv ar trebui să fie responsabil de gestionarea activităților secretariatului Oficiului pentru IA și de reprezentarea Oficiului pentru IA. Părțile interesate ar trebui să participe în mod formal la activitatea Oficiului pentru IA printr-un forum consultativ care ar trebui să asigure reprezentarea variată și echilibrată a părților interesate și să consilieze Oficiul pentru IA asupra chestiunilor legate de prezentul regulament. În cazul în care înființarea Oficiului pentru IA se dovedește a fi insuficientă pentru a asigura o aplicare pe deplin coerentă a prezentului regulament la nivelul Uniunii , precum și măsuri eficiente de asigurare a respectării legislației la nivel transfrontalier, ar trebui luată în considerare crearea unei agenții pentru IA .

Amendamentul 123

Propunere de regulament

Considerentul 77

Textul propus de Comisie

Amendamentul

(77)

Statele membre joacă un rol esențial în aplicarea și asigurarea respectării prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze una sau mai multe autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii , în fiecare stat membru, o autoritate națională ar trebui desemnată drept autoritate națională de supraveghere .

(77)

În acest sens, fiecare stat membru ar trebui să desemneze o autoritate națională competentă în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Aceasta ar trebui să își reprezinte statul membru și în Consiliul de administrație al Oficiului pentru IA. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii. Fiecare autoritate națională de supraveghere ar trebui acționeze în deplină independență în îndeplinirea sarcinilor sale și exercitarea competențelor sale în conformitate cu prezentul regulament .

Amendamentul 124

Propunere de regulament

Considerentul 77 a (nou)

Textul propus de Comisie

Amendamentul

 

(77a)

Autoritățile naționale de supraveghere ar trebui să monitorizeze aplicarea dispozițiilor în temeiul prezentului regulament și să contribuie la aplicarea consecventă a acestuia în întreaga Uniune. În acest scop, autoritățile naționale de supraveghere ar trebui să coopereze între ele, cu autoritățile naționale competente relevante, cu Comisia și cu Oficiul pentru IA.

Amendamentul 125

Propunere de regulament

Considerentul 77 b (nou)

Textul propus de Comisie

Amendamentul

 

(77b)

Membrul sau personalul fiecărei autorități de supraveghere ar trebui, în conformitate cu dreptul Uniunii sau cu dreptul intern, să respecte atât pe parcursul mandatului, cât și după încetarea acestuia, secretul profesional în ceea ce privește informațiile confidențiale de care au luat cunoștință în cursul îndeplinirii sarcinilor sau al exercitării competențelor lor. Pe durata mandatului lor, această obligație de păstrare a secretului profesional ar trebui să se aplice în special în ceea ce privește secretele comerciale și raportarea de către persoane fizice a încălcărilor prezentului regulament.

Amendamentul 126

Propunere de regulament

Considerentul 78

Textul propus de Comisie

Amendamentul

(78)

Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și la timp. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav sau orice încălcare a legislației naționale și a Uniunii care protejează drepturile fundamentale, ca urmare a utilizării sistemelor lor de IA.

(78)

Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” sau să evolueze după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și la timp. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav sau orice încălcare a legislației naționale și a Uniunii , inclusiv a celor care protejează drepturile fundamentale și drepturile consumatorilor , ca urmare a utilizării sistemelor lor de IA și să ia măsuri corective corespunzătoare . Operatorii ar trebui să comunice autorităților competente orice incident grav sau orice încălcare a dreptului național și al Uniunii care se produce ca urmare a utilizării sistemelor lor de IA, atunci când iau cunoștință de astfel de incidente sau încălcări grave.

Amendamentul 127

Propunere de regulament

Considerentul 79

Textul propus de Comisie

Amendamentul

(79)

Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament.

(79)

Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În sensul prezentului regulament, autoritățile naționale de supraveghere ar trebui să acționeze în calitate de autorități de supraveghere a pieței pentru sistemele de IA care intră sub incidența prezentului regulament, cu excepția sistemelor de IA care intră sub incidența anexei II la prezentul regulament. Pentru sistemele de IA care fac obiectul actelor juridice enumerate în anexa II, autoritățile competente în temeiul respectivelor acte juridice ar trebui să rămână autoritatea principală. Autoritățile naționale de supraveghere și autoritățile competente prevăzute în actele juridice enumerate în anexa II ar trebui să colaboreze ori de câte ori este necesar. Atunci când este cazul, autoritățile competente prevăzute în actele juridice enumerate în anexa II ar trebui să trimită personal competent la autoritatea națională de supraveghere pentru a contribui la îndeplinirea sarcinilor acesteia. În sensul prezentului regulament, autoritățile naționale de supraveghere ar trebui să aibă aceleași competențe și obligații ca și autoritățile de supraveghere a pieței în temeiul Regulamentului (UE) 2019/1020. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament. După epuizarea tuturor celorlalte modalități rezonabile de evaluare/verificare a conformității și în urma unei cereri motivate, autorității naționale de supraveghere ar trebui să i se acorde acces la seturile de date de antrenament, de validare și de testare, la modelul antrenat și modelul de antrenament al sistemului de IA cu grad ridicat de risc, inclusiv la parametrii relevanți ai modelului și la mediul lor de executare/desfășurare. În cazul unor sisteme software mai simple care intră sub incidența prezentului regulament și care nu se bazează pe modele antrenate și în cazul în care toate celelalte modalități de verificare a conformității au fost epuizate, autoritatea națională de supraveghere poate avea, în mod excepțional, acces la codul sursă, pe baza unei cereri motivate. Dacă autorității naționale de supraveghere i s-a acordat accesul la seturile de date de antrenare, validare și testare în conformitate cu prezentul regulament, acest acces ar trebui realizat prin mijloace și instrumente tehnice adecvate, inclusiv acces la fața locului și, în circumstanțe excepționale, acces de la distanță. Autoritatea națională de supraveghere ar trebui să trateze orice informație, inclusiv codul sursă, software-ul și datele, după caz, obținute ca informații confidențiale și să respecte legislația relevantă a Uniunii privind protecția proprietății intelectuale și a secretelor comerciale. Autoritatea națională de supraveghere ar trebui să șteargă orice informație obținută la încheierea investigației.

Amendamentul 128

Propunere de regulament

Considerentul 80

Textul propus de Comisie

Amendamentul

(80)

Legislația Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura aplicarea și asigurarea respectării coerente a obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale legislației Uniunii în domeniul serviciilor financiare, autoritățile responsabile cu supravegherea și asigurarea respectării legislației privind serviciile financiare, inclusiv, după caz, Banca Centrală Europeană, ar trebui desemnate drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE a Parlamentului European și a Consiliului (56), este, de asemenea, oportun să se integreze procedura de evaluare a conformității și unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității furnizorilor și obligația de monitorizare impusă utilizatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE.

(80)

Dreptul Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura aplicarea și asigurarea respectării coerente a obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale dreptului Uniunii în domeniul serviciilor financiare, autoritățile competente responsabile cu supravegherea și asigurarea respectării dreptului privind serviciile financiare, inclusiv, după caz, Banca Centrală Europeană, ar trebui desemnate drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE a Parlamentului European și a Consiliului (56), este, de asemenea, oportun să se integreze procedura de evaluare a conformității și unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității furnizorilor și obligația de monitorizare impusă operatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE.

Amendamentul 129

Propunere de regulament

Considerentul 80 a (nou)

Textul propus de Comisie

Amendamentul

 

(80a)

Având în vedere obiectivele prezentului regulament, și anume de a asigura un nivel echivalent de protejare a sănătății, a siguranței și a drepturilor fundamentale ale persoanelor fizice, de a asigura protejarea statului de drept și a democrației și ținând seama de posibilitatea ca riscurile pe care le prezintă sistemele de IA pentru aceste drepturi să nu fie reduse mulțumitor la nivel național sau ca acest lucru să fie interpretat diferit, ceea ce ar putea crea, în cele din urmă, situația în care persoanele fizice să fie protejate inegal, iar piața să fie fragmentată, autoritățile naționale de supraveghere ar trebui să fie împuternicite să efectueze investigații comune sau să se bazeze pe procedura de salvgardare la nivelul Uniunii prevăzută în prezentul regulament pentru o aplicare eficace. Ar trebui inițiate anchete comune atunci când autoritatea națională de supraveghere are suficiente motive să considere că o încălcare a prezentului regulament constituie o încălcare pe scară largă sau o încălcare pe scară largă cu o dimensiune specifică Uniunii sau atunci când sistemul de IA sau modelul de bază prezintă un risc care afectează sau este susceptibil să afecteze cel puțin 45 de milioane de persoane din cel puțin două state membre.

Amendamentul 130

Propunere de regulament

Considerentul 82

Textul propus de Comisie

Amendamentul

(82)

Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute în prezentul regulament să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Directiva 2001/95/CE a Parlamentului European și a Consiliului (57) ar fi aplicată ca o „plasă de siguranță”.

(82)

Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute pentru sistemele de IA cu grad ridicat de risc să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Directiva 2001/95/CE a Parlamentului European și a Consiliului (57) ar fi aplicată ca o „plasă de siguranță”.

Amendamentul 131

Propunere de regulament

Considerentul 83

Textul propus de Comisie

Amendamentul

(83)

Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor.

(83)

Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să urmărească asigurarea transparenței și a deschiderii, respectând totodată confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor , prin instituirea de măsuri tehnice și organizatorice pentru a proteja securitatea și confidențialitatea informațiilor obținute în cadrul activităților lor, inclusiv în ceea ce privește drepturile de proprietate intelectuală și interesele de securitate publică și națională. În cazurile în care activitatea Comisiei, a autorităților naționale competente și a organismelor notificate în temeiul prezentului regulament are ca rezultat o încălcare a drepturilor de proprietate intelectuală, statele membre prevăd măsurile, procedurile și căile de atac necesare pentru a asigura respectarea drepturilor de proprietate intelectuală în aplicarea Directivei 2004/48/CE.

Amendamentul 132

Propunere de regulament

Considerentul 84

Textul propus de Comisie

Amendamentul

(84)

Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că dispozițiile prezentului regulament sunt puse în aplicare, inclusiv prin stabilirea unor sancțiuni eficace, proporționale și disuasive în cazul încălcării acestora. Pentru anumite încălcări specifice, statele membre ar trebui să țină seama de marjele și de criteriile stabilite în prezentul regulament . Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament.

(84)

Respectarea prezentului regulament ar trebui să poată fi asigurată prin amenzi impuse de autoritatea națională de supraveghere atunci când desfășoară proceduri în conformitate cu procedura prevăzută de prezentul regulament. Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că dispozițiile prezentului regulament sunt puse în aplicare, inclusiv prin stabilirea unor sancțiuni eficace, proporționale și disuasive în cazul încălcării acestora. În scopul de a consolida și armoniza sancțiunilor administrative pentru încălcarea prezentului regulament, ar trebui definite limitele superioare pentru stabilirea amenzilor administrative pentru anumite încălcări specifice . Atunci când evaluează cuantumul amenzilor , autoritățile naționale competente ar trebui , în fiecare caz în parte, să țină seama de toate circumstanțele relevante ale situației specifice, acordând atenția cuvenită, în special, naturii, gravității și duratei încălcării și consecințelor acesteia, precum și dimensiunii furnizorului, în special în cazul în care furnizorul este o IMM sau o întreprindere nou-înființată . Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament. Sancțiunile și cheltuielile de judecată în temeiul prezentului regulament nu ar trebui să fie supuse unor clauze contractuale sau altor înțelegeri.

Amendamentul 133

Propunere de regulament

Considerentul 84 a (nou)

Textul propus de Comisie

Amendamentul

 

(84a)

Întrucât drepturile și libertățile persoanelor fizice și juridice și ale grupurilor de persoane fizice pot fi grav subminate de sistemele de IA, este esențial ca persoanele fizice și juridice sau grupurile de persoane fizice să aibă acces corespunzător la mecanisme de raportare și de reparare și să aibă dreptul la căi de atac proporționale și eficace. Ele ar trebui să aibă posibilitatea de a raporta autorității lor naționale de supraveghere încălcările prezentului regulament și să aibă dreptul de a depune o plângere împotriva furnizorilor sau operatorilor de sisteme de IA. După caz, operatorii ar trebui să pună la dispoziție mecanisme interne de depunere a plângerilor care să fie utilizate de persoanele fizice și juridice sau de grupurile de persoane fizice. Fără a se aduce atingere eventualelor căi de atac judiciare, administrative sau nejudiciare, persoanele fizice și juridice și grupurile de persoane fizice ar trebui, de asemenea, să aibă dreptul la o cale de atac judiciară eficientă pentru o decizie cu caracter juridic obligatoriu care îi vizează luată de o autoritate națională de supraveghere sau pentru plângere, în cazul în care autoritatea națională de supraveghere nu tratează plângerea, nu informează reclamantul cu privire la evoluția sau rezultatul preliminar al plângerii depuse sau nu își respectă obligația de a ajunge la o decizie finală.

Amendamentul 134

Propunere de regulament

Considerentul 84 b (nou)

Textul propus de Comisie

Amendamentul

 

(84b)

Persoanele afectate ar trebui să fie întotdeauna informate că fac obiectul utilizării unui sistem de IA cu grad ridicat de risc atunci când operatorii utilizează un sistem de IA cu grad ridicat de risc pentru a asista la luarea deciziilor sau pentru a lua decizii legate de persoane fizice. Aceste informații pot oferi o bază pentru ca persoanele afectate să își exercite dreptul la o explicație în temeiul prezentului regulament. Atunci când operatorii oferă o explicație persoanelor afectate în temeiul prezentului regulament, aceștia ar trebui să țină seama de nivelul de competență și de cunoștințe al persoanei sau al consumatorului mediu.

Amendamentul 135

Propunere de regulament

Considerentul 84 c (nou)

Textul propus de Comisie

Amendamentul

 

(84c)

Legislația Uniunii privind protecția avertizorilor [Directiva (UE) 2019/1937] se aplică pe deplin pentru mediul academic, proiectanți, dezvoltatori, contribuitorii la proiecte, auditori, managerii de produse, ingineri și operatorii economici care obțin informații despre încălcări ale dreptului Uniunii de către un furnizor de sisteme de IA sau de către sistemele sale de IA.

Amendamentul 136

Propunere de regulament

Considerentul 85

Textul propus de Comisie

Amendamentul

(85)

Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui delegată Comisiei pentru a modifica tehnicile și abordările menționate în anexa I pentru definirea sistemelor de IA, legislația de armonizare a Uniunii enumerată în anexa II, sistemele de IA cu grad ridicat de risc enumerate în anexa III, dispozițiile privind documentația tehnică enumerate în anexa IV, conținutul declarației de conformitate UE din anexa V, dispozițiile privind procedurile de evaluare a conformității din anexele VI și VII și dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și evaluarea documentației tehnice. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări corespunzătoare, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional privind o mai bună legiferare, adoptat la 13 aprilie 2016 (58). În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.

(85)

Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui delegată Comisiei pentru a modifica legislația de armonizare a Uniunii enumerată în anexa II, sistemele de IA cu grad ridicat de risc enumerate în anexa III, dispozițiile privind documentația tehnică enumerate în anexa IV, conținutul declarației de conformitate UE din anexa V, dispozițiile privind procedurile de evaluare a conformității din anexele VI și VII și dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și evaluarea documentației tehnice. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări corespunzătoare, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional privind o mai bună legiferare, adoptat la 13 aprilie 2016 (58) . Aceste consultări ar trebui să implice participarea unei selecții echilibrate de părți interesate, inclusiv organizații ale consumatorilor, societatea civilă, asociații care reprezintă persoanele afectate, reprezentanți ai întreprinderilor din diferite sectoare și de diferite dimensiuni, precum și cercetători și oameni de știință . În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.

Amendamentul 137

Propunere de regulament

Considerentul 85 a (nou)

Textul propus de Comisie

Amendamentul

 

(85a)

Având în vedere evoluțiile tehnologice rapide și competențele tehnice necesare pentru efectuarea evaluării sistemelor de IA cu grad ridicat de risc, Comisia ar trebui să revizuiască periodic punerea în aplicare a prezentului regulament, în special a sistemelor de IA interzise, a obligațiilor de transparență și a listei domeniilor cu grad ridicat de risc și a cazurilor de utilizare, cel puțin în fiecare an, consultând în același timp Oficiul pentru IA și părțile interesate relevante.

Amendamentul 138

Propunere de regulament

Considerentul 87 a (nou)

Textul propus de Comisie

Amendamentul

 

(87a)

Întrucât informațiile fiabile privind consumul de resurse și de energie, producția de deșeuri și alte efecte asupra mediului ale sistemelor de IA și ale tehnologiei TIC aferente, inclusiv ale software-ului, ale hardware-ului și mai ales ale centrelor de date, sunt limitate, Comisia ar trebui să introducă o metodologie adecvată pentru a măsura impactul asupra mediului și eficacitatea prezentului regulament, având în vedere obiectivele Uniunii în materie de mediu și climă.

Amendamentul 139

Propunere de regulament

Considerentul 89

Textul propus de Comisie

Amendamentul

(89)

Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatul (2) din Regulamentul (UE) 2018/1725 și au emis un aviz la […]”,

(89)

Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatul (2) din Regulamentul (UE) 2018/1725 și au emis un aviz la 18 iunie 2021 .

Amendamentul 140

Propunere de regulament

Articolul 1 – alineatul 1 (nou)

Textul propus de Comisie

Amendamentul

 

1.

Scopul prezentului regulament este de a promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabile și de a asigura un nivel ridicat de protecție a sănătății, siguranței, drepturilor fundamentale, democrației și statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de inteligență artificială din Uniune, sprijinind, în același timp, inovarea;

Amendamentul 141

Propunere de regulament

Articolul 1 – paragraful 1 – litera d

Textul propus de Comisie

Amendamentul

(d)

norme armonizate de transparență pentru sistemele de IA destinate să interacționeze cu persoane fizice, pentru sistemele de recunoaștere a emoțiilor, pentru sistemele biometrice de clasificare și pentru sistemele de IA utilizate pentru a genera sau a manipula imagini, conținuturi audio sau video ;

(d)

norme armonizate de transparență pentru anumite sisteme de IA;

Amendamentul 142

Propunere de regulament

Articolul 1 – paragraful 1 – litera e

Textul propus de Comisie

Amendamentul

(e)

norme privind monitorizarea și supravegherea pieței.

(e)

norme privind monitorizarea pieței, supravegherea pieței , guvernanța și asigurarea respectării;

Amendamentul 143

Propunere de regulament

Articolul 1 – paragraful 1 – litera ea (nouă)

Textul propus de Comisie

Amendamentul

 

(ea)

măsuri de susținere a inovării, cu un accent deosebit pe IMM-uri și pe întreprinderile nou-înființate, inclusiv crearea unor spații de testare în materie de reglementare și măsuri specifice pentru a reduce sarcinile de reglementare ale IMM-urilor și ale întreprinderilor nou-înființate;

Amendamentul 144

Propunere de regulament

Articolul 1 – paragraful 1 – litera eb (nouă)

Textul propus de Comisie

Amendamentul

 

(eb)

norme privind instituirea și funcționarea Oficiului Uniunii Europene pentru inteligența artificială (Oficiul pentru IA).

Amendamentul 145

Propunere de regulament

Articolul 2 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

utilizatorii sistemelor de IA situați pe teritoriul Uniunii;

(b)

operatorii sistemelor de IA care își au sediul sau care sunt situați pe teritoriul Uniunii;

Amendamentul 146

Propunere de regulament

Articolul 2 – alineatul 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

furnizorii și utilizatorii de sisteme de IA care sunt situați într-o țară terță, în cazul în care rezultatele produse de sistem sunt utilizate în Uniune.

(c)

furnizorii și operatorii de sisteme de IA care își au sediul sau care sunt situați într-o țară terță, în cazul în care fie se aplică dreptul unui stat membru în temeiul unui drept internațional public, fie rezultatul produs de sistem este destinat să fie utilizat în Uniune;

Amendamentul 147

Propunere de regulament

Articolul 2 – alineatul 1 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

furnizorii care introduc pe piață sau pun în funcțiune sistemele de IA menționate la articolul 5 în afara Uniunii, dacă furnizorul sau distribuitorul acestor sisteme este situat în Uniune;

Amendamentul 148

Propunere de regulament

Articolul 2 – alineatul 1 – litera cb (nouă)

Textul propus de Comisie

Amendamentul

 

(cb)

importatorii și distribuitorii de sisteme de IA, precum și reprezentanții autorizați ai furnizorilor de sisteme de IA, în cazul în care acești importatori, distribuitori sau reprezentanți autorizați își au sediul sau sunt situați în Uniune;

Amendamentul 149

Propunere de regulament

Articolul 2 – alineatul 1 – litera cc (nouă)

Textul propus de Comisie

Amendamentul

 

(cc)

persoanele afectate, definite la articolul 3 alineatul (8a), care sunt situate în Uniune și ale căror sănătate, siguranță sau drepturi fundamentale sunt afectate în mod negativ de utilizarea unui sistem de IA care este introdus pe piață sau pus în funcțiune în Uniune.

Amendamentul 150

Propunere de regulament

Articolul 2 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   În cazul sistemelor de IA cu grad ridicat de risc care sunt componente de siguranță ale unor produse sau sisteme sau care sunt ele însele produse sau sisteme, care intră în domeniul de aplicare al următoarelor acte legislative , se aplică numai articolul 84 din prezentul regulament:

2.   În cazul sistemelor de IA cu grad ridicat de risc care sunt componente de siguranță ale unor produse sau sisteme sau care sunt ele însele produse sau sisteme și care intră în domeniul de aplicare al legislației de armonizare enumerate în anexa II secțiunea B , se aplică numai articolul 84 din prezentul regulament.

Amendamentul 151

Propunere de regulament

Articolul 2 – alineatul 2 – litera a

Textul propus de Comisie

Amendamentul

(a)

Regulamentul (CE) 300/2008;

eliminat

Amendamentul 152

Propunere de regulament

Articolul 2 – alineatul 2 – litera b

Textul propus de Comisie

Amendamentul

(b)

Regulamentul (UE) nr. 167/2013;

eliminat

Amendamentul 153

Propunere de regulament

Articolul 2 – alineatul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

Regulamentul (UE) nr. 168/2013;

eliminat

Amendamentul 154

Propunere de regulament

Articolul 2 – alineatul 2 – litera d

Textul propus de Comisie

Amendamentul

(d)

Directiva 2014/90/UE;

eliminat

Amendamentul 155

Propunere de regulament

Articolul 2 – alineatul 2 – litera e

Textul propus de Comisie

Amendamentul

(e)

Directiva (UE) 2016/797;

eliminat

Amendamentul 156

Propunere de regulament

Articolul 2 – alineatul 2 – litera f

Textul propus de Comisie

Amendamentul

(f)

Regulamentul (UE) 2018/858;

eliminat

Amendamentul 157

Propunere de regulament

Articolul 2 – alineatul 2 – litera g

Textul propus de Comisie

Amendamentul

(g)

Regulamentul (UE) 2018/1139;

eliminat

Amendamentul 158

Propunere de regulament

Articolul 2 – alineatul 2 – litera h

Textul propus de Comisie

Amendamentul

(h)

Regulamentul (UE) 2019/2144.

eliminat

Amendamentul 159

Propunere de regulament

Articolul 2 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în domeniul de aplicare al prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul acordurilor internaționale pentru asigurarea respectării legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre.

4.   Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în domeniul de aplicare al prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul cooperării sau acordurilor internaționale pentru asigurarea respectării legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre și fac obiectul unei decizii a Comisiei, adoptată în conformitate cu articolul 36 din Directiva (UE) 2016/680 sau cu articolul 45 din Regulamentul 2016/679 (decizie privind adecvarea) sau fac parte dintr-un acord internațional încheiat între Uniune și țara terță sau organizația internațională respectivă în temeiul articolului 218 din TFUE, care prevede garanții adecvate cu privire la protecția confidențialității și a drepturilor și libertăților fundamentale ale persoanelor .

Amendamentul 160

Propunere de regulament

Articolul 2 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Legislația Uniunii privind protecția datelor cu caracter personal, a vieții private și a confidențialității comunicațiilor se aplică prelucrării datelor cu caracter personal în legătură cu drepturile și obligațiile prevăzute în prezentul regulament. Prezentul regulament nu afectează Regulamentele (UE) 2016/679 și (UE) 2018/1725 și Directivele 2002/58/CE și (UE) 2016/680, fără a aduce atingere dispozițiilor prevăzute la articolul 10 alineatul (5) și la articolul 54 din prezentul regulament;

Amendamentul 161

Propunere de regulament

Articolul 2 – alineatul 5 b (nou)

Textul propus de Comisie

Amendamentul

 

5b.     Prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii referitoare la protecția consumatorilor și la siguranța produselor;

Amendamentul 162

Propunere de regulament

Articolul 2 – alineatul 5 c (nou)

Textul propus de Comisie

Amendamentul

 

5c.     Prezentul regulament nu împiedică statele membre sau Uniunea să mențină sau să introducă acte cu putere de lege și acte administrative mai favorabile lucrătorilor privind protejarea drepturilor acestora în ceea ce privește utilizarea sistemelor de IA de către angajatori sau să încurajeze sau să permită aplicarea unor contracte colective de muncă mai favorabile lucrătorilor.

Amendamentul 163

Propunere de regulament

Articolul 2 – alineatul 5 d (nou)

Textul propus de Comisie

Amendamentul

 

5d.     Prezentul regulament nu se aplică activităților de cercetare, testare și dezvoltare referitoare la un sistem de IA înainte ca sistemul să fie introdus pe piață sau pus în funcțiune, cu condiția ca aceste activități să se desfășoare respectându-se drepturile fundamentale și dreptul aplicabil al Uniunii. Testarea în condiții reale nu intră sub incidența acestei exceptări. Comisia este împuternicită, în conformitate cu articolul 73, să adopte acte delegate care să clarifice aplicarea prezentului alineat cu scopul de a preciza această exceptare pentru a preveni abuzurile existente și potențiale. Oficiul pentru IA oferă orientări privind guvernanța cercetării și dezvoltării în temeiul articolului 56, vizând, de asemenea, coordonarea punerii sale în aplicare de către autoritățile naționale de supraveghere.

Amendamentul 164

Propunere de regulament

Articolul 2 – alineatul 5 e (nou)

Textul propus de Comisie

Amendamentul

 

5e.     Prezentul regulament nu se aplică componentelor de IA furnizate în temeiul unor licențe gratuite și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau sunt puse în funcțiune de un furnizor ca parte a unui sistem de IA cu grad ridicat de risc sau a unui sistem de IA care intră sub incidența titlului II sau IV. Această derogare nu se aplică modelelor de bază definite la articolul 3.

Amendamentul 165

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1

Textul propus de Comisie

Amendamentul

(1)

„sistem de inteligență artificială” (sistem de IA) înseamnă un software care este dezvoltat prin una sau mai multe dintre tehnicile și abordările enumerate în anexa I și care, pentru un anumit set de obiective definite de om , poate genera rezultate precum conținuturi, previziuni, recomandări sau decizii care influențează mediile cu care interacționează ;

(1)

„sistem de inteligență artificială” (sistem de IA) înseamnă un sistem bazat pe mașini care este proiectat să funcționeze cu diferite niveluri de autonomie și care poate , pentru obiective explicite sau implicite , să genereze rezultate , cum ar fi previziuni, recomandări sau decizii, care influențează mediile fizice sau virtuale ;

Amendamentul 166

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

(1a)

„risc” înseamnă combinația dintre probabilitatea producerii unui prejudiciu și gravitatea acestuia;

Amendamentul 167

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1 b (nou)

Textul propus de Comisie

Amendamentul

 

(1b)

„risc semnificativ” înseamnă un risc care este semnificativ ca urmare a combinației dintre gravitatea, intensitatea, probabilitatea producerii și durata efectelor sale și capacitatea sa de a afecta o persoană, un număr mare de persoane sau de a afecta un anumit grup de persoane;

Amendamentul 168

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1 c (nou)

Textul propus de Comisie

Amendamentul

 

(1c)

„model de bază” înseamnă un model de sistem de IA care este antrenat pe un set amplu de date la scară largă, este conceput pentru generalitatea rezultatelor și poate fi adaptat la o gamă largă de sarcini distincte;

Amendamentul 169

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1 d (nou)

Textul propus de Comisie

Amendamentul

 

(1d)

„sistem de IA de uz general” înseamnă un sistem de IA care poate fi utilizat și adaptat la o gamă largă de aplicații pentru care nu a fost conceput în mod intenționat și specific;

Amendamentul 170

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 1 e (nou)

Textul propus de Comisie

Amendamentul

 

(1e)

„rulaje mari de antrenament” înseamnă procesul de producție a unui model puternic de IA care necesită resurse informatice peste un prag foarte ridicat;

Amendamentul 171

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 3

Textul propus de Comisie

Amendamentul

(3)

„mic furnizor” înseamnă un furnizor care este o microîntreprindere sau o întreprindere mică în sensul Recomandării 2003/361/CE a Comisiei  (61) ;

eliminat

Amendamentul 172

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 4

Textul propus de Comisie

Amendamentul

(4)

„utilizator” înseamnă orice persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități neprofesionale, personale;

(4)

„implementator” înseamnă orice persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități neprofesionale, personale;

Amendamentul 173

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 8

Textul propus de Comisie

Amendamentul

(8)

„operator” înseamnă furnizorul, utilizatorul , reprezentantul autorizat, importatorul și distribuitorul;

(8)

„operator” înseamnă furnizorul, implementatorul , reprezentantul autorizat, importatorul și distribuitorul;

Amendamentul 174

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 8 a (nou)

Textul propus de Comisie

Amendamentul

 

(8a)

„persoană afectată” înseamnă orice persoană fizică sau un grup de persoane care sunt persoane vizate de un sistem de IA sau sunt afectate în alt mod de un astfel de sistem;

Amendamentul 175

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 11

Textul propus de Comisie

Amendamentul

(11)

„punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct utilizatorului sau pentru uz propriu pe piața Uniunii, în scopul pentru care a fost conceput;

(11)

„punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct implementatorului sau pentru uz propriu pe piața Uniunii, în scopul pentru care a fost conceput;

Amendamentul 176

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 13

Textul propus de Comisie

Amendamentul

(13)

„utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme;

(13)

„utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, astfel cum este indicat în instrucțiunile de utilizare concepute de furnizor, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme , inclusiv cu alte sisteme de IA ;

Amendamentul 177

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 14

Textul propus de Comisie

Amendamentul

(14)

„componentă de siguranță a unui produs sau sistem” înseamnă o componentă a unui produs sau a unui sistem care îndeplinește o funcție de siguranță pentru produsul sau sistemul respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;

(14)

„componentă de siguranță a unui produs sau sistem” înseamnă , conform legislației de armonizare a Uniunii menționate în anexa II, o componentă a unui produs sau a unui sistem care îndeplinește o funcție de siguranță pentru produsul sau sistemul respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;

Amendamentul 178

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 15

Textul propus de Comisie

Amendamentul

(15)

„instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa utilizatorul , în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA, inclusiv cu privire la mediul geografic, comportamental sau funcțional specific în care urmează să fie utilizat sistemul de IA cu grad ridicat de risc;

(15)

„instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa implementatorul , în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA, precum și informații referitoare la orice măsuri de precauție ce trebuie luate; inclusiv cu privire la mediul geografic, comportamental sau funcțional specific în care urmează să fie utilizat sistemul de IA cu grad ridicat de risc;

Amendamentul 179

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 16

Textul propus de Comisie

Amendamentul

(16)

„rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor a unui sistem de IA deja pus la dispoziția utilizatorilor ;

(16)

„rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor a unui sistem de IA care a fost pus la dispoziția implementatorilor ;

Amendamentul 180

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 20

Textul propus de Comisie

Amendamentul

(20)

„evaluare a conformității” înseamnă procesul prin care se verifică dacă au fost îndeplinite cerințele prevăzute în titlul III capitolul 2 din prezentul regulament referitoare la un sistem de IA;

(20)

„evaluare a conformității” înseamnă procesul prin care se demonstrează dacă au fost îndeplinite cerințele prevăzute în titlul III capitolul 2 din prezentul regulament referitoare la un sistem de IA;

Amendamentul 181

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 22

Textul propus de Comisie

Amendamentul

(22)

„organism notificat” înseamnă un organism de evaluare a conformității desemnat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;

(22)

„organism notificat” înseamnă un organism de evaluare a conformității notificat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;

Amendamentul 182

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 23

Textul propus de Comisie

Amendamentul

(23)

„modificare substanțială” înseamnă o modificare a sistemului de IA ca urmare a introducerii sale pe piață sau a punerii sale în funcțiune, care afectează conformitatea sistemului de IA cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;

(23)

„modificare substanțială” înseamnă o modificare sau o serie de modificări ale sistemului de IA după introducerea sa pe piață sau punerea sa în funcțiune, care nu este prevăzută sau planificată de furnizor în evaluarea inițială a riscului și în urma căreia este afectată conformitatea sistemului de IA cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;

Amendamentul 183

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 24

Textul propus de Comisie

Amendamentul

(24)

„marcaj CE de conformitate” (marcaj CE) înseamnă un marcaj prin care un furnizor indică faptul că un sistem de IA este în conformitate cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament și în alte acte legislative aplicabile ale Uniunii care armonizează condițiile de comercializare a produselor („legislația de armonizare a Uniunii”), care prevede aplicarea acestuia;

(24)

„marcaj CE de conformitate” (marcaj CE) înseamnă un marcaj fizic sau digital prin care un furnizor indică faptul că un sistem de IA sau un produs cu sistem de IA încorporat este în conformitate cu cerințele prevăzute în titlul III capitolul 2 din prezentul regulament și în alte acte legislative aplicabile ale Uniunii care armonizează condițiile de comercializare a produselor („legislația de armonizare a Uniunii”), care prevede aplicarea acestuia;

Amendamentul 184

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 29

Textul propus de Comisie

Amendamentul

(29)

„date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați , inclusiv a ponderilor unei rețele neuronale ;

(29)

„date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați;

Amendamentul 185

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 30

Textul propus de Comisie

Amendamentul

(30)

„date de verificare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni supraadaptarea; în timp ce setul de date de verificare poate fi un set de date separat sau o parte a setului de date de antrenament, ca o divizare fixă sau variabilă;

(30)

„date de verificare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni subadaptarea sau supraadaptarea; în timp ce setul de date de verificare este un set de date separat sau o parte a setului de date de antrenament, ca o divizare fixă sau variabilă;

Amendamentul 186

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 33

Textul propus de Comisie

Amendamentul

(33)

„date biometrice” înseamnă datele cu caracter personal rezultate din aplicarea unor tehnici de prelucrare specifice referitoare la caracteristicile fizice, fiziologice sau comportamentale ale unei persoane fizice, care permit sau confirmă identificarea unică a respectivei persoane, cum ar fi imaginile faciale sau datele dactiloscopice ;

(33)

„date biometrice” înseamnă date biometrice așa cum sunt definite la articolul 4 punctul 14 din Regulamentul (UE) 2016/679 ;

Amendamentul 187

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 33 a (nou)

Textul propus de Comisie

Amendamentul

 

(33a)

„datele bazate pe date biometrice” înseamnă date care sunt create prin prelucrarea tehnică specifică a semnalelor fizice, fiziologice sau comportamentale ale unei persoane fizice;

Amendamentul 188

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 33 b (nou)

Textul propus de Comisie

Amendamentul

 

(33b)

„identificare biometrică” înseamnă recunoașterea automată a caracteristicilor fizice, fiziologice, comportamentale și psihologice ale omului în scopul stabilirii identității unei persoane prin compararea datelor biometrice ale persoanei respective cu datele biometrice ale persoanelor stocate într-o bază de date (identificarea de tip „unul la mai mulți”);

Amendamentul 189

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 33 c (nou)

Textul propus de Comisie

Amendamentul

 

(33c)

„verificare biometrică” înseamnă verificarea automată a identității persoanelor fizice prin compararea datelor biometrice ale unei persoane cu datele biometrice furnizate anterior (verificarea identității pe baza unei comparații între două seturi de date, inclusiv autentificare);

Amendamentul 190

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 33 d (nou)

Textul propus de Comisie

Amendamentul

 

(33d)

„categorii speciale de date cu caracter personal” înseamnă datele cu caracter personal așa cum sunt definite la articolul 9 punctul 1 din Regulamentul (UE) 2016/679;

Amendamentul 191

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 34

Textul propus de Comisie

Amendamentul

(34)

„sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice;

(34)

„sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile , gândurile, stările de spirit sau intențiile persoanelor fizice sau ale grupurilor pe baza datelor lor biometrice și a datelor bazate pe date biometrice;

Amendamentul 192

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 35

Textul propus de Comisie

Amendamentul

(35)

„sistem biometric de clasificare” înseamnă un sistem de IA al cărui scop este de a încadra persoanele fizice în categorii specifice , cum ar fi sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, originea etnică sau orientarea sexuală sau politică, pe baza datelor lor biometrice ;

(35)

„sistem biometric de clasificare” înseamnă încadrarea persoanelor fizice în categorii specifice sau deducerea caracteristicilor și atributelor acestora pe baza datelor lor biometrice sau bazate pe biometrie sau care pot fi deduse din astfel de date ;

Amendamentul 193

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 36

Textul propus de Comisie

Amendamentul

(36)

„sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără ca utilizatorul sistemului de IA să cunoască în prealabil dacă persoana va fi prezentă și dacă poate fi identificată;

(36)

„sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice la distanță prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință și fără ca implementatorul sistemului de IA să cunoască în prealabil dacă persoana va fi prezentă și dacă poate fi identificată , cu excepția sistemelor de verificare ;

Amendamentul 194

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 37

Textul propus de Comisie

Amendamentul

(37)

„sistem de identificare biometrică la distanță «în timp real»” înseamnă un sistem de identificare biometrică la distanță în care capturarea datelor biometrice și compararea și identificarea au loc toate fără întârzieri semnificative. Acesta include nu numai identificarea instantanee, ci și întârzieri scurte limitate pentru a se evita eludarea;

(37)

„sistem de identificare biometrică la distanță «în timp real»” înseamnă un sistem de identificare biometrică la distanță în care capturarea datelor biometrice și compararea și identificarea au loc toate fără întârzieri semnificative. Acesta include nu numai identificarea instantanee, ci și întârzieri limitate pentru a se evita eludarea;

Amendamentul 195

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 39

Textul propus de Comisie

Amendamentul

(39)

„spațiu accesibil publicului” înseamnă orice loc fizic accesibil publicului, indiferent daca se pot aplica anumite condiții de acces;

(39)

„spațiu accesibil publicului” înseamnă orice loc fizic proprietate publică sau privată accesibil publicului, indiferent dacă se pot aplica anumite condiții de acces și independent de potențialele restricții de capacitate ;

Amendamentul 196

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 41

Textul propus de Comisie

Amendamentul

(41)

„asigurare a respectării legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea pedepselor, inclusiv în ceea ce privește protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;

(41)

„asigurare a respectării legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii sau în numele acestora pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea pedepselor, inclusiv în ceea ce privește protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;

Amendamentul 197

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 42

Textul propus de Comisie

Amendamentul

(42)

„autoritate națională de supraveghere” înseamnă autoritatea căreia un stat membru îi atribuie responsabilitatea pentru punerea în aplicare a prezentului regulament, pentru coordonarea activităților încredințate statului membru respectiv, pentru îndeplinirea rolului de punct unic de contact pentru Comisie și pentru reprezentarea statului membru în cadrul Comitetului european pentru inteligența artificială ;

(42)

„autoritate națională de supraveghere” înseamnă o autoritate publică (AM 69) căreia un stat membru îi atribuie responsabilitatea pentru punerea în aplicare a prezentului regulament, pentru coordonarea activităților încredințate statului membru respectiv, pentru îndeplinirea rolului de punct unic de contact pentru Comisie și pentru reprezentarea statului membru în cadrul consiliului de administrație al Oficiului pentru IA ;

Amendamentul 198

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 43

Textul propus de Comisie

Amendamentul

(43)

„autoritate națională competentă” înseamnă autoritatea națională de supraveghere, autoritatea de notificare și autoritatea de supraveghere pieței ;

(43)

„autoritate națională competentă” înseamnă oricare dintre autoritățile naționale care sunt responsabile pentru punerea în aplicare prezentului regulament ;

Amendamentul 199

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 – partea introductivă

Textul propus de Comisie

Amendamentul

(44)

„incident grav” înseamnă orice incident care, direct sau indirect, determină, ar fi putut determina sau ar putea determina oricare dintre următoarele:

(44)

„incident grav” înseamnă orice incident sau funcționare necorespunzătoare a unui sistem de IA care, direct sau indirect, determină, ar fi putut determina sau ar putea determina oricare dintre următoarele:

(a)

decesul unei persoane sau vătămarea gravă a sănătății unei persoane, a bunurilor sau mediului ;

(a)

decesul unei persoane sau vătămarea gravă a sănătății unei persoane;

(b)

o perturbare gravă a gestionării și funcționării infrastructurii critice.

(b)

o perturbare gravă a gestionării și funcționării infrastructurii critice;

 

(ba)

o încălcare a drepturilor fundamentale protejate conform dreptului Uniunii;

 

(bb)

daune grave aduse bunurilor sau mediului;

Amendamentul 200

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 a (nou)

Textul propus de Comisie

Amendamentul

 

(44a)

„date cu caracter personal” înseamnă datele cu caracter personal astfel cum sunt definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;

Amendamentul 201

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 b (nou)

Textul propus de Comisie

Amendamentul

 

(44b)

„date fără caracter personal” înseamnă alte date decât datele cu caracter personal;

Amendamentul 202

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 c (nou)

Textul propus de Comisie

Amendamentul

 

(44c)

„creare de profiluri” înseamnă orice formă de prelucrare automată a datelor cu caracter personal, conform definiției de la articolul 4 punctul (4) din Regulamentul (UE) 2016/679; sau, în cazul autorităților de aplicare a legii – la articolul 3 punctul 4 din Directiva (UE) 2016/680 sau, în cazul instituțiilor, organelor, oficiilor sau agențiilor Uniunii, la articolul 3 punctul 5 din Regulamentul (UE) 2018/1725;

Amendamentul 203

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 d (nou)

Textul propus de Comisie

Amendamentul

 

(44d)

„deep fake” înseamnă conținut audio, grafic sau video manipulat sau sintetic, făcut să pară în mod fals autentic sau veridic și care ilustrează persoane care par să spună sau să facă lucruri pe care nu le-au spus sau nu le-au făcut, conținut produs cu ajutorul unor tehnici de IA, inclusiv învățare automată și învățare aprofundată;

Amendamentul 204

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 e (nou)

Textul propus de Comisie

Amendamentul

 

(44e)

„încălcare pe scară largă” înseamnă orice acțiune sau omisiune contrară dreptului Uniunii care protejează interesele persoanelor fizice:

 

(a)

care a adus sau ar putea aduce prejudicii intereselor colective ale persoanelor care își au reședința în cel puțin două state membre diferite de statul:

 

 

(i)

în care își are originea sau a avut loc acțiunea sau omisiunea în cauză;

 

 

(ii)

în care este stabilit furnizorul în cauză sau, după caz, reprezentantul său autorizat; sau

 

 

(iii)

în care este stabilit implementatorul, atunci când încălcarea este comisă de implementator;

 

(b)

care protejează interesele persoanelor care au adus, aduc sau ar putea aduce prejudicii intereselor colective ale persoanelor și au caracteristici comune, cum ar fi aceeași practică ilegală, încălcarea aceluiași interes, și care survin în același timp, fiind comise de același operator, în cel puțin trei state membre;

Amendamentul 205

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 f (nou)

Textul propus de Comisie

Amendamentul

 

(44f)

„încălcare pe scară largă cu o dimensiune specifică Uniunii” înseamnă o încălcare pe scară largă care a adus sau ar putea aduce prejudicii intereselor colective ale persoanelor în cel puțin două treimi din statele membre, ce reprezintă cumulat cel puțin două treimi din populația Uniunii;

Amendamentul 206

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 g (nou)

Textul propus de Comisie

Amendamentul

 

(44g)

„spațiul de testare în materie de reglementare” înseamnă un mediu controlat instituit de o autoritate publică care facilitează dezvoltarea, testarea și validarea în condiții de siguranță ale sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune, conform unui plan specific, sub supraveghere reglementară;

Amendamentul 207

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 h (nou)

Textul propus de Comisie

Amendamentul

 

(44h)

„infrastructură critică” înseamnă un activ, o instalație, un echipament, o rețea sau un sistem sau o parte a unui activ, instalații, echipament, rețea sau sistem, care este necesar pentru furnizarea unui serviciu esențial în sensul articolului 2 alineatul (4) din Directiva (UE) 2022/2557;

Amendamentul 208

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 k (nou)

Textul propus de Comisie

Amendamentul

 

(44k)

„evaluarea comportamentului social” înseamnă evaluarea sau clasificarea persoanelor fizice pe baza comportamentului lor social, a statutului socio-economic sau a unor caracteristici personale sau de personalitate cunoscute sau preconizate;

Amendamentul 209

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 l (nou)

Textul propus de Comisie

Amendamentul

 

(44l)

„comportament social” înseamnă modul în care o persoană fizică interacționează cu alte persoane fizice sau societăți și le influențează;

Amendamentul 210

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 m (nou)

Textul propus de Comisie

Amendamentul

 

(44m)

„stadiul actual al tehnologiei” înseamnă stadiul de dezvoltare a capacității tehnice la un moment dat în ceea ce privește produsele, procesele și serviciile, pe baza constatărilor consolidate relevante ale științei, tehnologiei și experienței;

Amendamentul 211

Propunere de regulament

Articolul 3 – paragraful 1 – punctul 44 n (nou)

Textul propus de Comisie

Amendamentul

 

(44n)

„testare în condiții reale” înseamnă testarea temporară a unui sistem de IA în scopul său preconizat în condiții reale în afara unui laborator sau a unui mediu simulat în alt mod;

Amendamentul 212

Propunere de regulament

Articolul 4

Textul propus de Comisie

Amendamentul

Articolul 4

eliminat

Modificarea anexei I

 

Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a modifica lista tehnicilor și abordărilor enumerate în anexa I, în vederea actualizării listei respective în funcție de evoluțiile pieței și de cele tehnologice, pe baza caracteristicilor care sunt similare cu tehnicile și abordările enumerate în anexa respectivă.

 

Amendamentul 213

Propunere de regulament

Articolul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 4 a

 

Principii generale aplicabile tuturor sistemelor de IA

 

1.     Toți operatorii care intră sub incidența prezentului regulament depun toate eforturile pentru a dezvolta și a utiliza sisteme de IA sau modele de bază în conformitate cu următoarele principii generale care instituie un cadru la nivel înalt care promovează o abordare europeană coerentă și centrată pe factorul uman a unei inteligențe artificiale etice și de încredere, care este pe deplin în conformitate cu Carta, precum și cu valorile pe care se întemeiază Uniunea:

 

(a)

„implicarea și supravegherea umană” înseamnă că sistemele de IA sunt dezvoltate și folosite ca un instrument ce servește oamenilor, respectă demnitatea umană și autonomia personală și funcționează într-un mod ce poate fi controlat și supravegheat în mod corespunzător de oameni;

 

(b)

„soliditate tehnică și siguranță” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce reduce la minimum daunele neprevăzute și fără intenție, fiind totodată robuste în caz de probleme neprevăzute și reziliente la încercările de a modifica utilizarea sau performanța sistemului de IA pentru a permite utilizarea ilicită de către părți terțe răuvoitoare;

 

(c)

„viața privată și guvernanța datelor” înseamnă că sistemele de IA sunt dezvoltate și folosite în conformitate cu normele existente privind viața privată și protecția datelor, prelucrând totodată date ce respectă standarde ridicate din punctul de vedere al calității și al integrității;

 

(d)

„transparență” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce permite trasabilitatea și explicabilitatea adecvate, informându-i totodată pe oameni că interacționează sau comunică cu un sistem de IA și informându-i în mod corespunzător pe utilizatori cu privire la capacitățile și limitările respectivului sistem de IA și pe persoanele afectate despre drepturile lor;

 

(e)

„diversitate, nediscriminare și echitate” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră ce include actori diverși și promovează accesul egal, egalitatea de gen și diversitatea culturală, evitând totodată efectele discriminatorii și prejudecățile inechitabile interzise prin dreptul Uniunii sau dreptul național;

 

(f)

„bunăstare socială și de mediu” înseamnă că sistemele de IA sunt dezvoltate și folosite într-o manieră sustenabilă și atentă cu mediul și care aduce beneficii tuturor ființelor umane, totodată monitorizându-se și evaluându-se efectele pe termen lung asupra persoanei, societății și democrației.

 

2.     Alineatul (1) nu aduce atingere obligațiilor stabilite de dreptul Uniunii și de dreptul național în vigoare. Pentru sistemele de IA cu grad ridicat de risc, principiile generale sunt transpuse și respectate de furnizori sau implementatori prin intermediul cerințelor prevăzute la articolele 8-15 și obligațiile relevante prevăzute în titlul III capitolul 3 din prezentul regulament. Pentru modelele de bază, principiile generale sunt transpuse și respectate de furnizori prin intermediul cerințelor prevăzute la articolele 28-28b. Pentru toate sistemele de IA, aplicarea principiilor menționate la alineatul (1) poate fi realizată, după caz, prin dispozițiile articolului 28, ale articolului 52 sau prin aplicarea standardelor armonizate, a specificațiilor tehnice și a codurilor de conduită menționate la articolul 69, fără a crea noi obligații în temeiul prezentului regulament.

 

3.     Comisia și Oficiul pentru IA includ aceste principii directoare în cererile de standardizare, precum și în recomandările care constau în orientări tehnice pentru a ajuta furnizorii și implementatorii cu privire la modul de dezvoltare și utilizare a sistemelor de IA. Organizațiile de standardizare europene țin seama de principiile generale menționate la alineatul (1) din prezentul articol ca obiective bazate pe rezultate atunci când elaborează standarde armonizate adecvate pentru sistemele de IA cu grad ridicat de risc, după cum se menționează la articolul 40 alineatul (2b).

Amendamentul 214

Propunere de regulament

Articolul 4 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 4 b

 

Alfabetizarea în domeniul IA

 

1.     La punerea în aplicare a prezentului regulament, Uniunea și statele membre promovează măsuri pentru dezvoltarea unui nivel suficient de alfabetizare în domeniul IA, în toate sectoarele și ținând seama de nevoile diferite ale grupurilor de furnizori, implementatori și persoane afectate în cauză, inclusiv prin programe de educație și formare, calificare și recalificare și asigurând în același timp un echilibru adecvat de gen și vârstă, cu scopul de a permite un control democratic al sistemelor de IA.

 

2.     Furnizorii și implementatorii de sisteme de IA iau măsuri pentru a asigura un nivel suficient de alfabetizare în domeniul IA a personalului lor și a altor persoane care se ocupă cu operarea și utilizarea sistemelor de IA în numele lor, ținând seama de cunoștințele tehnice, experiența, educația și formarea lor și de contextul în care urmează să fie folosite sistemele de IA și luând în considerare persoanele sau grupurile de persoane în legătură cu care urmează să fie folosite sistemele de IA.

 

3.     Astfel de măsuri de alfabetizare constau, în special, în predarea noțiunilor și competențelor de bază privind sistemele de IA și funcționarea acestora, inclusiv diferitele tipuri de produse și utilizări, riscurile și beneficiile lor.

 

4.     Un nivel suficient de alfabetizare în domeniul IA este unul care contribuie, după caz, la capacitatea furnizorilor și a implementatorilor de a asigura respectarea și aplicarea prezentului regulament.

Amendamentul 215

Propunere de regulament

Articolul 5 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru, pentru a denatura în mod semnificativ comportamentul unei persoane într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;

(a)

introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru sau tehnici intenționat manipulatoare sau înșelătoare , cu scopul sau efectul de a denatura în mod semnificativ comportamentul unei persoane sau al unui grup de persoane prin împiedicarea semnificativă a capacității persoanei de a lua o decizie în cunoștință de cauză, determinând astfel persoana să ia o decizie pe care persoana respectivă nu ar fi luat-o, într-un mod care aduce sau poate aduce prejudicii semnificative persoanei respective , unei alte persoane sau unui grup de persoane;

 

Interzicerea sistemelor de IA care utilizează tehnicile subliminale menționate la primul paragraf nu se aplică sistemelor de IA destinate a fi utilizate în scopuri terapeutice aprobate pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la acestea sau, după caz, al tutorelui lor legal;

Amendamentul 216

Propunere de regulament

Articolul 5 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unui anumit grup de persoane din cauza vârstei , a unui handicap fizic sau mental , pentru a denatura în mod semnificativ comportamentul unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;

(b)

introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unei persoane sau a unui anumit grup de persoane , inclusiv caracteristicile personalității sau ale situației sociale sau economice cunoscute sau previzionate , vârsta, abilitățile fizice sau mentale ale persoanei sau ale grupului de persoane respective , cu scopul sau cu efectul de a denatura în mod semnificativ comportamentul persoanei respective sau al unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii semnificative persoanei respective sau altei persoane;

Amendamentul 217

Propunere de regulament

Articolul 5 – alineatul 1 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor biometrice de clasificare care clasifică persoanele fizice în funcție de atribute sau caracteristici sensibile sau protejate sau pe baza deducerii acestor atribute sau caracteristici. Această interdicție nu se aplică sistemelor de IA destinate a fi utilizate în scopuri terapeutice aprobate pe baza consimțământului specific în cunoștință de cauză al persoanelor care sunt expuse la acestea sau, după caz, al tutorelui lor legal.

Amendamentul 218

Propunere de regulament

Articolul 5 – alineatul 1 – litera c – partea introductivă

Textul propus de Comisie

Amendamentul

(c)

introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA de către autoritățile publice sau în numele acestora pentru evaluarea sau clasificarea credibilității persoanelor fizice într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute sau preconizate, cu un punctaj privind comportamentul social care conduce la una dintre următoarele situații sau la ambele:

(c)

introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA pentru evaluarea comportamentului social sau clasificarea persoanelor fizice sau a grupurilor de persoane într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute , deduse sau preconizate, cu un punctaj privind comportamentul social care conduce la una dintre următoarele situații sau la ambele:

Amendamentul 219

Propunere de regulament

Articolul 5 – alineatul 1 – litera c – punctul i

Textul propus de Comisie

Amendamentul

(i)

tratamentul prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de persoane în contexte sociale care nu au legătură cu contextele în care datele au fost generate sau colectate inițial;

(Nu privește versiunea în limba română.)

Amendamentul 220

Propunere de regulament

Articolul 5 – alineatul 1 – litera d – partea introductivă

Textul propus de Comisie

Amendamentul

(d)

utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:

(d)

utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului;

Amendamentul 221

Propunere de regulament

Articolul 5 – alineatul 1 – litera d – punctul i

Textul propus de Comisie

Amendamentul

(i)

căutarea specifică a potențialelor victime ale infracționalității, inclusiv a copiilor dispăruți;

eliminat

Amendamentul 222

Propunere de regulament

Articolul 5 – alineatul 1 – litera d – punctul ii

Textul propus de Comisie

Amendamentul

(ii)

prevenirea unei amenințări specifice, substanțiale și iminente la adresa vieții sau a siguranței fizice a persoanelor fizice sau a unui atac terorist;

eliminat

Amendamentul 223

Propunere de regulament

Articolul 5 – alineatul 1 – litera d – punctul iii

Textul propus de Comisie

Amendamentul

(iii)

detectarea, localizarea, identificarea sau urmărirea penală a autorului unei infracțiuni sau a unei persoane suspectate de o infracțiune menționată la articolul 2 alineatul (2) din Decizia-cadru 2002/584/JAI a Consiliului  (62) și pedepsită în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani, astfel cum este stabilit de legislația statului membru respectiv.

eliminat

Amendamentul 224

Propunere de regulament

Articolul 5 – alineatul 1 – litera da (nouă)

Textul propus de Comisie

Amendamentul

 

(da)

introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA pentru efectuarea de evaluări ale persoanelor fizice sau ale grupurilor de persoane în vederea evaluării riscului ca o persoană fizică sau un grup de persoane să săvârșească o infracțiune sau să recidiveze sau pentru a prezice producerea sau repetarea unei infracțiuni reale sau potențiale sau a unei contravenții, pe baza creării de profiluri ale unei persoane fizice sau a evaluării trăsăturilor de personalitate și caracteristicilor, inclusiv locația persoanei, sau a comportamentului infracțional anterior ale unor persoane fizice sau grupuri de persoane fizice;

Amendamentul 225

Propunere de regulament

Articolul 5 – alineatul 1 – litera db (nouă)

Textul propus de Comisie

Amendamentul

 

(db)

introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA care creează sau extind bazele de date de recunoaștere facială prin extragerea fără scop precis a imaginilor faciale de pe internet sau de pe înregistrările TVCI;

Amendamentul 226

Propunere de regulament

Articolul 5 – alineatul 1 – litera dc (nouă)

Textul propus de Comisie

Amendamentul

 

(dc)

introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA pentru a deduce emoțiile unei persoane fizice în domeniul aplicării legii, al gestionării frontierelor, la locul de muncă și în instituțiile de învățământ.

Amendamentul 227

Propunere de regulament

Articolul 5 – alineatul 1 – litera dd (nouă)

Textul propus de Comisie

Amendamentul

 

(dd)

punerea în funcțiune sau utilizarea sistemelor de IA pentru analiza înregistrărilor din spațiile accesibile publicului prin intermediul sistemelor de identificare biometrică „ulterioară” la distanță, cu excepția cazului în care acestea fac obiectul unei autorizații judiciare prealabile în conformitate cu dreptul Uniunii și sunt strict necesare pentru căutarea specifică legată de o infracțiune gravă specifică, astfel cum este definită la articolul 83 alineatul (1) din TFUE, care a avut deja loc în scopul asigurării respectării legii.

Amendamentul 228

Propunere de regulament

Articolul 5 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Prezentul articol nu afectează interdicțiile care se aplică în cazul în care o practică de inteligență artificială încalcă un alt act legislativ al Uniunii, inclusiv dreptul Uniunii privind protecția datelor, nediscriminarea, protecția consumatorilor sau concurența;

Amendamentul 229

Propunere de regulament

Articolul 5 – alineatul 2

Textul propus de Comisie

Amendamentul

2.     Utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii pentru oricare dintre obiectivele menționate la alineatul (1) litera (d) ține seama de următoarele elemente:

eliminat

(a)

natura situației care determină posibila utilizare, în special gravitatea, probabilitatea și amploarea prejudiciului cauzat în absența utilizării sistemului;

 

(b)

consecințele utilizării sistemului asupra drepturilor și libertăților tuturor persoanelor vizate, în special gravitatea, probabilitatea și amploarea acestor consecințe.

 

În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii pentru oricare dintre obiectivele menționate la alineatul (1) litera (d) respectă garanțiile și condițiile necesare și proporționale în ceea ce privește utilizarea, în special în ceea ce privește limitările temporale, geografice și personale.

 

Amendamentul 230

Propunere de regulament

Articolul 5 – alineatul 3

Textul propus de Comisie

Amendamentul

3.     În ceea ce privește alineatul (1) litera (d) și alineatul (2), fiecare utilizare individuală în scopul asigurării respectării legii a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului face obiectul unei autorizări prealabile acordate de o autoritate judiciară sau de o autoritate administrativă independentă a statului membru în care urmează să aibă loc utilizarea, emisă pe baza unei cereri motivate și în conformitate cu normele detaliate de drept intern menționate la alineatul (4). Cu toate acestea, într-o situație de urgență justificată în mod corespunzător, utilizarea sistemului poate începe fără autorizație, iar autorizația poate fi solicitată numai în timpul utilizării sau ulterior.

eliminat

Autoritatea judiciară sau administrativă competentă acordă autorizația numai dacă este convinsă, pe baza unor dovezi obiective sau a unor indicii clare care i-au fost prezentate, că utilizarea sistemului de identificare biometrică la distanță „în timp real” în cauză este necesară și proporțională pentru realizarea unuia dintre obiectivele menționate la alineatul (1) litera (d), astfel cum au fost identificate în cerere. Atunci când ia o decizie cu privire la cerere, autoritatea judiciară sau administrativă competentă ia în considerare elementele menționate la alineatul (2).

 

Amendamentul 231

Propunere de regulament

Articolul 5 – alineatul 4

Textul propus de Comisie

Amendamentul

4.     Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, în limitele și condițiile enumerate la alineatul (1) litera (d) și la alineatele (2) și (3). Statul membru respectiv stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3). Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) litera (d), inclusiv pentru care dintre infracțiunile menționate la punctul (iii) din alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul asigurării respectării legii.

eliminat

Amendamentul 232

Propunere de regulament

Articolul 6 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau este el însuși un produs care face obiectul legislației de armonizare a Uniunii enumerate în anexa II;

(a)

sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau sistemul de IA este el însuși un produs care face obiectul legislației de armonizare a Uniunii enumerate în anexa II;

Amendamentul 233

Propunere de regulament

Articolul 6 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

produsul a cărui componentă de siguranță este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității de către o terță parte în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii enumerate în anexa II.

(b)

produsul a cărui componentă de siguranță în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității legate de riscurile pentru sănătate și siguranță de către o terță parte în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii enumerate în anexa II;

Amendamentul 234

Propunere de regulament

Articolul 6 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), sistemele de IA menționate în anexa III sunt considerate, de asemenea, sisteme cu grad ridicat de risc.

2.   Pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), sistemele de IA care intră sub incidența domeniilor critice și a cazurilor de utilizare menționate în anexa III sunt considerate, de asemenea, sisteme cu grad ridicat de risc , dacă reprezintă un risc semnificativ de prejudiciu pentru sănătatea, siguranța sau drepturile fundamentale ale persoanelor fizice . În cazul în care un sistem de IA intră sub incidența anexei III punctul 2, acesta este considerat cu grad ridicat de risc dacă prezintă un risc semnificativ de a aduce prejudicii mediului.

 

Cu șase luni înainte de intrarea în vigoare a prezentului regulament, după consultarea Oficiului pentru IA și a părților interesate relevante, Comisia furnizează orientări care specifică în mod clar circumstanțele în care rezultatele sistemelor de IA menționate în anexa III ar prezenta un risc semnificativ de prejudicii pentru sănătatea, siguranța sau drepturile fundamentale ale persoanelor fizice sau cazurile în care acest lucru nu ar fi posibil.

Amendamentul 235

Propunere de regulament

Articolul 6 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     În cazul în care furnizorii care se încadrează în unul sau mai multe domenii critice și cazuri de utilizare menționate în anexa III consideră că sistemul lor de IA nu prezintă un risc semnificativ, astfel cum se descrie la alineatul (2), aceștia notifică autoritatea națională de supraveghere privitor la faptul că nu fac obiectul cerințelor de la titlul III capitolul 2 din prezentul regulament. În cazul în care sistemul de IA este destinat a fi utilizat în două sau mai multe state membre, notificarea respectivă se transmite Oficiului pentru IA. Fără a aduce atingere articolului 65, autoritatea națională de supraveghere revizuiește notificarea și răspunde la aceasta, direct sau prin intermediul Oficiului IA, în termen de trei luni, în cazul în care consideră că sistemul de IA este clasificat greșit.

Amendamentul 236

Propunere de regulament

Articolul 6 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2b.     Furnizorii care își clasifică în mod eronat sistemul de IA ca nefăcând obiectul cerințelor de la titlul III capitolul 2 din prezentul regulament și îl introduc pe piață înainte de termenul pentru formularea de obiecții de către autoritățile naționale de supraveghere sunt sancționate cu amendă în temeiul articolului 71.

Amendamentul 237

Propunere de regulament

Articolul 6 – alineatul 2 b (nou)

Textul propus de Comisie

Amendamentul

 

2c.     Autoritățile naționale de supraveghere prezintă Oficiului pentru IA un raport anual care detaliază numărul de notificări primite, domeniile conexe cu risc ridicat în cauză și deciziile luate cu privire la notificările primite.

Amendamentul 238

Propunere de regulament

Articolul 7 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a  actualiza lista din anexa  III prin adăugarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:

1.   Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 pentru a  modifica anexa III prin adăugarea sau modificarea unor domenii sau cazuri de utilizare ale sistemelor de IA cu grad ridicat de risc , atunci când acestea prezintă un risc semnificativ de prejudicii pentru sănătate și siguranță sau un impact negativ asupra drepturilor fundamentale, mediului sau democrației și statului de drept, iar riscul respectiv este, în ceea ce privește gravitatea și probabilitatea apariției, echivalent sau mai mare decât riscul de prejudiciu sau de impact negativ prezentat de sistemele de IA cu grad ridicat de risc menționate deja în anexa III.

Amendamentul 239

Propunere de regulament

Articolul 7 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate la punctele 1-8 din anexa III;

eliminat

Amendamentul 240

Propunere de regulament

Articolul 7 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

sistemele de IA prezintă riscul de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale, și anume, în ceea ce privește gravitatea și probabilitatea de apariție, echivalent cu sau mai mare decât riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III.

eliminat

Amendamentul 241

Propunere de regulament

Articolul 7 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     De asemenea, Comisia are competența de a adopta acte delegate în conformitate cu articolul 73 pentru a elimina cazurile de utilizare a sistemelor de IA cu grad ridicat de risc de pe lista din anexa III în cazul în care condițiile menționate la alineatul (1) nu se mai aplică;

Amendamentul 242

Propunere de regulament

Articolul 7 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   Atunci când evaluează , în sensul alineatului (1), dacă un sistem de IA prezintă un risc de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale care este echivalent sau mai mare decât riscul de aduce prejudicii prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III , Comisia ia în considerare următoarele criterii:

2.   Atunci când evaluează un sistem de IA , în sensul alineatelor (1) și (1a) , Comisia ia în considerare următoarele criterii:

Amendamentul 243

Propunere de regulament

Articolul 7 – alineatul 2 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

capacitățile și funcționalitățile generale ale sistemului de IA, independent de scopul preconizat;

Amendamentul 244

Propunere de regulament

Articolul 7 – alineatul 2 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

natura și cantitatea datelor prelucrate și utilizate de sistemul de IA;

Amendamentul 245

Propunere de regulament

Articolul 7 – alineatul 2 – litera bb (nouă)

Textul propus de Comisie

Amendamentul

 

(bb)

măsura în care sistemul de IA acționează în mod autonom;

Amendamentul 246

Propunere de regulament

Articolul 7 – alineatul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței sau a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce privește materializarea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează rapoartele sau acuzațiile documentate prezentate autorităților naționale competente ;

(c)

măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței, a avut un impact negativ asupra drepturilor fundamentale , mediului, democrației și a statului de drept, sau a generat motive de îngrijorare semnificative în ceea ce privește probabilitatea producerii unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează , de exemplu, rapoartele sau acuzațiile documentate prezentate autorităților naționale de supraveghere, Comisiei, Oficiului pentru IA, AEPD sau Agenției pentru Drepturi Fundamentale a Uniunii Europene ;

Amendamentul 247

Propunere de regulament

Articolul 7 – alineatul 2 – litera d

Textul propus de Comisie

Amendamentul

(d)

amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta un număr mare de persoane;

(d)

amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta un număr mare de persoane sau de a afecta în mod disproporționat un anumit grup de persoane ;

Amendamentul 248

Propunere de regulament

Articolul 7 – alineatul 2 – litera e

Textul propus de Comisie

Amendamentul

(e)

măsura în care persoanele potențial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatul respectiv ;

(e)

măsura în care persoanele potențial prejudiciate sau afectate de un impact negativ depind de rezultatele produse ce implică un sistem de IA, iar acele rezultate sunt complementare cu privire la acțiunea sau decizia relevantă care trebuie luată, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatele respective ;

Amendamentul 249

Propunere de regulament

Articolul 7 – alineatul 2 – litera ea (nouă)

Textul propus de Comisie

Amendamentul

 

(ea)

potențiala utilizare necorespunzătoare și rău intenționată a sistemului de IA și a tehnologiei care stă la baza acestuia;

Amendamentul 250

Propunere de regulament

Articolul 7 – alineatul 2 – litera f

Textul propus de Comisie

Amendamentul

(f)

măsura în care persoanele potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu utilizatorul unui sistem de IA, în special din cauza unui dezechilibru de putere , de cunoștințe , de circumstanțe economice sau sociale sau de vârstă ;

(f)

măsura în care există un dezechilibru de putere sau persoanele potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu utilizatorul unui sistem de IA, în special din cauza statutului, autorității , cunoștințelor , circumstanțelor economice sau sociale sau vârstei ;

Amendamentul 251

Propunere de regulament

Articolul 7 – alineatul 2 – litera g

Textul propus de Comisie

Amendamentul

(g)

măsura în care rezultatul produs cu ajutorul unui sistem de IA este ușor reversibil, iar rezultatele care au un impact asupra sănătății sau siguranței persoanelor nu sunt considerate ca fiind ușor reversibile;

(g)

măsura în care rezultatul produs ce implică un sistem de IA este ușor reversibil sau remediat , iar rezultatele care au un impact negativ asupra sănătății , siguranței, drepturilor fundamentale ale persoanelor , mediului sau democrației și statului de drept nu sunt considerate ca fiind ușor reversibile;

Amendamentul 252

Propunere de regulament

Articolul 7 – alineatul 2 – litera ga (nouă)

Textul propus de Comisie

Amendamentul

 

(ga)

gradul de disponibilitate și de utilizare a unor soluții și mecanisme tehnice eficiente pentru controlul, fiabilitatea și corectitudinea sistemului de IA;

Amendamentul 253

Propunere de regulament

Articolul 7 – alineatul 2 – litera gb (nouă)

Textul propus de Comisie

Amendamentul

 

(gb)

amploarea și probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătățirile posibile ale siguranței produselor;

Amendamentul 254

Propunere de regulament

Articolul 7 – alineatul 2 – litera gc (nouă)

Textul propus de Comisie

Amendamentul

 

(gc)

gradul de supraveghere umană și posibilitatea ca un om să intervină pentru a anula o decizie sau recomandări care ar putea duce la un potențial prejudiciu;

Amendamentul 255

Propunere de regulament

Articolul 7 – alineatul 2 – litera h –

Textul propus de Comisie

Amendamentul

( i )

măsuri reparatorii eficace în legătură cu riscurile prezentate de un sistem de IA, cu excepția cererilor de despăgubiri;

( h )

măsura în care legislația existentă a Uniunii prevede:

 

 

(i)

măsuri reparatorii eficace în legătură cu prejudiciile provocate de un sistem de IA, cu excepția cererilor de despăgubiri directe sau indirecte;

 

 

(ii)

măsuri eficace de prevenire sau de reducere substanțială a acestor riscuri.

Amendamentul 256

Propunere de regulament

Articolul 7 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Atunci când evaluează un sistem de IA în scopurile prevăzute la alineatul (1) sau (1a), Comisia consultă Oficiul pentru IA și, după caz, reprezentanți ai grupurilor asupra cărora un sistem de IA are un impact, părți interesate, experți independenți, parteneri sociali și organizații ale societății civile. Comisia organizează, de asemenea, consultări publice în acest sens și pune la dispoziția publicului rezultatele acestor consultări și ale evaluării finale;

Amendamentul 257

Propunere de regulament

Articolul 7 – alineatul 2 b (nou)

Textul propus de Comisie

Amendamentul

 

2b.     Oficiul pentru IA, autoritățile naționale de supraveghere sau Parlamentul European pot solicita Comisiei să reevalueze și să reclasifice clasificarea riscurilor unui sistem de IA în conformitate cu alineatele (1) și (1a). Comisia își motivează decizia și publică motivele.

Amendamentul 258

Propunere de regulament

Articolul 8 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Pentru a se conforma cerinței stabilite în prezentul capitol, se iau în considerare orientările instituite menționate la articolul 82b, stadiul actual general recunoscut al tehnologiei, inclusiv așa cum se reflectă în standardele armonizate relevante și în specificațiile comune menționate la articolele 40 și 41 sau cele stabilite deja în legislația de armonizare a Uniunii.

Amendamentul 259

Propunere de regulament

Articolul 8 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Scopul preconizat al sistemului de IA cu grad ridicat de risc și al sistemului de gestionare a riscurilor menționate la articolul 9 este luat în considerare atunci când se asigură conformitatea cu cerințele respective.

2.   Scopul preconizat al sistemului de IA cu grad ridicat de risc , utilizarea necorespunzătoare previzibilă în mod rezonabil și sistemul de gestionare a riscurilor menționat la articolul 9 sunt luate în considerare atunci când se asigură conformitatea cu cerințele respective.

Amendamentul 260

Propunere de regulament

Articolul 8 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Atât timp cât cerințele din titlul III capitolele 2 și 3 sau din titlul VIII capitolele 1, 2 și 3 pentru sistemele de IA cu grad ridicat de risc sunt abordate de legislația de armonizare a Uniunii enumerată în anexa II secțiunea A, cerințele sau obligațiile prevăzute în capitolele respective din prezentul regulament se consideră îndeplinite atât timp cât includ componenta de IA. Cerințele prevăzute în titlul III capitolele 2 și 3 sau în titlul VIII capitolele 1, 2 și 3 pentru sistemele de IA cu grad ridicat de risc care nu sunt abordate de legislația de armonizare al Uniunii enumerată în anexa II secțiunea A se încorporează în respectivul act legislativ de armonizare al Uniunii, după caz. Evaluarea conformității relevantă se efectuează în cadrul procedurilor prevăzute în legislația de armonizare al Uniunii enumerată în anexa II secțiunea A.

Amendamentul 261

Propunere de regulament

Articolul 9 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc.

1.   Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc , pe parcursul întregului ciclu de viață al sistemului de IA. Sistemul de gestionare a riscurilor poate fi integrat în procedurile de gestionare a riscurilor deja existente în legătură cu legislația sectorială relevantă a Uniunii sau poate constitui o parte a acestora, în măsura în care îndeplinește cerințele prezentului articol.

Amendamentul 262

Propunere de regulament

Articolul 9 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   Sistemul de gestionare a riscurilor constă într-un proces iterativ continuu desfășurat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând o actualizare sistematică periodică . Acesta cuprinde următoarele etape:

2.   Sistemul de gestionare a riscurilor constă într-un proces iterativ continuu desfășurat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând o  revizuire și o actualizare periodică a procesului de gestionare a riscurilor pentru a asigura eficacitatea continuă a acestuia și documentarea tuturor deciziilor și acțiunilor semnificative întreprinse în temeiul prezentului articol . Acesta cuprinde următoarele etape:

Amendamentul 263

Propunere de regulament

Articolul 9 – alineatul 2 – litera a

Textul propus de Comisie

Amendamentul

(a)

identificarea și analiza riscurilor cunoscute și previzibile asociate fiecărui sistem de IA cu grad ridicat de risc;

(a)

identificarea , estimarea și evaluarea riscurilor cunoscute și previzibile în mod rezonabil pe care sistemul de IA cu grad ridicat de risc le poate prezenta pentru sănătatea sau siguranța persoanelor fizice, drepturile lor fundamentale, inclusiv accesul și oportunitățile egale, democrația și statul de drept sau mediu atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat și în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil ;

Amendamentul 264

Propunere de regulament

Articolul 9 – alineatul 2 – litera b

Textul propus de Comisie

Amendamentul

(b)

estimarea și evaluarea riscurilor care pot apărea atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul preconizat și în condiții de utilizare necorespunzătoare previzibile în mod rezonabil;

eliminat

Amendamentul 265

Propunere de regulament

Articolul 9 – alineatul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

evaluarea altor riscuri care ar putea apărea pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 61;

(c)

evaluarea riscurilor semnificative emergente de tipul celor descrise la litera (a) și identificate pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 61;

Amendamentul 266

Propunere de regulament

Articolul 9 – alineatul 2 – litera d

Textul propus de Comisie

Amendamentul

(d)

adoptarea unor măsuri adecvate de gestionare a riscurilor în conformitate cu dispozițiile alineatelor următoare.

(d)

adoptarea unor măsuri adecvate și focalizate de gestionare a riscurilor , concepute pentru a combate riscurile identificare în temeiul literelor (a) și (b) din prezentul alineat, în conformitate cu dispozițiile alineatelor următoare.

Amendamentul 267

Propunere de regulament

Articolul 9 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunile posibile care rezultă din aplicarea combinată a cerințelor prevăzute în prezentul capitol 2 . Acestea țin seama de stadiul actual al tehnologiei general recunoscut , inclusiv astfel cum se reflectă în normele armonizate sau în specificațiile comune relevante .

3.   Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunile posibile care rezultă din aplicarea combinată a cerințelor prevăzute în prezentul capitol 2 , cu scopul de a aborda riscurile în mod eficient , asigurând totodată o punere în aplicare adecvată și echilibrată a cerințelor .

Amendamentul 268

Propunere de regulament

Articolul 9 – alineatul 4 – partea introductivă

Textul propus de Comisie

Amendamentul

4.   Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât orice risc rezidual asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate acceptabile, cu condiția ca sistemul de IA cu grad ridicat de risc să fie utilizat în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil. Riscurile reziduale respective se comunică utilizatorului .

4.   Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât risc rezidual relevant asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate în mod rezonabil a fi acceptabile, cu condiția ca sistemul de IA cu grad ridicat de risc să fie utilizat în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil. Riscurile reziduale respective și deciziile motivate se comunică implementatorului .

 

La identificarea celor mai adecvate măsuri de gestionare a riscurilor se asigură următoarele:

Amendamentul 269

Propunere de regulament

Articolul 9 – alineatul 4 – paragraful 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

eliminarea sau reducerea riscurilor pe cât posibil prin proiectare și dezvoltare adecvate;

(a)

eliminarea sau reducerea riscurilor identificate, în măsura în care acest lucru este fezabil din punct de vedere tehnologic, prin proiectare și dezvoltare adecvate a sistemului IA cu risc ridicat, implicând, atunci când este relevant, experți și părți interesate externe ;

Amendamentul 270

Propunere de regulament

Articolul 9 – alineatul 4 – paragraful 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control în ceea ce privește riscurile care nu pot fi eliminate;

(b)

după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control pentru combaterea riscurilor semnificative care nu pot fi eliminate;

Amendamentul 271

Propunere de regulament

Articolul 9 – alineatul 4 – paragraful 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

furnizarea de informații adecvate în temeiul articolului 13 , în special în ceea ce privește riscurile menționate la alineatul (2) litera (b) din prezentul articol și, după caz, formarea utilizatorilor .

(c)

furnizarea de informații solicitate în temeiul articolului 13 și, după caz, formarea implementatorilor .

Amendamentul 272

Propunere de regulament

Articolul 9 – alineatul 4 – paragraful 2

Textul propus de Comisie

Amendamentul

La eliminarea sau reducerea riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc se acordă atenția cuvenită cunoștințelor tehnice, experienței, educației, formării pe care le preconizează utilizatorul și conforme cu mediul în care urmează să fie utilizat sistemul .

La eliminarea sau reducerea riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc , furnizorii acordă atenția cuvenită cunoștințelor tehnice, experienței, educației și formării de care ar putea avea nevoie implementatorul, inclusiv în legătură cu contextul presupus al utilizării .

Amendamentul 273

Propunere de regulament

Articolul 9 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate măsuri de gestionare a riscurilor. Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează în mod consecvent în scopul preconizat și sunt conforme cu cerințele stabilite în prezentul capitol.

5.   Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate și focalizate măsuri de gestionare a riscurilor și al ponderării oricăror astfel de măsuri în raport cu beneficiile potențiale și cu obiectivele preconizate ale sistemului . Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează în mod consecvent în scopul preconizat și sunt conforme cu cerințele stabilite în prezentul capitol.

Amendamentul 274

Propunere de regulament

Articolul 9 – alineatul 6

Textul propus de Comisie

Amendamentul

6.   Procedurile de testare sunt adecvate pentru a atinge scopul preconizat al sistemului de IA și nu trebuie să depășească ceea ce este necesar pentru atingerea scopului respectiv .

6.   Procedurile de testare sunt adecvate pentru a atinge scopul preconizat al sistemului de IA.

Amendamentul 275

Propunere de regulament

Articolul 9 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Testarea sistemelor de IA cu grad ridicat de risc se efectuează , după caz, în orice moment pe parcursul procesului de dezvoltare și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc.

7.   Testarea sistemelor de IA cu grad ridicat de risc se efectuează înainte de introducerea pe piață sau de punerea în funcțiune. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat sau utilizării necorespunzătoare previzibile în mod rezonabil a sistemului de IA cu grad ridicat de risc.

Amendamentul 276

Propunere de regulament

Articolul 9 – alineatul 8

Textul propus de Comisie

Amendamentul

8.   La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1) – (7), se acordă o atenție deosebită posibilității ca sistemul de IA cu grad ridicat de risc să fie accesat de copii sau să aibă un impact asupra acestora .

8.   La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1) – (7), furnizorii acordă o atenție deosebită posibilității ca sistemul de IA cu grad ridicat de risc să aibă un impact negativ asupra grupurilor de persoane vulnerabile sau copiilor .

Amendamentul 277

Propunere de regulament

Articolul 9 – alineatul 9

Textul propus de Comisie

Amendamentul

9.   În cazul instituțiilor de credit reglementate de Directiva 2013/36/UE, aspectele descrise la alineatele (1) – (8) fac parte din procedurile de gestionare a riscurilor stabilite de instituțiile respective în temeiul articolului 74 din directiva respectivă .

9.   În cazul furnizorilor și a sistemelor de IA care fac deja obiectul dreptului Uniunii ce le impun să instituie o gestionare specifică a riscurilor, inclusiv instituțiile de credit reglementate de Directiva2013/36/UE, aspectele descrise la alineatele(1)-(8) fac parte din procedurile de gestionare a riscurilor stabilite de dreptul Uniunii relevant sau sunt combinate cu acestea .

Amendamentul 278

Propunere de regulament

Articolul 10 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele cu date sunt dezvoltate pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2) – (5).

1.   Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele cu date sunt dezvoltate pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2) – (5) în măsura în care acest lucru este fezabil din punct de vedere tehnic, în funcție de segmentul de piață sau de domeniul de aplicare specific .

 

Tehnicile care nu necesită date de intrare etichetate, cum ar fi învățarea nesupervizată și învățarea complementară, se elaborează pe baza unor seturi de date, cum ar fi pentru testare și verificare, care îndeplinesc criteriile de calitate menționate la alineatele (2)-(5).

Amendamentul 279

Propunere de regulament

Articolul 10 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   Seturile de date de antrenament, de validare și de testare fac obiectul unor practici adecvate de guvernanță și gestionare a datelor . Practicile respective se referă în special la:

2.   Seturile de date de antrenament, de validare și de testare fac obiectul guvernanței datelor adecvate pentru contextul utilizării și pentru scopul preconizat al sistemului de IA . Aceste măsuri se referă în special la:

Amendamentul 280

Propunere de regulament

Articolul 10 – alineatul 2 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

transparența privind scopul inițial al colectării datelor;

Amendamentul 281

Propunere de regulament

Articolul 10 – alineatul 2 – litera b

Textul propus de Comisie

Amendamentul

(b)

colectarea datelor;

(b)

procesele de colectare a datelor;

Amendamentul 282

Propunere de regulament

Articolul 10 – alineatul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

operațiunile relevante de prelucrare a datelor, cum ar fi adnotarea, etichetarea, curățarea, îmbogățirea și agregarea;

(c)

operațiunile de prelucrare a datelor, cum ar fi adnotarea, etichetarea, curățarea , actualizarea , îmbogățirea și agregarea;

Amendamentul 283

Propunere de regulament

Articolul 10 – alineatul 2 – litera d

Textul propus de Comisie

Amendamentul

(d)

formularea unor ipoteze relevante , în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;

(d)

formularea unor ipoteze, în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;

Amendamentul 284

Propunere de regulament

Articolul 10 – alineatul 2 – litera e

Textul propus de Comisie

Amendamentul

(e)

o evaluare prealabilă a disponibilității, a cantității și a adecvării seturilor de date necesare;

(e)

o evaluare a disponibilității, a cantității și a adecvării seturilor de date necesare;

Amendamentul 285

Propunere de regulament

Articolul 10 – alineatul 2 – litera f

Textul propus de Comisie

Amendamentul

(f)

examinarea în vederea identificării unor posibile părtiniri;

(f)

examinarea în vederea identificării unor posibile părtiniri care sunt susceptibile să afecteze sănătatea și siguranța persoanelor, să aibă un impact negativ asupra drepturilor fundamentale sau să conducă la discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”) și măsurile adecvate de detectare, prevenire și atenuare a posibilelor părtiniri ;

Amendamentul 286

Propunere de regulament

Articolul 10 – alineatul 2 – litera fa (nouă)

Textul propus de Comisie

Amendamentul

 

(fa)

măsuri adecvate pentru detectarea, prevenirea și atenuarea posibilelor părtiniri;

Amendamentul 287

Propunere de regulament

Articolul 10 – alineatul 2 – litera g

Textul propus de Comisie

Amendamentul

(g)

identificarea eventualelor lacune sau deficiențe în materie de date și a modului în care acestea pot fi abordate.

(g)

identificarea lacunelor sau a deficiențelor relevante în materie de date care împiedică conformitatea cu prezentul regulament și a modului în care acestea pot fi abordate;

Amendamentul 288

Propunere de regulament

Articolul 10 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Seturile de date de antrenament, de validare și de testare trebuie să fie relevante, reprezentative, fără erori și complete. Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Aceste caracteristici ale seturilor de date pot fi îndeplinite la nivelul seturilor de date individuale sau al unei combinații a acestora.

3.   Seturile de date de antrenament și , în cazul în care sunt utilizate, seturile de date de validare și de testare trebuie să fie relevante, suficiente, reprezentative, verificate în mod corespunzător în ceea ce privește erorile și pe cât de complete cu putință, având în vedere scopul preconizat . Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Aceste caracteristici ale seturilor de date sunt îndeplinite la nivelul seturilor de date individuale sau al unei combinații a acestora.

Amendamentul 289

Propunere de regulament

Articolul 10 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Seturile de date de antrenament , de validare și de testare iau în considerare, în măsura impusă de scopul preconizat , caracteristicile sau elementele specifice cadrului geografic, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.

4.   Seturile de date iau în considerare , în măsura impusă de scopul preconizat și de utilizările necorespunzătoare previzibile și previzibile rezonabil ale sistemului de IA , caracteristicile sau elementele specifice cadrului geografic, comportamental contextual sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.

Amendamentul 290

Propunere de regulament

Articolul 10 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În măsura în care acest lucru este strict necesar pentru a asigura monitorizarea, detectarea și corectarea erorilor sistematice în legătură cu sistemele de IA cu grad ridicat de risc, furnizorii de astfel de sisteme pot prelucra categoriile speciale de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice, inclusiv pentru limitările tehnice privind reutilizarea și utilizarea măsurilor de securitate și de protejare a vieții private de ultimă generație, cum ar fi pseudonimizarea , sau criptarea în cazul în care anonimizarea poate afecta în mod semnificativ scopul urmărit.

5.   În măsura în care acest lucru este strict necesar pentru a asigura detectarea și corectarea negativă a erorilor sistematice în legătură cu sistemele de IA cu grad ridicat de risc, furnizorii de astfel de sisteme pot prelucra în mod excepțional categoriile speciale de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice, inclusiv pentru limitările tehnice privind reutilizarea și utilizarea măsurilor de securitate și de protejare a vieții private de ultimă generație . În special, pentru ca această prelucrare să aibă loc, se aplică toate condițiile următoare:

(a)

detectarea și corectarea părtinirilor nu poate fi realizată în mod eficace prin prelucrarea datelor sintetice sau anonimizate;

 

(b)

datele sunt pseudonimizate;

 

(c)

furnizorul ia măsurile tehnice și organizatorice adecvate pentru a se asigura că datele prelucrate în sensul prezentului alineat sunt securizate, protejate, sub rezerva unor garanții adecvate și că numai persoanele autorizate au acces la aceste date cu obligații de confidențialitate adecvate;

 

(d)

datele prelucrate în sensul prezentului alineat nu trebuie transmise, transferate sau accesate în alt mod de către alte părți;

 

(e)

datele prelucrate în sensul prezentului alineat sunt protejate prin măsuri tehnice și organizatorice adecvate și sunt șterse după ce au fost corectate părtinirile sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;

 

(f)

există măsuri eficace și adecvate pentru a asigura disponibilitatea, securitatea și reziliența sistemelor și serviciilor de prelucrare împotriva incidentelor tehnice sau fizice;

 

(g)

există măsuri eficace și adecvate pentru a asigura securitatea fizică a locurilor în care sunt stocate și prelucrate datele, guvernanța și gestionarea internă a sistemelor informatice și a securității informatice, certificarea proceselor și a produselor;

 

furnizorii care recurg la această dispoziție întocmesc o documentație în care explică de ce a fost necesară prelucrarea unor categorii speciale de date cu caracter personal pentru a detecta și a corecta părtinirile.

Amendamentul 291

Propunere de regulament

Articolul 10 – alineatul 6 a (nou)

Textul propus de Comisie

Amendamentul

 

6a.     În cazul în care furnizorul nu poate respecta obligațiile prevăzute la prezentul articol deoarece furnizorul respectiv nu are acces la date, iar datele sunt deținute exclusiv de implementator, implementatorul poate fi tras la răspundere, pe baza unui contract, pentru orice încălcare a prezentului articol.

Amendamentul 292

Propunere de regulament

Articolul 11 – alineatul 1 – paragraful 1

Textul propus de Comisie

Amendamentul

Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezentul capitol și să furnizeze autorităților naționale competente și organismelor notificate toate informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV.

Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezentul capitol și să furnizeze autorităților naționale de supraveghere și organismelor notificate informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV sau, în cazul IMM-urilor și al întreprinderilor nou-înființate, orice documentație echivalentă care îndeplinește aceleași obiective, sub rezerva aprobării de către autoritatea națională competentă .

Amendamentul 293

Propunere de regulament

Articolul 11 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care un sistem de IA cu grad ridicat de risc legat de un produs, căruia i se aplică actele juridice enumerate în anexa II secțiunea A, este introdus pe piață sau pus în funcțiune, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute în anexa IV , precum și informațiile solicitate în temeiul respectivelor acte juridice.

2.   În cazul în care un sistem de IA cu grad ridicat de risc legat de un produs, căruia i se aplică actele juridice enumerate în anexa II secțiunea A, este introdus pe piață sau pus în funcțiune, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute la alineatul (1) , precum și informațiile solicitate în temeiul respectivelor acte juridice.

Amendamentul 294

Propunere de regulament

Articolul 11 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     Furnizorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează documentația tehnică ca parte a documentației privind guvernanța internă, modalitățile, procesele și mecanismele interne, în conformitate cu articolul 74 din directiva respectivă.

Amendamentul 295

Propunere de regulament

Articolul 12 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacități care permit înregistrarea automată a evenimentelor („fișiere de jurnalizare”) în timpul funcționării sistemelor de IA cu grad ridicat de risc. Aceste capacități de jurnalizare sunt conforme cu standardele recunoscute sau cu specificațiile comune.

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacități care permit înregistrarea automată a evenimentelor („fișiere de jurnalizare”) în timpul funcționării sistemelor de IA cu grad ridicat de risc. Aceste capacități de jurnalizare sunt conforme cu stadiul actual al tehnologiei și cu standardele recunoscute sau cu specificațiile comune.

Amendamentul 296

Propunere de regulament

Articolul 12 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Capacitățile de jurnalizare asigură un nivel de trasabilitate a funcționării sistemului de IA pe parcursul întregului său ciclu de viață, care este adecvat scopului preconizat al sistemului.

2.    Pentru a asigura un nivel de trasabilitate a funcționării sistemului de IA pe parcursul întregii sale durate de viață, care este adecvat scopului preconizat al sistemului , capacitățile de jurnalizare facilitează monitorizarea operațiunilor menționate la articolul 29 alineatul (4), precum și monitorizarea ulterioară introducerii pe piață menționată la articolul 61 . În special, acestea permit înregistrarea evenimentelor relevante pentru identificarea situațiilor care pot:

 

(a)

avea ca urmare riscuri prezentate de sistemul de IA în sensul articolului 65 alineatul (1); sau

 

(b)

conduce la o modificare substanțială a sistemului de IA.

Amendamentul 297

Propunere de regulament

Articolul 12 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate cu capacitățile de jurnalizare care permit înregistrarea consumului de energie, măsurarea sau calcularea utilizării resurselor și a impactului asupra mediului al sistemului de IA cu grad ridicat de risc în toate etapele ciclului de viață al sistemului.

Amendamentul 298

Propunere de regulament

Articolul 12 – alineatul 3

Textul propus de Comisie

Amendamentul

3.     În special, capacitățile de jurnalizare permit monitorizarea funcționării sistemului de IA cu grad ridicat de risc în ceea ce privește apariția situațiilor care pot avea ca rezultat un sistem de IA care prezintă un risc în sensul articolului 65 alineatul (1) sau care pot conduce la o modificare substanțială, și facilitează monitorizarea ulterioară introducerii pe piață menționată la articolul 61.

eliminat

Amendamentul 299

Propunere de regulament

Articolul 13 – titlu

Textul propus de Comisie

Amendamentul

Transparența și furnizarea de informații utilizatorilor

Transparența și furnizarea de informații

Amendamentul 300

Propunere de regulament

Articolul 13 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite utilizatorilor să interpreteze rezultatele sistemului și le utilizeze în mod corespunzător . Se asigură un tip și un grad adecvat de transparență , în vederea respectării obligațiilor relevante ale utilizatorului și ale furnizorului prevăzute în capitolul 3 din prezentul titlu.

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a  le permite furnizorilor și utilizatorilor înțeleagă în mod rezonabil funcționarea sistemului . Se asigură o transparență adecvată în concordanță cu scopul preconizat al sistemului de IA , în vederea respectării obligațiilor relevante ale furnizorului și ale utilizatorului prevăzute în capitolul 3 din prezentul titlu.

 

Prin urmare, transparența înseamnă că, la momentul introducerii pe piață a sistemului de IA cu grad ridicat de risc, sunt folosite toate mijloacele tehnice disponibile în conformitate cu stadiul actual al tehnologiei general recunoscut pentru a se asigura faptul că rezultatul sistemului de IA poate fi interpretat de către furnizor și utilizator. Utilizatorul are posibilitatea de a înțelege și de a folosi sistemul de IA în mod corespunzător, cunoscând, în general, cum funcționează sistemul de IA și ce date prelucrează, permițându-i-se utilizatorului să explice persoanei afectate deciziile luate de sistemul de IA în temeiul articolului 68 litera (c).

Amendamentul 301

Propunere de regulament

Articolul 13 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare într-un format digital adecvat sau în alte moduri , care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru utilizatori.

2.   Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare inteligibile într-un format digital adecvat sau puse în alt fel la dispoziție pe un suport durabil , care includ informații concise, corecte, clare și, în măsura posibilului, complete, ce ajută la operarea și întreținerea sistemului de IA și ajută utilizatorii să ia decizii în cunoștință de cauză și, într-o măsură rezonabilă, sunt relevante, accesibile și ușor de înțeles pentru utilizatori.

Amendamentul 302

Propunere de regulament

Articolul 13 – alineatul 3 – partea introductivă

Textul propus de Comisie

Amendamentul

3.   Informațiile menționate la alineatul (2) precizează:

3.    Pentru a se obține rezultatele menționate la alineatul (1), informațiile menționate la alineatul(2) precizează:

Amendamentul 303

Propunere de regulament

Articolul 13 – alineatul 3 – litera a

Textul propus de Comisie

Amendamentul

(a)

identitatea și datele de contact ale furnizorului și, după caz, ale reprezentantului său autorizat ;

(a)

identitatea și datele de contact ale furnizorului și, după caz, ale reprezentanților săi autorizați ;

Amendamentul 304

Propunere de regulament

Articolul 13 – alineatul 3 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

în cazul în care aceasta nu este aceeași cu furnizorul, identitatea și datele de contact ale entității care a efectuat evaluarea conformității și, după caz, ale reprezentantului său autorizat;

Amendamentul 305

Propunere de regulament

Articolul 13 – alineatul 3 – litera b – partea introductivă

Textul propus de Comisie

Amendamentul

(b)

caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv:

(b)

caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv , după caz :

Amendamentul 306

Propunere de regulament

Articolul 13 – alineatul 3 – litera b – punctul ii

Textul propus de Comisie

Amendamentul

(ii)

nivelul de acuratețe, robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;

(ii)

nivelul de acuratețe, robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță clar cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;

Amendamentul 307

Propunere de regulament

Articolul 13 – alineatul 3 – litera b – punctul iii

Textul propus de Comisie

Amendamentul

(iii)

orice circumstanță cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale ;

(iii)

orice circumstanță clar cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță , pentru drepturile fundamentale sau pentru mediu, inclusiv, după caz, exemple ilustrative de astfel de limitări și de scenarii în care sistemul nu ar trebui să fie folosit ;

Amendamentul 308

Propunere de regulament

Articolul 13 – alineatul 3 – litera b – punctul iii a (nou)

Textul propus de Comisie

Amendamentul

 

(iiia)

măsura în care sistemul de IA poate oferi o explicație pentru deciziile pe care le ia;

Amendamentul 309

Propunere de regulament

Articolul 13 – alineatul 3 – litera b – punctul v

Textul propus de Comisie

Amendamentul

(v)

după caz , specificațiile pentru datele de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA.

(v)

informații relevante despre acțiunile utilizatorului care ar putea influența performanța sistemului , inclusiv tipul sau calitatea datelor de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA.

Amendamentul 310

Propunere de regulament

Articolul 13 – alineatul 3 – litera e

Textul propus de Comisie

Amendamentul

(e)

durata de viață preconizată a sistemului de IA cu grad ridicat de risc și orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului.

(e)

orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului , pe durata sa de viață preconizată .

Amendamentul 311

Propunere de regulament

Articolul 13 – alineatul 3 – litera ea (nouă)

Textul propus de Comisie

Amendamentul

 

(ea)

o descriere a mecanismelor incluse în sistemul de IA care să permită utilizatorilor să colecteze, să stocheze și să interpreteze în mod corespunzător fișierele de jurnalizare în conformitate cu articolul 12 alineatul (1).

Amendamentul 312

Propunere de regulament

Articolul 13 – alineatul 3 – litera eb (nouă)

Textul propus de Comisie

Amendamentul

 

(eb)

Aceste informații sunt furnizate cel puțin în limba țării în care este folosit sistemul de IA.

Amendamentul 313

Propunere de regulament

Articolul 13 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     Pentru a respecta obligațiile prevăzute la prezentul articol, furnizorii și utilizatorii asigură un nivel suficient de alfabetizare în domeniul IA în conformitate cu articolul 4b.

Amendamentul 314

Propunere de regulament

Articolul 14 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât, inclusiv cu instrumente adecvate de interfață om-mașină, să poată fi supravegheate în mod eficace de către persoanele fizice în perioada în care este utilizat sistemul de IA.

1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât, inclusiv cu instrumente adecvate de interfață om-mașină, să fie supravegheate în mod eficace de către persoanele fizice în mod proporțional cu riscurile asociate sistemelor în cauză. Persoanele fizice responsabile cu asigurarea supravegherii umane au un nivel suficient de alfabetizare în domeniul IA în conformitate cu articolul 4b și dispun de sprijinul și autoritatea necesare pentru a exercita această funcție, în perioada în care este utilizat sistemul de IA , și pentru a permite investigarea amănunțită după un incident .

Amendamentul 315

Propunere de regulament

Articolul 14 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță sau pentru drepturile fundamentale, care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, în special atunci când astfel de riscuri persistă în pofida aplicării altor cerințe prevăzute în prezentul capitol.

2.   Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță, drepturile fundamentale sau mediu care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, în special atunci când astfel de riscuri persistă în pofida aplicării altor cerințe prevăzute în prezentul capitol și în cazul în care deciziile bazate exclusiv pe prelucrarea automatizată de către sistemele de AI produc efecte juridice sau în alt mod semnificative asupra persoanelor sau grupurilor de persoane în legătură cu care urmează să fie folosit sistemul .

Amendamentul 316

Propunere de regulament

Articolul 14 – alineatul 3 – partea introductivă

Textul propus de Comisie

Amendamentul

3.   Supravegherea umană se asigură prin una dintre sau prin toate următoarele măsuri:

3.   Supravegherea umană ține seama de riscurile specifice, de nivelul de automatizare și de contextul sistemului de IA și se asigură prin una dintre sau prin toate următoarele tipuri de măsuri:

Amendamentul 317

Propunere de regulament

Articolul 14 – alineatul 4 – partea introductivă

Textul propus de Comisie

Amendamentul

4.    Măsurile menționate la alineatul  (3) permit persoanelor cărora li se încredințează supravegherea umană următoarele acțiuni , în funcție de circumstanțe:

4.    În scopul punerii în aplicare a alineatelor (1)- (3) , sistemul de IA cu grad ridicat de risc este pus la dispoziția utilizatorului astfel încât persoanelor fizice cărora li se încredințează supravegherea umană să li se permită , în funcție de circumstanțe și proporțional cu acestea, următoarele :

Amendamentul 318

Propunere de regulament

Articolul 14 – alineatul 4 – litera a

Textul propus de Comisie

Amendamentul

(a)

să înțeleagă pe deplin capacitățile și limitările sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;

(a)

conștientizeze și să înțeleagă într-o măsură suficientă capacitățile și limitările relevante ale sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;

Amendamentul 319

Propunere de regulament

Articolul 14 – alineatul 4 – litera e

Textul propus de Comisie

Amendamentul

(e)

să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare.

(e)

să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare care să permită sistemului să se oprească în condiții de siguranță, cu excepția cazului în care intervenția umană crește riscurile sau ar avea un impact negativ asupra performanței, ținând seama de stadiul actual al tehnologiei general recunoscut .

Amendamentul 320

Propunere de regulament

Articolul 14 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), măsurile menționate la alineatul (3) sunt de așa natură încât să asigure că, în plus, utilizatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepția cazului în care acest lucru a fost verificat și confirmat de cel puțin două persoane fizice.

5.   În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), măsurile menționate la alineatul (3) sunt de așa natură încât să asigure că, în plus, utilizatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepția cazului în care acest lucru a fost verificat și confirmat de cel puțin două persoane fizice care au competența, pregătirea și autoritatea necesare .

Amendamentul 321

Propunere de regulament

Articolul 15 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Sistemele de IA cu grad ridicat de risc sunt concepute și dezvoltate astfel încât, având în vedere scopul lor preconizat, să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică și să funcționeze în mod consecvent în aceste privințe pe parcursul întregului lor ciclu de viață.

1.   Sistemele de IA cu grad ridicat de risc sunt concepute și dezvoltate în conformitate cu principiul securității din faza de proiectare și în mod implicit. Având în vedere scopul lor preconizat, acestea ar trebui să atingă un nivel adecvat de acuratețe, robustețe , siguranță și securitate cibernetică și să funcționeze în mod consecvent în aceste privințe pe parcursul întregului lor ciclu de viață. Respectarea acestor cerințe include punerea în aplicare a unor măsuri de ultimă generație, în funcție de segmentul de piață sau de domeniul de aplicare specific.

Amendamentul 322

Propunere de regulament

Articolul 15 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Pentru a aborda aspectele tehnice ale modului de măsurare a nivelurilor adecvate de acuratețe și robustețe prevăzute la alineatul (1) de la prezentul articol, Oficiul pentru IA reunește autorități naționale și internaționale din domeniul metrologiei și al analizei comparative și oferă orientări fără caracter obligatoriu cu privire la această chestiune, astfel cum se prevede la articolul 56 alineatul (2) litera (a).

Amendamentul 323

Propunere de regulament

Articolul 15 – alineatul 1 b (nou)

Textul propus de Comisie

Amendamentul

 

1b.     Pentru a aborda orice problemă emergentă în cadrul pieței interne în ceea ce privește securitatea cibernetică, Agenția Uniunii Europene pentru Securitate Cibernetică (ENISA) este implicată alături de Comitetul european pentru inteligența artificială, astfel cum se prevede la articolul 56 alineatul (2) litera (b).

Amendamentul 324

Propunere de regulament

Articolul 15 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Nivelurile de acuratețe și indicatorii de precizie relevanți ai sistemelor de IA cu grad ridicat de risc se declară în instrucțiunile de utilizare aferente.

2.   Nivelurile de acuratețe și indicatorii de precizie relevanți ai sistemelor de IA cu grad ridicat de risc se declară în instrucțiunile de utilizare aferente. Limbajul utilizat este clar, fără confuzii sau afirmații înșelătoare.

Amendamentul 325

Propunere de regulament

Articolul 15 – alineatul 3 – paragraful 1

Textul propus de Comisie

Amendamentul

Sistemele de IA cu grad ridicat de risc sunt reziliente în ceea ce privește erorile, defecțiunile sau incoerențele care pot apărea în cadrul sistemului sau în mediul în care funcționează sistemul, în special din cauza interacțiunii lor cu persoane fizice sau cu alte sisteme.

Se iau măsuri tehnice și organizatorice pentru a asigura că sistemele de IA cu grad ridicat de risc sunt cât mai reziliente posibil în ceea ce privește erorile, defecțiunile sau incoerențele care pot apărea în cadrul sistemului sau în mediul în care funcționează sistemul, în special din cauza interacțiunii lor cu persoane fizice sau cu alte sisteme.

Amendamentul 326

Propunere de regulament

Articolul 15 – alineatul 3 – paragraful 2

Textul propus de Comisie

Amendamentul

Robustețea sistemelor de IA cu grad ridicat de risc poate fi asigurată prin soluții tehnice redundante, care pot include planuri de rezervă sau de autoprotecție.

Robustețea sistemelor de IA cu grad ridicat de risc poate fi asigurată de către furnizorul corespunzător, cu contribuția utilizatorului, dacă este necesar, prin soluții tehnice redundante, care pot include planuri de rezervă sau de autoprotecție în caz de defecțiune .

Amendamentul 327

Propunere de regulament

Articolul 15 – alineatul 3 – paragraful 3

Textul propus de Comisie

Amendamentul

Sistemele de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune sunt dezvoltate astfel încât să se asigure că eventualele rezultate părtinitoare din cauza rezultatelor utilizate ca date de intrare pentru operațiunile viitoare („bucle de feedback”) sunt abordate în mod corespunzător prin măsuri de atenuare adecvate.

Sistemele de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune sunt dezvoltate astfel încât să se asigure că eventualele rezultate părtinitoare care influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”) și manipularea răuvoitoare a datelor de intrare utilizate în învățarea în timpul funcționării sunt preîntâmpinate corespunzător prin măsuri de atenuare adecvate.

Amendamentul 328

Propunere de regulament

Articolul 15 – alineatul 4 – paragraful 1

Textul propus de Comisie

Amendamentul

Sistemele de IA cu grad ridicat de risc sunt reziliente în ceea ce privește încercările unor părți terțe neautorizate de a le modifica utilizarea sau performanța prin exploatarea vulnerabilităților sistemului.

Sistemele de IA cu grad ridicat de risc sunt rezistente la încercările unor părți terțe neautorizate de a le modifica utilizarea , comportamentul, rezultatele sau performanța prin exploatarea vulnerabilităților sistemului.

Amendamentul 329

Propunere de regulament

Articolul 15 – alineatul 4 – paragraful 3

Textul propus de Comisie

Amendamentul

Soluțiile tehnice pentru abordarea vulnerabilităților specifice ale IA includ, după caz, măsuri de prevenire și control al atacurilor ce vizează manipularea setului de date de antrenament („data poisoning”), date de intrare concepute să determine modelul să facă o greșeală („exemple contradictorii”) sau defecte ale modelului.

Soluțiile tehnice pentru abordarea vulnerabilităților specifice ale IA includ, după caz, măsuri de prevenire , detectare, răspuns, soluționare și control în legătură cu atacurile ce vizează manipularea setului de date de antrenament („data poisoning”) sau a componentelor antrenate în prealabil utilizate la antrenament („model poisoning”) , cu datele de intrare concepute să determine modelul să facă o greșeală („exemple contradictorii” sau „eludarea modelelor” ) , cu atacurile la adresa confidențialității sau cu defectele modelului , care ar putea duce la un proces decizional dăunător .

Amendamentul 330

Propunere de regulament

Titlul III – capitolul 3 – titlu

Textul propus de Comisie

Amendamentul

OBLIGAȚIILE FURNIZORILOR ȘI UTILIZATORILOR DE SISTEME DE IA CU GRAD RIDICAT DE RISC și ale altor părți

OBLIGAȚIILE FURNIZORILOR ȘI OPERATORILOR DE SISTEME DE IA CU GRAD RIDICAT DE RISC ȘI ALE ALTOR PĂRȚI

Amendamentul 331

Propunere de regulament

Articolul 16 – titlu

Textul propus de Comisie

Amendamentul

Obligațiile furnizorilor de sisteme de IA cu grad ridicat de risc

Obligațiile furnizorilor și operatorilor de sisteme de IA cu grad ridicat de risc și ale altor părți

Amendamentul 332

Propunere de regulament

Articolul 16 – paragraful 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

se asigură că sistemele lor de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;

(a)

se asigură că sistemele lor de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu înainte de a le introduce pe piață sau de a le pune în funcțiune ;

Amendamentul 333

Propunere de regulament

Articolul 16 – paragraful 1 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

își indică numele, denumirea comercială înregistrată sau marca înregistrată și adresa și informațiile de contact pe sistemul de IA cu grad ridicat de risc sau, dacă acest lucru nu este posibil, pe ambalaj sau în documentele care îl însoțesc, după caz;

Amendamentul 334

Propunere de regulament

Articolul 16 – paragraful 1 – litera ab (nouă)

Textul propus de Comisie

Amendamentul

 

(ab)

se asigură că persoanele fizice cărora li se încredințează supravegherea umană a sistemelor de IA cu grad ridicat de risc sunt informate special de riscul de încredere oarbă în automatizare și de prejudecata de confirmare;

Amendamentul 335

Propunere de regulament

Articolul 16 – paragraful 1 – litera ac (nouă)

Textul propus de Comisie

Amendamentul

 

(ac)

furnizează specificații pentru datele de intrare sau orice altă informație relevantă pentru seturile de date utilizate, inclusiv limitările și ipotezele de lucru ale acestora, ținând seama de scopul urmărit și de utilizările necorespunzătoare previzibile și previzibile rezonabil ale sistemului de IA;

Amendamentul 336

Propunere de regulament

Articolul 16 – paragraful 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

întocmesc documentația tehnică a sistemului de IA cu grad ridicat de risc;

(c)

întocmesc și păstrează documentația tehnică a sistemului de IA cu grad ridicat de risc menționată la articolul 11 ;

Amendamentul 337

Propunere de regulament

Articolul 16 – paragraful 1 – litera d

Textul propus de Comisie

Amendamentul

(d)

atunci când acest lucru este sub controlul lor, păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc;

(d)

atunci când acest lucru este sub controlul lor, păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc care sunt necesare pentru a asigura și demonstra conformitatea cu prezentul regulament, în conformitate cu articolul 20 ;

Amendamentul 338

Propunere de regulament

Articolul 16 – paragraful 1 – litera e

Textul propus de Comisie

Amendamentul

(e)

se asigură că sistemul de IA cu grad ridicat de risc este supus procedurii relevante de evaluare a conformității, înainte de introducerea sa pe piață sau de punerea sa în funcțiune ;

(e)

se asigură că sistemul de IA cu grad ridicat de risc este supus procedurii relevante de evaluare a conformității, înainte de a fi introdus pe piață sau pus în funcțiune, în conformitate cu articolul 43 ;

Amendamentul 339

Propunere de regulament

Articolul 16 – paragraful 1 – litera ea (nouă)

Textul propus de Comisie

Amendamentul

 

(ea)

elaborează o declarație de conformitate UE în conformitate cu articolul 48;

Amendamentul 340

Propunere de regulament

Articolul 16 – paragraful 1 – litera eb (nouă)

Textul propus de Comisie

Amendamentul

 

(eb)

aplică marcajul CE pe sistemul lor de IA cu risc ridicat pentru a indica conformitatea cu prezentul regulament în conformitate cu articolul 49;

Amendamentul 341

Propunere de regulament

Articolul 16 – paragraful 1 – litera g

Textul propus de Comisie

Amendamentul

(g)

iau măsurile corective necesare , în cazul în care sistemul de IA cu grad ridicat de risc nu este în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu ;

(g)

ia măsurile corective necesare menționate la articolul 21 și furnizează informații în acest sens ;

Amendamentul 342

Propunere de regulament

Articolul 16 – paragraful 1 – litera h

Textul propus de Comisie

Amendamentul

(h)

informează autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau au pus în funcțiune sistemul de IA și, după caz, organismul notificat cu privire la neconformitate și la orice măsură corectivă luată;

eliminat

Amendamentul 343

Propunere de regulament

Articolul 16 – paragraful 1 – litera i

Textul propus de Comisie

Amendamentul

(i)

aplică marcajul CE pe sistemele lor de IA cu risc ridicat pentru a indica conformitatea cu prezentul regulament în conformitate cu articolul 49;

eliminat

Amendamentul 344

Propunere de regulament

Articolul 16 – paragraful 1 – litera j

Textul propus de Comisie

Amendamentul

(j)

la cererea unei autorități naționale competente , demonstrează conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu.

(j)

la cererea motivată a unei autorități naționale de supraveghere , demonstrează conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu.

Amendamentul 345

Propunere de regulament

Articolul 16 – paragraful 1 – litera ja (nouă)

Textul propus de Comisie

Amendamentul

 

(ja)

garantează că sistemul de IA cu grad ridicat de risc respectă cerințele de accesibilitate.

Amendamentul 346

Propunere de regulament

Articolul 17 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Furnizorii de sisteme de IA cu grad ridicat de risc instituie un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acest sistem este documentat în mod sistematic și ordonat sub formă de politici, proceduri și instrucțiuni scrise și include cel puțin următoarele aspecte :

1.   Furnizorii de sisteme de IA cu grad ridicat de risc dispun de un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acesta ține evidențe documentare sistematic și ordonat sub formă de politici, proceduri sau instrucțiuni scrise și poate fi incorporat într-un sistem existent de management al calității, conform cu actele legislative ale Uniunii în domeniu. Sistemul cuprinde cel puțin următoarele elemente :

Amendamentul 347

Propunere de regulament

Articolul 17 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

o strategie pentru conformitatea cu reglementările, inclusiv conformitatea cu procedurile de evaluare a conformității și cu procedurile de gestionare a modificărilor aduse sistemului de IA cu grad ridicat de risc;

eliminat

Amendamentul 348

Propunere de regulament

Articolul 17 – alineatul 1 – litera e

Textul propus de Comisie

Amendamentul

(e)

specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;

(e)

specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral sau nu acoperă toate cerințele relevante , mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;

Amendamentul 349

Propunere de regulament

Articolul 17 – alineatul 1 – litera f

Textul propus de Comisie

Amendamentul

(f)

sisteme și proceduri pentru gestionarea datelor, inclusiv colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;

(f)

sisteme și proceduri pentru gestionarea datelor, inclusiv obținerea datelor, colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;

Amendamentul 350

Propunere de regulament

Articolul 17 – alineatul 1 – litera j

Textul propus de Comisie

Amendamentul

(j)

gestionarea comunicării cu autoritățile naționale competente , cu autoritățile competente , inclusiv cu cele sectoriale , care furnizează sau sprijină accesul la date, cu organismele notificate, cu alți operatori, cu clienți sau cu alte părți interesate ;

(j)

gestionarea comunicării cu autoritățile naționale competente în domeniu , inclusiv cu cele sectoriale;

Amendamentul 351

Propunere de regulament

Articolul 17 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Punerea în aplicare a aspectelor menționate la alineatul (1) este proporțională cu dimensiunea organizației furnizorului.

2.   Punerea în aplicare a aspectelor menționate la alineatul (1) este proporțională cu dimensiunea organizației furnizorului. Furnizorii respectă, indiferent de situație, gradul de rigoare și nivelul de protecție necesar pentru a avea siguranța că sistemele lor de IA sunt conforme cu prezentul regulament.

Amendamentul 352

Propunere de regulament

Articolul 18 – titlu

Textul propus de Comisie

Amendamentul

Obligația de a întocmi documentația tehnică

eliminat

Amendamentul 353

Propunere de regulament

Articolul 18 – alineatul 1

Textul propus de Comisie

Amendamentul

1.     Furnizorii de sisteme de IA cu grad ridicat de risc întocmesc documentația tehnică menționată la articolul 11 în conformitate cu anexa IV.

eliminat

Amendamentul 354

Propunere de regulament

Articolul 18 – alineatul 2

Textul propus de Comisie

Amendamentul

2.     Furnizorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează documentația tehnică ca parte a documentației privind guvernanța internă, modalitățile, procesele și mecanismele interne, în conformitate cu articolul 74 din directiva respectivă.

eliminat

Amendamentul 355

Propunere de regulament

Articolul 19

Textul propus de Comisie

Amendamentul

Articolul 19

eliminat

Evaluarea conformității

 

1.     Furnizorii de sisteme de IA cu grad ridicat de risc se asigură că sistemele lor sunt supuse procedurii relevante de evaluare a conformității potrivit articolului 43, înainte de introducerea lor pe piață sau de punerea lor în funcțiune. În cazul în care conformitatea sistemelor de IA cu cerințele prevăzute în capitolul 2 din prezentul titlu a fost demonstrată în urma respectivei evaluări a conformității, furnizorii întocmesc o declarație de conformitate UE potrivit articolului 48 și aplică marcajul CE de conformitate potrivit articolului 49.

 

2.     Pentru sistemele de IA cu grad ridicat de risc menționate la punctul 5 litera (b) din anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care sunt instituții de credit reglementate de Directiva 2013/36/UE, evaluarea conformității se efectuează în cadrul procedurii menționate la articolele 97-101 din directiva respectivă.

 

Amendamentul 356

Propunere de regulament

Articolul 20 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Furnizorii de sisteme de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii. Fișierele de jurnalizare se păstrează pentru o perioadă adecvată având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc și obligațiile legale aplicabile în temeiul dreptului Uniunii sau al dreptului intern .

1.   Furnizorii de sisteme de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor . Fără a aduce atingere dreptului unional sau național aplicabil, înregistrările se păstrează o perioadă de cel puțin 6 luni. Perioada de păstrare este în conformitate cu standardele sectoriale și este adecvată scopului urmărit de sistemul de IA cu grad ridicat de risc .

Amendamentul 357

Propunere de regulament

Articolul 21 – paragraful 1

Textul propus de Comisie

Amendamentul

Furnizorii de sisteme de IA cu grad ridicat de risc care consideră sau au motive să considere că un sistem de IA cu grad ridicat de risc pe care l-au introdus pe piață ori pe care l-au pus în funcțiune nu este în conformitate cu prezentul regulament întreprind imediat acțiunile corective necesare pentru ca sistemul să fie adus în conformitate sau să fie retras sau rechemat, după caz. Aceștia informează în acest sens distribuitorii sistemului de IA cu grad ridicat de risc respectiv și, dacă este cazul, reprezentantul autorizat și importatorii.

Furnizorii de sisteme de IA cu grad ridicat de risc care consideră sau au motive să considere că un sistem de IA cu grad ridicat de risc pe care l-au introdus pe piață ori pe care l-au pus în funcțiune nu este în conformitate cu prezentul regulament întreprind imediat acțiunile corective necesare pentru ca sistemul să fie adus în conformitate sau să fie retras, dezactivat sau rechemat, după caz.

 

În cazurile menționate la primul paragraf, furnizorii informează imediat:

 

(a)

distribuitorii;

 

(b)

importatorii;

 

(c)

autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau în funcțiune sistemul de IA; și

 

(d)

dacă se poate, operatorul

Amendamentul 358

Propunere de regulament

Articolul 21 – paragraful 1 a (nou)

Textul propus de Comisie

Amendamentul

 

Furnizorii informează și eventualul reprezentant autorizat, dacă a fost desemnat în conformitate cu articolul 25, și organismul notificat dacă sistemul de IA cu grad ridicat de risc a trebuit să treacă printr-o evaluare a conformității făcută de o parte terță în conformitate cu articolul 43. După caz, investighează și cauzele în colaborare cu operatorul.

Amendamentul 359

Propunere de regulament

Articolul 22 – paragraful 1

Textul propus de Comisie

Amendamentul

În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), iar riscul respectiv este cunoscut de furnizorul sistemului , furnizorul respectiv informează imediat autoritățile naționale competente din statele membre în care a pus la dispoziție sistemul și, după caz, organismul notificat care a eliberat un certificat pentru sistemul de IA cu grad ridicat de risc, în special cu privire la neconformitate și la orice acțiune corectivă întreprinsă.

În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), iar furnizorul sistemului ia cunoștință de riscul respectiv , furnizorul respectiv informează imediat autoritățile naționale de supraveghere din statele membre în care a pus la dispoziție sistemul și, după caz, organismul notificat care a eliberat un certificat pentru sistemul de IA cu grad ridicat de risc, în special cu privire la natura neconformității și la orice acțiune corectivă de substanță întreprinsă.

Amendamentul 360

Propunere de regulament

Articolul 22 – paragraful 1 a (nou)

Textul propus de Comisie

Amendamentul

 

În cazurile menționate la primul paragraf, furnizorii de sisteme IA cu grad ridicat de risc informează imediat:

 

(a)

distribuitorii;

 

(b)

importatorii;

 

(c)

autoritățile naționale competente ale statelor membre în care au pus la dispoziție sau în funcțiune sistemul de IA; și

 

(d)

în măsura posibilităților, operatorii.

Amendamentul 361

Propunere de regulament

Articolul 22 – paragraful 1 b (nou)

Textul propus de Comisie

Amendamentul

 

Furnizorii informează și reprezentantul autorizat dacă a fost desemnat un astfel de reprezentant în conformitate cu articolul 25.

Amendamentul 362

Propunere de regulament

Articolul 23 – titlu

Textul propus de Comisie

Amendamentul

Cooperarea cu autoritățile competente

Cooperarea cu autoritățile competente , cu Oficiul și cu Comisia

Amendamentul 363

Propunere de regulament

Articolul 23 – paragraful 1

Textul propus de Comisie

Amendamentul

La cererea unei autorități naționale competente, furnizorii de sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația necesară pentru a demonstra conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă oficială a Uniunii stabilită de statul membru în cauză. Pe baza unei cereri motivate a unei autorități naționale competente, furnizorii oferă, de asemenea, autorității respective acces la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii.

La cererea motivată a unei autorități naționale competente sau, dacă este cazul, a Oficiului pentru IA sau a Comisiei , furnizorii și, dacă este cazul, operatorii de sisteme de IA cu grad ridicat de risc le furnizează toate informațiile și documentația necesară pentru a demonstra conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă oficială a Uniunii stabilită de statul membru în cauză.

Amendamentul 364

Propunere de regulament

Articolul 23 – paragraful 1 a (nou)

Textul propus de Comisie

Amendamentul

 

La cererea motivată a unei autorități naționale competente sau, dacă este cazul, a Comisiei, furnizorii și, dacă este cazul, utilizatorii oferă, de asemenea, autorității naționale competente care a făcut cererea sau Comisiei, după caz, acces la jurnalele generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care jurnalele respective se află sub controlul lor.

Amendamentul 365

Propunere de regulament

Articolul 23 – paragraful 1 b (nou)

Textul propus de Comisie

Amendamentul

 

Toate informațiile obținute de o autoritate națională competentă sau de Comisie în temeiul dispozițiilor de la prezentul articol sunt considerate secret comercial și tratate în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.

Amendamentul 366

Propunere de regulament

Articolul 25 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Înainte de a-și pune la dispoziție sistemele pe piața Uniunii, în cazul în care un importator nu poate fi identificat, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.

1.   Înainte de a-și pune la dispoziție sistemele pe piața Uniunii, furnizorii stabiliți în afara Uniunii desemnează, prin mandat scris, un reprezentant autorizat stabilit în Uniune.

Amendamentul 367

Propunere de regulament

Articolul 25 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Reprezentantul legal are reședința sau este stabilit în unul dintre statele membre în care se desfășoară activitățile în temeiul articolului 2 alineatele (1cb).

Amendamentul 368

Propunere de regulament

Articolul 25 – alineatul 1 b (nou)

Textul propus de Comisie

Amendamentul

 

1b.     Operatorul îl mandatează pe reprezentantul său legal cu prerogativele și resursele necesare pentru a-și îndeplini sarcinile în temeiul prezentului regulament.

Amendamentul 369

Propunere de regulament

Articolul 25 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   Reprezentantul autorizat îndeplinește sarcinile prevăzute în mandatul primit de la furnizor. Mandatul autorizează reprezentantul autorizat să îndeplinească următoarele sarcini:

2.   Reprezentantul autorizat îndeplinește sarcinile prevăzute în mandatul primit de la furnizor. Acesta furnizează autorităților de supraveghere a pieței, la cerere, o copie a mandatului, într-una din limbile oficiale ale Uniunii stabilită de autoritatea națională competentă. În scopul prezentului regulament, mandatul îl autorizează pe reprezentantul autorizat să îndeplinească următoarele sarcini:

Amendamentul 370

Propunere de regulament

Articolul 25 – alineatul 2 – litera a

Textul propus de Comisie

Amendamentul

(a)

păstreze o copie a declarației de conformitate UE și a documentației tehnice la dispoziția autorităților naționale competente și a autorităților naționale menționate la articolul 63 alineatul (7) ;

(a)

se asigure că au fost întocmite declarația de conformitate UE și documentația tehnică și că furnizorul a efectuat o procedură corespunzătoare de evaluare a conformității ;

Amendamentul 371

Propunere de regulament

Articolul 25 – alineatul 2 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

să țină la dispoziția autorităților naționale competente și a autorităților naționale menționate la articolul 63 alineatul (7), o copie a declarației de conformitate UE, a documentației tehnice și, dacă este cazul, a certificatului eliberat de organismul notificat;

Amendamentul 372

Propunere de regulament

Articolul 25 – alineatul 2 – litera b

Textul propus de Comisie

Amendamentul

(b)

să furnizeze unei autorități naționale competente, pe baza unei cereri motivate, toate informațiile și documentele necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii ;

(b)

să furnizeze la cererea motivată a unei autorități naționale competente toate informațiile și documentele necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului;

Amendamentul 373

Propunere de regulament

Articolul 25 – alineatul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

să coopereze cu autoritățile naționale competente , pe baza unei cereri motivate, cu privire la orice acțiune întreprinsă de acestea din urmă în legătură cu sistemul de IA cu grad ridicat de risc.

(c)

să coopereze cu autoritățile naționale de supraveghere , dacă i se adresează o cerere motivată în acest sens, la orice acțiune întreprinsă de autoritate pentru a reduce și a atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.

Amendamentul 374

Propunere de regulament

Articolul 25 – alineatul 2 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

după caz, să respecte obligațiile de înregistrare menționate la articolul 51 sau, dacă înregistrarea este făcută chiar de furnizor, să verifice că informațiile menționate la punctul 3 din anexa VIII sunt corecte.

Amendamentul 375

Propunere de regulament

Articolul 25 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     În afara sau în locul operatorului, autoritatea națională de supraveghere sau autoritățile naționale competente pot să se adreseze reprezentantului legal mandatat cu referire la toate aspectele legate de asigurarea conformității cu prezentul regulament.

Amendamentul 376

Propunere de regulament

Articolul 25 – alineatul 2 b (nou)

Textul propus de Comisie

Amendamentul

 

2b.     Reprezentantul autorizat își reziliază mandatul dacă consideră sau are motive să considere că furnizorul acționează contrar obligațiilor care îi revin în temeiul prezentului regulament. Într-un astfel de caz, el informează imediat autoritatea națională de supraveghere din statul membru în care este stabilit, precum și, după caz, organismul notificat relevant, că și-a reziliat mandatul și din ce motive.

Amendamentul 377

Propunere de regulament

Articolul 26 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Înainte de introducerea pe piață a unui sistem de IA cu grad ridicat de risc, importatorii unui astfel de sistem se asigură că :

1.   Înainte de introducerea pe piață a unui sistem de IA cu grad ridicat de risc, importatorii unui astfel de sistem veghează ca respectivul sistem să fie conform prezentului regulament, asigurându-se că :

Amendamentul 378

Propunere de regulament

Articolul 26 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

procedura corespunzătoare de evaluare a conformității a fost efectuată de furnizorul sistemului de IA respectiv;

(a)

procedura aplicabilă de evaluare a conformității prevăzută la articolul 43 a fost efectuată de furnizorul sistemului de IA;

Amendamentul 379

Propunere de regulament

Articolul 26 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

furnizorul a întocmit documentația tehnică în conformitate cu anexa IV;

(b)

furnizorul a întocmit documentația tehnică în conformitate cu articolul 11 și cu anexa IV;

Amendamentul 380

Propunere de regulament

Articolul 26 – alineatul 1 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

dacă este cazul, furnizorul a desemnat un reprezentant autorizat în conformitate cu articolul 25 alineatul (1).

Amendamentul 381

Propunere de regulament

Articolul 26 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care un importator consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu prezentul regulament , acesta nu introduce sistemul respectiv pe piață înainte ca sistemul de IA respectiv să devină conform . În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), importatorul informează în acest sens furnizorul sistemului de IA și autoritățile de supraveghere a pieței.

2.   În cazul în care un importator consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu prezentul regulament sau că este contrafăcut ori însoțit de documentație falsificată, nu introduce sistemul respectiv pe piață înainte ca sistemul de IA respectiv să reintre în conformitate . În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), importatorul informează în acest sens furnizorul sistemului de IA și autoritățile de supraveghere a pieței.

Amendamentul 382

Propunere de regulament

Articolul 26 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Importatorii indică pe sistemul de IA cu grad ridicat de risc numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată și adresa la care pot fi contactați sau, dacă acest lucru nu este posibil, pe ambalaj sau în documentele care îl însoțesc, după caz .

3.   Importatorii indică pe sistemul de IA cu grad ridicat de risc și pe ambalaj sau în documentele care îl însoțesc, după caz, numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată și adresa la care pot fi contactați.

Amendamentul 383

Propunere de regulament

Articolul 26 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Importatorii furnizează autorităților naționale competente, pe baza unei cereri motivate , toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă care poate fi ușor înțeleasă de autoritatea națională competentă respectivă , inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în temeiul unui acord contractual cu utilizatorul sau în alt mod în temeiul legii. De asemenea, aceștia cooperează cu autoritățile respective cu privire la orice acțiune întreprinsă de autoritatea națională competentă în legătură cu sistemul respectiv.

5.   Importatorii furnizează la cererea motivată a autorităților naționale competente , toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, într-o limbă care poate fi ușor înțeleasă de autoritățile respective , inclusiv accesul la fișierele de jurnalizare generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului în conformitate cu articolul 20 .

Amendamentul 384

Propunere de regulament

Articolul 26 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Importatorii cooperează cu autoritățile naționale competente la orice acțiune întreprinsă de autoritățile respective pentru a reduce și atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.

Amendamentul 385

Propunere de regulament

Articolul 27 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Înainte de a pune la dispoziție pe piață un sistem de IA cu grad ridicat de risc, distribuitorii verifică dacă sistemul de IA cu grad ridicat de risc poartă marcajul CE de conformitate necesar, dacă este însoțit de documentația și instrucțiunile de utilizare necesare și dacă furnizorul și importatorul sistemului, după caz, au respectat obligațiile prevăzute în prezentul regulament.

1.   Înainte de a pune la dispoziție pe piață un sistem de IA cu grad ridicat de risc, distribuitorii verifică dacă sistemul de IA cu grad ridicat de risc poartă marcajul CE de conformitate necesar, dacă este însoțit de documentația și instrucțiunile de utilizare necesare și dacă furnizorul și importatorul sistemului, după caz, și-au respectat obligațiile prevăzute în prezentul regulament , la articolele 16 și, respectiv, 26 .

Amendamentul 386

Propunere de regulament

Articolul 27 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care un distribuitor consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, acesta nu pune la dispoziție pe piață sistemul de IA cu grad ridicat de risc înainte ca sistemul respectiv să fie adus în conformitate cu cerințele respective. În plus, în cazul în care sistemul prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează furnizorul sau importatorul sistemului, după caz, în acest sens.

2.   În cazul în care consideră sau are motive să considere , pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, un distribuitor nu pune la dispoziție pe piață sistemul de IA cu grad ridicat de risc înainte ca sistemul respectiv să fie adus în conformitate cu cerințele respective. În plus, în cazul în care sistemul prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează furnizorul sau importatorul sistemului și autoritatea națională competentă de resort , după caz, în acest sens.

Amendamentul 387

Propunere de regulament

Articolul 27 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Un distribuitor care consideră sau are motive să considere că un sistem de IA cu grad ridicat de risc pe care l-a pus la dispoziție pe piață nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu ia măsurile corective necesare pentru a aduce sistemul în conformitate cu cerințele respective, pentru a-l retrage sau pentru a-l rechema sau se asigură că furnizorul, importatorul sau orice operator relevant, după caz, ia măsurile corective respective. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează imediat în acest sens autoritățile naționale competente din statele membre în care a pus la dispoziție pe piață produsul, indicând detaliile , în special cu privire la neconformitate și la orice măsură corectivă luată.

4.   Un distribuitor care consideră sau are motive să considere , pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc pe care l-a pus la dispoziție pe piață nu este în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu ia măsurile corective necesare pentru a aduce sistemul în conformitate cu cerințele respective, pentru a-l retrage sau pentru a-l rechema sau se asigură că furnizorul, importatorul sau orice operator relevant, după caz, ia măsurile corective respective. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 65 alineatul (1), distribuitorul informează imediat în acest sens furnizorul sau importatorul sistemului și autoritățile naționale competente din statele membre în care a pus la dispoziție pe piață produsul, oferind informații detaliate , în special despre neconformitate și orice măsură corectivă luată.

Amendamentul 388

Propunere de regulament

Articolul 27 – alineatul 5

Textul propus de Comisie

Amendamentul

5.    Pe baza unei cereri motivate a unei autorități naționale competente, distribuitorii de sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația necesare pentru a demonstra conformitatea unui sistem cu risc ridicat cu cerințele prevăzute în capitolul 2 din prezentul titlu. Distribuitorii cooperează, de asemenea, cu autoritatea națională competentă respectivă cu privire la orice acțiune întreprinsă de autoritatea respectivă.

5.    La cererea motivată a unei autorități naționale competente, distribuitorii sistemului de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația aflate în posesia sau la dispoziția lor, în conformitate cu obligațiile distribuitorilor, prevăzute la alineatul (1), care sunt necesare pentru a demonstra conformitatea unui sistem cu risc ridicat cu cerințele prevăzute în capitolul 2 din prezentul titlu.

Amendamentul 389

Propunere de regulament

Articolul 27 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Importatorii cooperează cu autoritățile naționale competente la orice acțiune întreprinsă de autoritățile respective pentru a reduce și atenua riscurile reprezentate de sistemul de IA cu grad ridicat de risc.

Amendamentul 390

Propunere de regulament

Articolul 28 – titlu

Textul propus de Comisie

Amendamentul

Obligațiile distribuitorilor , importatorilor , utilizatorilor sau ale oricărei alte părți terțe

Responsabilitățile de-a lungul lanțului valoric al IA de furnizori , distribuitori , importatori, operatori sau alte părți terțe

Amendamentul 391

Propunere de regulament

Articolul 28 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Se consideră că orice distribuitor, importator, utilizator sau altă parte terță este furnizor în sensul prezentului regulament și este supus obligațiilor care revin furnizorului în temeiul articolului 16, în oricare dintre următoarele situații:

1.   Se consideră că orice distribuitor, importator, operator sau altă parte terță este furnizor al unui sistem de IA cu grad ridicat de risc în sensul prezentului regulament și este supus obligațiilor care îi revin furnizorului în temeiul articolului 16, în oricare dintre următoarele situații:

Amendamentul 392

Propunere de regulament

Articolul 28 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

introduc pe piață sau pun în funcțiune un sistem de IA cu grad ridicat de risc sub denumirea sau marca lor comercială ;

(a)

își pun numele sau marca comercială pe un sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune ;

Amendamentul 393

Propunere de regulament

Articolul 28 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

modifică scopul preconizat al unui sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune;

(b)

modifică substanțial un sistem de IA cu grad ridicat de risc care a fost deja introdus pe piață sau pus în funcțiune , astfel încât rămâne un sistem de IA cu grad ridicat de risc în conformitate cu articolul 6 ;

Amendamentul 394

Propunere de regulament

Articolul 28 – alineatul 1 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

modifică substanțial un sistem de IA, inclusiv un sistem IA de uz general, care nu a fost clasificat ca fiind cu risc ridicat și a fost deja introdus pe piață sau pus în funcțiune, astfel încât sistemul de IA să devină un sistem IA cu risc ridicat în conformitate cu articolul 6;

Amendamentul 395

Propunere de regulament

Articolul 28 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care se produc circumstanțele menționate la alineatul (1) litera  ( b ) sau ( c ), furnizorul care a introdus inițial pe piață sau a pus în funcțiune sistemul de IA cu grad ridicat de risc nu mai este considerat furnizor în sensul prezentului regulament.

2.   În cazul în care se produc circumstanțele menționate la alineatul (1) literele ( a )-( ba ), furnizorul care a introdus inițial pe piață sau a pus în funcțiune sistemul de IA nu mai este considerat furnizorul acelui sistem IA anume în sensul prezentului regulament. Acest fost furnizor furnizează noului furnizor documentația tehnică și toate celelalte materiale informative relevante care pot fi rezonabil pretinse despre sistemul de IA, accesul tehnic sau alte tipuri de asistență pe baza stadiului actual al tehnologiei general recunoscut care sunt necesare pentru a îndeplini obligațiile prevăzute în prezentul regulament.

 

Prezentul alineat se aplică, de asemenea, furnizorilor de modele de bază, definite la articolul 3, atunci când modelul de bază este integrat direct într-un sistem de IA cu grad ridicat de risc.

Amendamentul 396

Propunere de regulament

Articolul 28 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Furnizorul unui sistem de IA cu grad ridicat de risc și partea terță care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sistemul de IA cu grad ridicat de risc specifică, printr-un acord scris, pe baza tehnologiei de ultimă oră general recunoscute, informațiile, capacitățile, accesul tehnic și sau alte tipuri de asistență pe care partea terță trebuie să le furnizeze pentru a permite furnizorului sistemului de IA cu risc ridicat să respecte întru totul obligațiile prevăzute în prezentul regulament.

 

Comisia elaborează și recomandă clauze contractuale model fără caracter obligatoriu între furnizorii de sisteme de IA cu grad ridicat de risc și părțile terțe care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sisteme de IA cu grad ridicat de risc, pentru a ajuta ambele părți să redacteze și să negocieze contracte cu drepturi și obligații contractuale echilibrate, în concordanță cu nivelul de control al fiecărei părți. Atunci când elaborează modele de clauze contractuale fără caracter obligatoriu, Comisia ia în considerare eventualele cerințe contractuale aplicabile în anumite sectoare sau situații economice. Clauzele contractuale fără caracter obligatoriu se publică și sunt disponibile gratuit, într-un format electronic ușor de utilizat, pe site-ul web al oficiului pentru IA.

Amendamentul 397

Propunere de regulament

Articolul 28 – alineatul 2 b (nou)

Textul propus de Comisie

Amendamentul

 

2b.     În sensul prezentului articol, secretele comerciale sunt protejate și se divulgă numai dacă se iau înainte toate măsurile speciale necesare în temeiul Directivei (UE) 2016/943 pentru a le păstra confidențialitatea, în special față de părți terțe. La nevoie, pot fi convenite acorduri tehnice și organizatorice adecvate pentru a proteja drepturile de proprietate intelectuală sau secretele comerciale.

Amendamentul 398

Propunere de regulament

Articolul 28 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 28a

 

Clauze contractuale abuzive impuse unilateral unui IMM sau unei întreprinderi nou înființate

 

1.     O clauză contractuală privind furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc sau măsurile reparatorii pentru încălcarea sau rezilierea obligațiilor conexe impuse unilateral de o întreprindere unui IMM sau unei întreprinderi nou-înființate nu sunt obligatorii pentru acesta/aceasta din urmă dacă sunt abuzive.

 

2.     O clauză contractuală nu este considerată abuzivă dacă decurge din dreptul aplicabil al Uniunii.

 

3.     O clauză contractuală este abuzivă dacă este de așa natură încât afectează obiectiv capacitatea părții căreia i-a fost impusă unilateral de a-și proteja interesul comercial legitim față de informațiile în cauză sau aplicarea sa se abate grosolan de la bunele practici comerciale în furnizarea de instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc, contravine bunei-credințe și comportamentului onest sau creează un dezechilibru semnificativ între drepturile și obligațiile părților la contract. O clauză contractuală este abuzivă și dacă are ca efect transferarea sancțiunilor menționate la articolul 71 sau a cheltuielilor de judecată aferente între părțile la contract, așa cum se menționează la articolul 71 alineatul (8).

 

4.     O clauză contractuală este abuzivă în sensul prezentului articol dacă obiectul sau efectul său este:

 

(a)

să excludă sau să limiteze răspunderea părții care a impus-o unilateral în caz de acte intenționate sau neglijență gravă;

 

(b)

să excludă măsurile reparatorii de care dispune partea căreia i-a fost impusă unilateral în caz de neexecutare a obligațiilor contractuale sau să excludă răspunderea părții care a impus-o unilateral în caz de încălcare a respectivelor obligații;

 

(c)

să acorde părții care a impus-o unilateral dreptul exclusiv de a stabili dacă datele furnizate sunt conforme cu contractul sau de a interpreta orice clauză a contractului.

 

5.     Se consideră că o clauză contractuală este impusă unilateral în înțelesul prezentului articol dacă a fost propusă de o parte contractantă, fără ca cealaltă parte contractantă să fi fost în măsură să îi influențeze conținutul, cu toate că a încercat să o negocieze. Sarcina de a dovedi că o clauză nu a fost impusă unilateral îi revine părții contractante care a propus clauza contractuală respectivă.

 

6.     În cazul în care clauza contractuală abuzivă poate fi disociată de celelalte clauze ale contractului, acestea din urmă rămân obligatorii. Partea care a propus clauza contestată nu poate invoca caracterul abuziv al clauzei respective.

 

7.     Prezentul articol se aplică tuturor contractelor noi încheiate după … [data intrării în vigoare a prezentului regulament]. Companiile revizuiesc obligațiile contractuale existente care intră sub incidența prezentului regulament în termen de …[trei ani de la data intrării în vigoare a prezentului regulament].

 

8.     Având în vedere rapiditatea cu care apar inovații pe piețe, lista clauzelor contractuale abuzive prevăzută la articolul 28a este revizuită periodic de Comisie și, dacă este necesar, adaptată la noile practici comerciale.

Amendamentul 399

Propunere de regulament

Articolul 28 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 28b

 

Obligațiile furnizorului unui model de bază

 

1.     Înainte de a-l pune la dispoziție pe piață sau de a-l pune în funcțiune, furnizorul unui model de bază verifică că modelul este conform cu cerințele prevăzute la prezentul articol, indiferent dacă este furnizat ca model de sine stătător sau încorporat într-un sistem de IA sau într-un produs sau furnizat sub licențe gratuite și cu sursă deschisă, ca serviciu, precum și alte canale de distribuție.

 

2.     În sensul alineatului (1), furnizorul unui model de bază:

 

(a)

demonstrează, prin proiectare, testare și analiză corespunzătoare, că a identificat, redus și atenuat riscurile care se pot prevedea în mod rezonabil pentru sănătate, siguranță, drepturile fundamentale, mediu, democrație și statul de drept, înainte și pe tot parcursul dezvoltării, cu metode adecvate, ca, de pildă, implicarea experților independenți, și că a indicat în documentație riscurile rămase care nu pot fi atenuate după dezvoltare;

 

(b)

prelucrează și încorporează numai seturi de date care fac obiectul unor măsuri adecvate de guvernanță a datelor pentru modelele de bază, în special măsuri care examinează cât de adecvate sunt sursele de date, dacă prezintă riscuri de părtinire și dacă aceste riscuri sunt atenuate corespunzător;

 

(c)

proiectează și dezvoltă modelul de bază astfel încât să obțină, pe parcursul întregului său ciclu de viață, niveluri adecvate de performanță, previzibilitate, interpretare, corectabilitate, siguranță și securitate cibernetică evaluate prin metode adecvate, ca, de pildă, evaluarea modelului cu implicarea unor experți independenți, analize documentate și serii lungi de teste pe perioada de conceptualizare, proiectare și dezvoltare;

 

(d)

proiectează și dezvoltă modelul de bază, utilizând standarde aplicabile pentru a reduce consumul de energie și cantitate de resurse și deșeuri și pentru a mări eficiența energetică și eficiența generală a sistemului, fără a aduce atingere legislației relevante existente la nivelul Uniunii și la nivel național. Această obligație nu se aplică înainte de a se publica standardele menționate la articolul 40. Modelele de bază sunt proiectate cu capacități care permit măsurarea și înregistrarea consumului de energie și de resurse și, în măsura posibilităților tehnice, a altor efecte asupra mediului pe care le-ar putea avea implementarea și utilizarea sistemelor pe întreaga lor durată de viață.

 

(e)

elaborează o documentație tehnică cuprinzătoare și instrucțiuni de utilizare inteligibile, pentru ca furnizorii din aval să își poată respecta obligațiile care le revin în temeiul articolului 16 și al articolului 28 alineatul (1);

 

(f)

instaurează un sistem de management al calității pentru a asigura și a atesta cu documente conformitatea cu prezentul articol, cu posibilitatea de a testa diferite metode pentru îndeplinirea acestei cerințe;

 

(g)

înregistrează modelul de bază respectiv în baza de date a UE menționată la articolul 60, în conformitate cu instrucțiunile prevăzute în anexa VIII litera C.

 

La îndeplinirea acestor cerințe, se ține seama de stadiul actual al tehnologiei general recunoscut, care se reflectă inclusiv în standarde armonizate sau în specificații comune aplicabile, dar și de metodele de ultimă oră de evaluare și măsurare, reflectate în special în instrucțiunile și capacitățile de evaluare comparativă menționate la articolul 58a;

 

3.     O perioadă de 10 ani după ce a fost introdus pe piață sau pus în funcțiune sistemul lor de IA, furnizorii păstrează documentația tehnică menționată la alineatul (2) litera (e) la dispoziția autorităților naționale competente:

 

4.     Furnizorii de modele de bază folosite în sistemele de IA destinate expres să genereze, cu diferite niveluri de autonomie, conținut precum texte, imagini, materiale audio sau video complexe („IA generativă”) și furnizorii care specializează un model de bază într-un sistem de IA generativ trebuie, în plus:

 

(a)

să respecte obligațiile de transparență prevăzute la articolul 52 alineatul (1);

 

(b)

să antreneze și, după caz, să proiecteze și să dezvolte modelul de bază astfel încât să ofere garanții adecvate că nu produce conținut care încalcă dreptul Uniunii, în conformitate cu stadiul actual al tehnologiei general recunoscut și fără a aduce atingere drepturilor fundamentale, inclusiv libertății de exprimare;

 

(c)

fără a aduce atingere legislației unionale sau naționale privind drepturile de autor, documentează și pun la dispoziția publicului un rezumat suficient de detaliat al modului în care sunt utilizate datele de antrenament protejate în virtutea legislației privind drepturile de autor.

Amendamentul 400

Propunere de regulament

Articolul 29 – alineatul 1

Textul propus de Comisie

Amendamentul

1.    Utilizatorii sistemelor de IA cu grad ridicat de risc utilizează astfel de sisteme în conformitate cu instrucțiunile de utilizare care însoțesc sistemele, în temeiul alineatelor (2) și (5).

1.    Operatorii sistemelor de IA cu grad ridicat de risc iau măsuri tehnice și organizatorice corespunzătoare pentru a oferi siguranța că utilizează astfel de sisteme în conformitate cu instrucțiunile de utilizare care însoțesc sistemele, în temeiul alineatelor (2) și (5) de la prezentul articol .

Amendamentul 401

Propunere de regulament

Articolul 29 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     În măsura în care exercită controlul asupra sistemului de IA cu grad ridicat de risc, operatorii

 

(i)

asigură supraveghere umană în acord cu cerințele stabilite în prezentul regulament;

 

(ii)

se asigură că persoanele fizice însărcinate cu supravegherea umană a sistemelor IA cu grad ridicat de risc sunt competente, calificate și instruite corespunzător și dispun de resursele necesare pentru a asigura supravegherea riguroasă a sistemului de IA în conformitate cu articolul 14.

 

(iii)

dispun să se monitorizeze periodic cât sunt de eficiente, relevante și potrivite măsurile luate pentru robustețea și securitatea cibernetică a sistemului și le ajustează sau actualizează periodic.

Amendamentul 402

Propunere de regulament

Articolul 29 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Obligațiile de la alineatul  (1) nu aduc atingere altor obligații ale utilizatorilor în temeiul dreptului Uniunii sau al dreptului intern și nici libertății utilizatorului de a-și organiza propriile resurse și activități în scopul punerii în aplicare a măsurilor de supraveghere umană indicate de furnizor.

2.   Obligațiile de la alineatele  (1) și (1a) nu aduc atingere altor obligații ale operatorilor în temeiul dreptului Uniunii sau al dreptului intern și nici libertății operatorului de a-și organiza propriile resurse și activități în scopul punerii în aplicare a măsurilor de supraveghere umană indicate de furnizor.

Amendamentul 403

Propunere de regulament

Articolul 29 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Fără a aduce atingere alineatului  (1), în măsura în care utilizatorul exercită controlul asupra datelor de intrare, utilizatorul respectiv se asigură că datele de intrare sunt relevante având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc.

3.   Fără a aduce atingere alineatelor (1) și (2a) , în măsura în care exercită controlul asupra datelor de intrare, operatorul se asigură că datele de intrare sunt relevante și suficient de reprezentative în raport cu scopul preconizat al sistemului de IA cu grad ridicat de risc.

Amendamentul 404

Propunere de regulament

Articolul 29 – alineatul 4 – partea introductivă

Textul propus de Comisie

Amendamentul

4.    Utilizatorii monitorizează funcționarea sistemului de IA cu grad ridicat de risc pe baza instrucțiunilor de utilizare . În cazul în care au motive să considere că utilizarea în conformitate cu instrucțiunile de utilizare poate avea ca rezultat un sistem de IA care prezintă un risc în sensul articolului 65 alineatul (1), aceștia informează furnizorul sau distribuitorul și suspendă utilizarea sistemului. De asemenea, aceștia informează furnizorul sau distribuitorul atunci când au identificat orice incident grav sau orice funcționare defectuoasă în sensul articolului 62 și întrerup utilizarea sistemului de IA. În cazul în care utilizatorul nu poate comunica cu furnizorul, articolul 62 se aplică mutatis mutandis.

4.    Operatorii monitorizează funcționarea sistemului de IA cu grad ridicat de risc pe baza instrucțiunilor de utilizare și, dacă este cazul , informează furnizorii în conformitate cu articolul 61. Dacă au motive să considere că utilizarea în conformitate cu instrucțiunile de utilizare poate atrage după sine un risc în funcționarea sistemului de IA în sensul articolului 65 alineatul (1), operatorii informează fără întârzieri nejustificate furnizorul sau distribuitorul și autoritățile naționale de supraveghere de resort și suspendă utilizarea sistemului. De asemenea, ei informează imediat mai întâi furnizorul , și apoi importatorul sau distribuitorul și autoritățile naționale de supraveghere de resort atunci când identifică orice incident grav sau orice funcționare defectuoasă în sensul articolului 62 și întrerup utilizarea sistemului de IA. În cazul în care operatorul nu poate intra în contact cu furnizorul, articolul 62 se aplică mutatis mutandis.

Amendamentul 405

Propunere de regulament

Articolul 29 – alineatul 4 – paragraful 1

Textul propus de Comisie

Amendamentul

În cazul utilizatorilor care sunt instituții de credit reglementate prin Directiva 2013/36/UE, se consideră că obligația de monitorizare prevăzută la primul paragraf este îndeplinită prin respectarea normelor privind mecanismele, procesele și măsurile de guvernanță internă în temeiul articolului 74 din directiva respectivă.

În cazul operatorilor care sunt instituții de credit reglementate prin Directiva 2013/36/UE, se consideră că obligația de monitorizare prevăzută la primul paragraf este îndeplinită prin respectarea normelor privind mecanismele, procesele și măsurile de guvernanță internă în temeiul articolului 74 din directiva respectivă.

Amendamentul 406

Propunere de regulament

Articolul 29 – alineatul 5 – partea introductivă

Textul propus de Comisie

Amendamentul

5.    Utilizatorii sistemelor de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de respectivul sistem de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor . Fișierele de jurnalizare se păstrează pentru o perioadă adecvată având în vedere scopul preconizat al sistemului de IA cu grad ridicat de risc și obligațiile legale aplicabile în temeiul dreptului Uniunii sau al dreptului intern .

5.    Operatorii sistemelor de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de respectivul sistem de IA cu grad ridicat de risc, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor și sunt necesare pentru asigurarea și demonstrarea conformității cu prezentul regulament, pentru auditurile ex post ale oricărei defecțiuni, oricărui incident sau oricărei utilizări necorespunzătoare ale sistemului previzibile rezonabil sau pentru asigurarea și monitorizarea funcționării corespunzătoare a sistemului pe parcursul întregului său ciclu de viață. Fără a aduce atingere dreptului unional sau național aplicabil, înregistrările se păstrează o perioadă de cel puțin șase luni. Perioada de păstrare este în conformitate cu standardele sectoriale și corespunde scopului urmărit de sistemul de IA cu grad ridicat de risc .

Amendamentul 407

Propunere de regulament

Articolul 29 – alineatul 5 – paragraful 1

Textul propus de Comisie

Amendamentul

Utilizatorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează fișierele de jurnalizare ca parte a documentației privind mecanismele, procesele și măsurile de guvernanță interne, în conformitate cu articolul 74 din directiva respectivă.

Operatorii care sunt instituții de credit reglementate de Directiva 2013/36/UE păstrează fișierele de jurnalizare ca parte a documentației privind mecanismele, procesele și măsurile de guvernanță interne, în conformitate cu articolul 74 din directiva respectivă.

Amendamentul 408

Propunere de regulament

Articolul 29 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Înainte de a pune în funcțiune sau de a utiliza un sistem de IA la locul de muncă, operatorii se consultă cu reprezentanții lucrătorilor cu intenția de a ajunge la un acord în conformitate cu Directiva 2002/14/CE și informează angajații afectați că vor face obiectul sistemului.

Amendamentul 409

Propunere de regulament

Articolul 29 – alineatul 5 b (nou)

Textul propus de Comisie

Amendamentul

 

5b.     Operatorii sistemelor de IA cu grad ridicat de risc care sunt autorități publice sau instituții, organe, oficii și agenții ale Uniunii sau întreprinderi la care se face trimitere la articolul 51 alineatul (1a) litera (b) respectă obligațiile de înregistrare menționate la articolul 51.

Amendamentul 410

Propunere de regulament

Articolul 29 – alineatul 6

Textul propus de Comisie

Amendamentul

6.    Utilizatorii de sisteme de IA cu grad ridicat de risc utilizează informațiile furnizate în temeiul articolului 13 pentru a-și respecta obligația de a efectua o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, după caz .

6.    După caz, operatorii de sisteme de IA cu grad ridicat de risc utilizează informațiile furnizate în temeiul articolului 13 pentru a-și respecta obligația de a efectua o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, și publică un rezumat al evaluării respective, ținând cont de utilizarea dată și de contextul specific în care sistemul de IA este prevăzut să funcționeze. Operatorii pot reveni parțial la respectivele evaluări ale impactului asupra protecției datelor pentru a-și îndeplini unele dintre obligațiile prevăzute la prezentul articol, în măsura în care evaluarea impactului asupra protecției datelor îndeplinește obligațiile respective.

Amendamentul 411

Propunere de regulament

Articolul 29 – alineatul 6 a (nou)

Textul propus de Comisie

Amendamentul

 

6a.     Fără a afecta dispozițiile de la articolul 52, operatorii de sisteme de IA cu grad ridicat de risc menționate în anexa III, care iau decizii sau contribuie la luarea deciziilor referitoare la persoane fizice, informează persoanele fizice că fac obiectul utilizării sistemului de IA cu grad ridicat de risc. Aceste informații includ tipul de sistem de IA utilizat, scopul urmărit și tipul de decizii pe care le ia. Operatorul informează persoana fizică și despre dreptul său la o explicație menționat la articolul 68c.

Amendamentul 412

Propunere de regulament

Articolul 29 – alineatul 6 b (nou)

Textul propus de Comisie

Amendamentul

 

6b.     Operatorii cooperează cu autoritățile naționale competente de resort la orice acțiune întreprinsă de respectivele autorități în legătură cu un sistem de IA cu grad ridicat de risc pentru a pune în aplicare prezentul regulament.

Amendamentul 413

Propunere de regulament

Articolul 29 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 29a

 

Evaluarea impactului sistemelor de IA cu grad ridicat de risc asupra drepturilor fundamentale

 

Înainte de a pune în funcțiune un sistem de IA cu grad ridicat de risc, definit la articolul 6 alineatul (2), exceptând sistemele de IA destinate a fi utilizate în domeniul 2 de la Anexa III, operatorii evaluează impactul sistemului în contextul specific al utilizării. Această evaluare cuprinde cel puțin următoarele elemente:

 

(a)

o descriere clară a scopului urmărit în care va fi utilizat sistemul;

 

(b)

o descriere clară a ariei de cuprindere geografice și temporale în care va fi utilizat sistemul;

 

(c)

categoriile de persoane fizice și grupuri susceptibile de a fi afectate de utilizarea sistemului;

 

(d)

verificarea conformității utilizării sistemului cu dreptul Uniunii și cu dreptul național aplicabil, precum și cu legislația privind drepturile fundamentale;

 

(e)

impactul previzibil în mod rezonabil al utilizării sistemului de IA cu grad ridicat de risc asupra drepturilor fundamentale;

 

(f)

orice potențial prejudiciu care riscă să afecteze persoanele marginalizate sau grupurile vulnerabile;

 

(g)

efectul negativ previzibil în mod rezonabil al utilizării sistemului asupra mediului;

 

(h)

un plan detaliat privind modul în care vor fi atenuate prejudiciile sau impactul negativ identificate asupra drepturilor fundamentale.

 

(j)

sistemul de guvernanță pe care îl va instaura operatorul, inclusiv supravegherea umană, soluționarea plângerilor și măsurile reparatorii.

 

2.     În cazul în care nu poate fi identificat un plan detaliat de atenuare a riscurilor prezentate în cursul evaluării menționate la alineatul (1), operatorul nu pune în funcțiune sistemul de IA cu grad ridicat de risc și informează fără întârzieri nejustificate și autoritatea națională de supraveghere. Autoritățile naționale de supraveghere, în temeiul articolelor 65 și 67, iau în considerare aceste informații când investighează sisteme care atrag după sine un risc la nivel național.

 

3.     Obligația prevăzută la alineatul (1) se aplică primei utilizări a sistemului de IA cu grad ridicat de risc. În cazuri similare, operatorul poate să se bazeze pe o evaluare a impactului asupra drepturilor fundamentale efectuată anterior sau pe o evaluare existentă efectuată de furnizori. Dacă, în timpul utilizării sistemului de IA cu grad ridicat de risc, operatorul consideră că criteriile enumerate la alineatul (1) nu mai sunt îndeplinite, efectuează o nouă evaluare a impactului asupra drepturilor fundamentale.

 

4.     În cursul evaluării impactului, operatorul, cu excepția IMM-urilor, notifică autoritatea națională de supraveghere și părțile interesate relevante și implică cât se poate de mult reprezentanți ai persoanelor sau ai grupurilor de persoane care este probabil să fie afectate de sistemul de IA cu grad ridicat de risc, identificate la alineatul (1), inclusiv, dar fără a se limita la: organisme de promovare a egalității, agenții de protecție a consumatorilor, parteneri sociali și agenții de protecție a datelor, care să își aducă aportul la evaluarea impactului. Operatorul le lasă organismelor o perioadă de șase săptămâni în care să răspundă. IMM-urile pot aplica voluntar dispozițiile prevăzute la prezentul alineat.

 

În cazul menționat la articolul 47 alineatul (1), autoritățile publice pot fi scutite de aceste obligații.

 

5.     Operatorul care este autoritate publică sau o întreprindere de tipul celor menționate la articolul 51 alineatul (1a) litera (b) publică un rezumat al rezultatelor evaluării impactului ca parte a înregistrării utilizării făcute pentru a-și onora obligația care îi revine în temeiul articolului 51 alineatul (2).

 

6.     Dacă operatorului i se solicită deja să efectueze o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, evaluarea impactului asupra drepturilor fundamentale menționată la alineatul (1) se efectuează împreună cu evaluarea impactului asupra protecției datelor. Evaluarea impactului asupra protecției datelor se publică ca addendum.

Amendamentul 414

Propunere de regulament

Articolul 30 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Fiecare stat membru desemnează sau instituie o autoritate de notificare responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora.

1.   Fiecare stat membru desemnează sau instituie o autoritate de notificare responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora. Aceste proceduri sunt elaborate în cooperare între autoritățile de notificare ale tuturor statelor membre.

Amendamentul 415

Propunere de regulament

Articolul 30 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Autoritățile de notificare au la dispoziție personal competent suficient în vederea îndeplinirii corespunzătoare a sarcinilor lor.

7.   Autoritățile de notificare au la dispoziție personal competent suficient în vederea îndeplinirii corespunzătoare a sarcinilor lor. După caz, personalul competent dispune de expertiza necesară, de pildă diplomă de studii într-un domeniu juridic aplicabil, în supravegherea drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii Europene.

Amendamentul 416

Propunere de regulament

Articolul 30 – alineatul 8

Textul propus de Comisie

Amendamentul

8.   Autoritățile de notificare se asigură că evaluările conformității sunt efectuate în mod proporțional, evitând sarcinile inutile pentru furnizori și că organismele notificate își îndeplinesc activitățile ținând seama în mod corespunzător de dimensiunea unei întreprinderi, de sectorul în care aceasta își desfășoară activitatea, de structura sa și de gradul de complexitate al sistemului de IA în cauză.

8.   Autoritățile de notificare se asigură că evaluările conformității sunt efectuate în mod proporțional și la timp , evitând sarcinile inutile pentru furnizori și că organismele notificate își îndeplinesc activitățile ținând seama în mod corespunzător de dimensiunea unei întreprinderi, de sectorul în care aceasta își desfășoară activitatea, de structura sa și de gradul de complexitate al sistemului de IA în cauză. Se acordă o atenție deosebită reducerii la minimum a sarcinilor administrative și a costurilor cu asigurarea conformității pentru microîntreprinderi și întreprinderile mici, potrivit definiției din anexa la Recomandarea 2003/361/CE a Comisiei.

Amendamentul 417

Propunere de regulament

Articolul 32 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Autoritățile de notificare pot notifica numai organismele de evaluare a conformității care au satisfăcut cerințele prevăzute la articolul 33.

1.   Autoritățile de notificare notifică numai organismele de evaluare a conformității care au satisfăcut cerințele prevăzute la articolul 33.

Amendamentul 418

Propunere de regulament

Articolul 32 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Autoritățile de notificare înștiințează Comisia și celelalte state membre folosind instrumentul de notificare electronică dezvoltat și administrat de Comisie.

2.   Autoritățile de notificare înștiințează Comisia și celelalte state membre folosind instrumentul de notificare electronică dezvoltat și administrat de Comisie cu privire la fiecare organism de evaluare a conformității menționat la alineatul (1) .

Amendamentul 419

Propunere de regulament

Articolul 32 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Notificarea include detalii complete ale activităților de evaluare a conformității, ale modulului sau modulelor de evaluare a conformității și ale tehnologiilor din domeniul inteligenței artificiale în cauză.

3.   Notificarea menționată la alineatul (2) include detalii complete ale activităților de evaluare a conformității, ale modulului sau modulelor de evaluare a conformității și ale tehnologiilor din domeniul inteligenței artificiale în cauză , precum și o atestare corespunzătoare a competenței .

Amendamentul 420

Propunere de regulament

Articolul 32 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Organismul de evaluare a conformității în cauză poate exercita activitățile unui organism notificat numai în cazul în care nu există obiecții din partea Comisiei sau a celorlalte state membre, transmise în termen de o lună de la notificare.

4.   Organismul de evaluare a conformității în cauză poate exercita activitățile unui organism notificat numai în cazul în care nu există obiecții din partea Comisiei sau a celorlalte state membre, transmise în termen de două săptămâni de la validarea notificării, în cazul în care cuprinde un certificat de acreditare de tipul menționat la articolul 31 alineatul (2), sau în termen de două luni de la notificare , în cazul în care se includ documentele justificative menționate la articolul 31 alineatul (3) .

Amendamentul 421

Propunere de regulament

Articolul 32 – alineatul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.     În cazul în care se ridică obiecții, Comisia se consultă fără întârziere cu statele membre relevante și cu organismul de evaluare a conformității. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia luată statului membru în cauză și organismului relevant de evaluare a conformității.

Amendamentul 422

Propunere de regulament

Articolul 32 – alineatul 4 b (nou)

Textul propus de Comisie

Amendamentul

 

4b.     Statele membre notifică Comisia și celelalte state membre, specificând organismele de evaluare a conformității.

Amendamentul 423

Propunere de regulament

Articolul 33 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Organismele notificate satisfac cerințele organizatorice, de management al calității, de resurse și de proces care sunt necesare pentru îndeplinirea sarcinilor lor .

2.   Organismele notificate îndeplinesc cerințele organizatorice, de management al calității, de resurse și de procese care sunt necesare pentru a-și îndeplini sarcinile, precum și cerințele minime de securitate cibernetică stabilite pentru entitățile administrației publice identificate ca operatori de servicii esențiale în temeiul Directivei (UE) 2022/2555 .

Amendamentul 424

Propunere de regulament

Articolul 33 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Organismele notificate sunt independente de furnizorul unui sistem de IA cu grad ridicat de risc în legătură cu care efectuează activități de evaluare a conformității. Organismele notificate sunt, de asemenea, independente de orice alt operator care are un interes economic în legătură cu sistemul de IA cu grad ridicat de risc care este evaluat, precum și de orice concurent al furnizorului.

4.   Organismele notificate sunt independente de furnizorul unui sistem de IA cu grad ridicat de risc în legătură cu care efectuează activități de evaluare a conformității. Organismele notificate sunt, de asemenea, independente de orice alt operator care are un interes economic în legătură cu sistemul de IA cu grad ridicat de risc care este evaluat, precum și de orice concurent al furnizorului. Acest lucru nu împiedică utilizarea sistemelor de IA evaluate care sunt necesare pentru operațiunile organismului de evaluare a conformității sau utilizarea sistemelor respective în scopuri personale.

Amendamentul 425

Propunere de regulament

Articolul 33 – alineatul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.     O evaluare a conformității în temeiul alineatului (1) se efectuează de angajații organismelor notificate care în afară de evaluarea conformității nu au furnizat niciun alt serviciu legat de aspectul evaluat furnizorului unui sistem de IA cu grad ridicat de risc sau oricărei alte persoane juridice cu legături cu furnizorul respectiv în perioada de 12 luni anterioară evaluării și s-au angajat să nu le furnizeze astfel de servicii în perioada de 12 luni de după finalizarea evaluării.

Amendamentul 426

Propunere de regulament

Articolul 33 – alineatul 6

Textul propus de Comisie

Amendamentul

6.   Organismele notificate dispun de proceduri documentate care să asigure că personalul său, comitetele, filialele, subcontractanții săi, precum și orice organism asociat sau membru al personalului organismelor externe respectă confidențialitatea informațiilor care le parvin în timpul derulării activităților de evaluare a conformității, cu excepția cazurilor în care divulgarea este cerută prin lege. Personalul organismelor notificate este obligat să păstreze secretul profesional referitor la toate informațiile obținute în cursul îndeplinirii sarcinilor sale în temeiul prezentului regulament, excepție făcând relația cu autoritățile de notificare ale statului membru în care se desfășoară activitățile sale.

6.   Organismele notificate dispun de proceduri documentate care să asigure că personalul său, comitetele, filialele, subcontractanții săi, precum și orice organism asociat sau membru al personalului organismelor externe respectă confidențialitatea informațiilor care le parvin în timpul derulării activităților de evaluare a conformității, cu excepția cazurilor în care divulgarea este cerută prin lege. Personalul organismelor notificate este obligat să păstreze secretul profesional referitor la toate informațiile obținute în cursul îndeplinirii sarcinilor sale în temeiul prezentului regulament, excepție făcând relația cu autoritățile de notificare ale statului membru în care se desfășoară activitățile sale. Toate informațiile și documentele obținute de organismele notificate în temeiul dispozițiilor prezentului articol sunt tratate în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.

Amendamentul 427

Propunere de regulament

Articolul 34 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Activitățile pot fi subcontractate sau îndeplinite de o filială doar cu acordul furnizorului.

3.   Activitățile pot fi subcontractate sau îndeplinite de o filială doar cu acordul furnizorului. Organismele notificate pun la dispoziția publicului o listă a filialelor acestora.

Amendamentul 428

Propunere de regulament

Articolul 34 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Organismele notificate pun la dispoziția autorității de notificare documentele relevante privind evaluarea calificărilor subcontractantului sau ale filialei și privind activitățile îndeplinite de aceștia în temeiul prezentului regulament.

4.   Organismele notificate pun la dispoziția autorității de notificare documentele relevante privind verificarea calificărilor subcontractantului sau ale filialei și privind activitățile îndeplinite de aceștia în temeiul prezentului regulament.

Amendamentul 429

Propunere de regulament

Articolul 35 – titlu

Textul propus de Comisie

Amendamentul

Numerele de identificare și listele organismelor notificate desemnate în temeiul prezentului Regulament

Numerele de identificare și listele organismelor notificate

Amendamentul 430

Propunere de regulament

Articolul 36 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   În cazul în care o autoritate de notificare are suspiciuni sau a fost informată că un organism notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că acesta nu își îndeplinește obligațiile, autoritatea respectivă investighează fără întârziere chestiunea, cu cea mai mare diligență. În acest context, aceasta informează organismul notificat în cauză cu privire la obiecțiile ridicate și îi oferă posibilitatea de a-și face cunoscute punctele de vedere. În cazul în care autoritatea de notificare ajunge la concluzia că organismul notificat investigat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că nu își îndeplinește obligațiile, aceasta restricționează, suspendă sau retrage notificarea, după caz, în funcție de gravitatea încălcării. De asemenea, autoritatea de notificare informează de îndată Comisia și celelalte state membre în consecință.

1.   În cazul în care o autoritate de notificare are suspiciuni sau a fost informată că un organism notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că acesta nu își îndeplinește obligațiile, autoritatea respectivă investighează fără întârziere chestiunea, cu cea mai mare diligență. În acest context, aceasta informează organismul notificat în cauză cu privire la obiecțiile ridicate și îi oferă posibilitatea de a-și face cunoscute punctele de vedere. În cazul în care autoritatea de notificare ajunge la concluzia că organismul notificat nu mai îndeplinește cerințele prevăzute la articolul 33 sau că nu își îndeplinește obligațiile, aceasta restricționează, suspendă sau retrage notificarea, după caz, în funcție de gravitatea încălcării. De asemenea, autoritatea de notificare informează de îndată Comisia și celelalte state membre în consecință.

Amendamentul 431

Propunere de regulament

Articolul 36 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În caz de restricționare, suspendare sau retragere a notificării sau în cazul în care organismul notificat și-a încetat activitatea, autoritatea de notificare ia măsurile adecvate pentru a se asigura că dosarele acelui organism notificat sunt fie preluate de un alt organism notificat, fie sunt puse la dispoziția autorităților de notificare responsabile, la cererea acestora.

2.   În caz de restricționare, suspendare sau retragere a notificării sau în cazul în care organismul notificat și-a încetat activitatea, autoritatea de notificare ia măsurile adecvate pentru a se asigura că dosarele acelui organism notificat sunt fie preluate de un alt organism notificat, fie sunt puse la dispoziția autorităților de notificare responsabile și a autorității de supraveghere a pieței , la cererea acestora.

Amendamentul 432

Propunere de regulament

Articolul 37 – alineatul 1

Textul propus de Comisie

Amendamentul

1.    Dacă este necesar, Comisia investighează toate cazurile în care există motive de îndoială cu privire la îndeplinirea de către un organism notificat a cerințelor prevăzute la articolul 33 .

1.   Comisia investighează toate cazurile în care există motive de îndoială cu privire la competența unui organism notificat sau la capacitatea unui organism notificat de a-și îndeplini în continuare cerințele și responsabilitățile aplicabile .

Amendamentul 433

Propunere de regulament

Articolul 37 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Autoritatea de notificare furnizează Comisiei, la cerere, toate informațiile relevante referitoare la notificarea organismului notificat în cauză.

2.   Autoritatea de notificare furnizează Comisiei, la cerere, toate informațiile relevante referitoare la notificarea sau menținerea competenței organismului notificat în cauză.

Amendamentul 434

Propunere de regulament

Articolul 37 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Comisia se asigură că toate informațiile confidențiale obținute în cursul investigațiilor sale în temeiul prezentului articol sunt tratate în mod confidențial.

3.   Comisia se asigură că toate informațiile sensibile obținute în cursul investigațiilor sale în temeiul prezentului articol sunt tratate în mod confidențial.

Amendamentul 435

Propunere de regulament

Articolul 37 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   În cazul în care Comisia constată că un organism notificat nu îndeplinește sau nu mai îndeplinește cerințele prevăzute la articolul 33 , Comisia adoptă o decizie motivată prin care solicită statului membru notificator să ia măsurile corective necesare, inclusiv retragerea notificării, dacă este necesar. Actul de punere în aplicare respectiv se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).

4.   În cazul în care constată că un organism notificat nu respectă sau nu mai respectă cerințele pentru a fi notificat , Comisia informează statul membru notificator în consecință și solicită acestuia să ia măsurile corective necesare, inclusiv suspendarea sa retragerea notificării, dacă este necesar . În cazul în care statul membru nu ia măsurile corective necesare, Comisia poate, printr-un act de punere în aplicare, să suspende, să restricționeze sau să retragă desemnarea. Actul de punere în aplicare respectiv se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).

Amendamentul 436

Propunere de regulament

Articolul 38 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Comisia se ocupă de organizarea unor schimburi de cunoștințe și bune practici între autoritățile naționale ale statelor membre responsabile cu politica de notificare.

Amendamentul 437

Propunere de regulament

Articolul 40 – paragraful 1

Textul propus de Comisie

Amendamentul

Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu normele armonizate sau cu o parte a acestora, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene, sunt considerate a fi în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu, în măsura în care standardele respective acoperă cerințele respective.

Sistemele de IA cu grad ridicat de risc și modelele de bază care sunt în conformitate cu normele armonizate sau cu o parte a acestora, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene în conformitate cu Regulamentul (UE) 1025/2012 , sunt considerate a fi în conformitate cu cerințele stabilite în capitolul 2 din prezentul titlu sau la articolul 28b , în măsura în care standardele respective acoperă cerințele respective.

Amendamentul 438

Propunere de regulament

Articolul 40 – paragraful 1 a (nou)

Textul propus de Comisie

Amendamentul

 

Comisia publică cereri de standardizare care acoperă toate cerințele prezentului regulament, în conformitate cu articolul 10 din Regulamentul (UE) nr. 1025/2012, în termen de … [șase luni de la data intrării în vigoare a prezentului regulament]. Când pregătește o cerere de standardizare, Comisia se consultă cu Oficiul pentru IA și cu Forumul consultativ pentru IA;

Amendamentul 439

Propunere de regulament

Articolul 40 – paragraful 1 b (nou)

Textul propus de Comisie

Amendamentul

 

Când adresează o cerere de standardizare organizațiilor de standardizare europene, Comisia precizează că standardele trebuie să fie consecvente, inclusiv cu legislația sectorială enumerată în anexa II, și menite să asigure că sistemele de IA sau modelele de bază de IA introduse pe piață sau puse în funcțiune în Uniune îndeplinesc cerințele relevante prevăzute în prezentul regulament;

Amendamentul 440

Propunere de regulament

Articolul 40 – paragraful 1 c (nou)

Textul propus de Comisie

Amendamentul

 

Actorii implicați în procesul de standardizare țin seama de principiile generale pentru o IA de încredere, prevăzute la articolul 4 litera a), urmăresc să promoveze investițiile și inovarea în IA, precum și competitivitatea și creșterea pieței Uniunii și contribuie la cooperarea mai strânsă la nivel mondial în materie de standardizare și ținând seama de standardele internaționale existente în domeniul IA care sunt concordante cu valorile, drepturile fundamentale și interesele Uniunii și asigură o reprezentare echilibrată a intereselor și participarea efectivă a tuturor părților interesate relevante, în conformitate cu articolele 5, 6 și 7 din Regulamentul (UE) nr. 1025/2012.

Amendamentul 441

Propunere de regulament

Articolul 41 – alineatul 1

Textul propus de Comisie

Amendamentul

1.     În cazul în care normele armonizate menționate la articolul 40 nu există sau în cazul în care Comisia consideră că normele armonizate relevante sunt insuficiente sau că este necesar să se abordeze preocupări specifice legate de siguranță sau de drepturile fundamentale, Comisia poate adopta, prin intermediul unor acte de punere în aplicare, specificații comune în ceea ce privește cerințele prevăzute în capitolul 2 din prezentul titlu. Actele de punere în aplicare respective se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).

eliminat

Amendamentul 442

Propunere de regulament

Articolul 41 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Comisia poate, printr-un act de punere în aplicare adoptat în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2) și după ce se consultă cu Oficiul pentru IA și cu Forumul consultativ pentru IA, să adopte specificații comune pentru cerințele prevăzute în capitolul 2 din prezentul titlu sau la articolul 28b, în cazul în care sunt îndeplinite toate condițiile următoare:

 

(a)

nu există nicio trimitere la standarde armonizate deja publicate în Jurnalul Oficial al Uniunii Europene referitoare la cerința (cerințele) esențială (esențiale), cu excepția cazului în care standardul armonizat în cauză este un standard existent care trebuie revizuit;

 

(b)

Comisia a solicitat uneia sau mai multor organizații europene de standardizare să elaboreze un standard armonizat pentru cerințele esențiale prevăzute la capitolul 2;

 

(c)

cererea menționată la litera (b) nu a fost acceptată de niciuna dintre organizațiile europene de standardizare; sau există întârzieri nejustificate în întocmirea unui standard armonizat corespunzător; sau standardul furnizat nu îndeplinește cerințele legislației relevante a Uniunii sau nu corespunde cu cererea Comisiei.

Amendamentul 443

Propunere de regulament

Articolul 41 – alineatul 1 b (nou)

Textul propus de Comisie

Amendamentul

 

1b.     În cazul în care Comisia consideră că trebuie avute în vedere anumite preocupări legate de drepturile fundamentale, specificațiile comune adoptate de Comisie în conformitate cu alineatul (1a) tratează și aceste preocupări legate de drepturile fundamentale.

Amendamentul 444

Propunere de regulament

Articolul 41 – alineatul 1 c (nou)

Textul propus de Comisie

Amendamentul

 

1c.     Comisia elaborează specificații comune pentru metodologia cerută pentru îndeplinirea cerinței de raportare și documentare privind consumul de energie și resurse în timpul dezvoltării, antrenării și implementării sistemului de IA cu grad ridicat de risc.

Amendamentul 445

Propunere de regulament

Articolul 41 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Atunci când pregătește specificațiile comune menționate la alineatul  (1), Comisia colectează opiniile organismelor sau ale grupurilor de experți relevante instituite în temeiul legislației sectoriale relevante a Uniunii .

2.    Pe parcursul întregului proces de elaborare a specificațiilor comune menționate la alineatele (1a) și (1 b ), Comisia se consultă periodic cu Oficiul pentru IA și Forumul consultativ, organizațiile și organismele europene de standardizare sau grupurile de experți instituite în temeiul dreptului sectorial relevant al Uniunii, precum și alte părți interesate relevante . Comisia îndeplinește obiectivele menționate la articolul 40 alineatul (1c) și justifică corespunzător motivele care au determinat-o să recurgă la specificații comune.

 

În cazul în care intenționează să adopte specificații comune în temeiul alineatului (1a) din prezentul articol, Comisia identifică, de asemenea, clar care anume preocupare privind drepturile fundamentale trebuie tratată.

 

Când adoptă specificații comune în temeiul alineatelor (1a) și (1b) din prezentul articol, Comisia ține seama de avizul emis de Oficiul pentru IA menționat la articolul 56e litera b) din prezentul regulament. În cazul în care decide să nu urmeze avizul Oficiului pentru IA, Comisia îi transmite acestuia o explicație motivată.

Amendamentul 446

Propunere de regulament

Articolul 41 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu specificațiile comune menționate la alineatul  (1) sunt considerate a fi în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, în măsura în care acele specificații comune acoperă cerințele respective.

3.   Sistemele de IA cu grad ridicat de risc care sunt în conformitate cu specificațiile comune menționate la alineatele  ( 1a) și (1b ) sunt considerate a fi în conformitate cu cerințele prevăzute în capitolul 2 din prezentul titlu, în măsura în care acele specificații comune acoperă cerințele respective.

Amendamentul 447

Propunere de regulament

Articolul 41 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     În cazul în care un standard armonizat este adoptat de o organizație de standardizare europeană și este propus Comisiei pentru ca referința sa să fie publicată în Jurnalul Oficial al Uniunii Europene, Comisia evaluează standardul armonizat în conformitate cu Regulamentul (UE) nr. 1025/2012. Atunci când referința unui standard armonizat este publicată în Jurnalul Oficial al Uniunii Europene, Comisia abrogă actele menționate la alineatele (1a) și (1b) sau acele părți ale lor care vizează aceleași cerințe menționate la capitolul 2 de la prezentul titlu.

Amendamentul 448

Propunere de regulament

Articolul 41 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   În cazul în care furnizorii nu respectă specificațiile comune menționate la alineatul (1), aceștia justifică în mod corespunzător faptul că au adoptat soluții tehnice cel puțin echivalente cu acestea.

4.   În cazul în care furnizorii de sisteme de IA cu grad ridicat de risc nu respectă specificațiile comune menționate la alineatul (1), probează cu documente justificative corespunzătoare faptul că au adoptat soluții tehnice care îndeplinesc cerințele menționate în capitolul 2 la un nivel cel puțin echivalent cu acestea.

Amendamentul 449

Propunere de regulament

Articolul 42 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Ținând seama de scopul lor preconizat, sistemele de IA cu grad ridicat de risc care au fost antrenate și testate pe baza datelor referitoare la mediul geografic, comportamental și funcțional specific în care sunt destinate să fie utilizate sunt considerate a fi în conformitate cu cerința prevăzută la articolul 10 alineatul (4).

1.   Ținând seama de scopul lor preconizat, sistemele de IA cu grad ridicat de risc care au fost antrenate și testate pe baza datelor referitoare la mediul geografic, comportamental și funcțional specific în care sunt destinate să fie utilizate sunt considerate a fi în conformitate cu cerințele respective prevăzute la articolul 10 alineatul (4).

Amendamentul 450

Propunere de regulament

Articolul 43 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Pentru sistemele de IA cu grad ridicat de risc enumerate la punctul 1 din anexa III, în cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul a aplicat normele armonizate menționate la articolul 40 sau, după caz, specificațiile comune menționate la articolul 41, furnizorul urmează una dintre următoarele proceduri:

1.   Pentru sistemele de IA cu grad ridicat de risc enumerate la punctul 1 din anexa III, în cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul a aplicat normele armonizate menționate la articolul 40 sau, după caz, specificațiile comune menționate la articolul 41, furnizorul optează pentru una dintre următoarele proceduri:

Amendamentul 451

Propunere de regulament

Articolul 43 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

procedura de evaluare a conformității bazată pe control intern menționată în anexa VI;

(a)

procedura de evaluare a conformității bazată pe control intern menționată în anexa VI; sau

Amendamentul 452

Propunere de regulament

Articolul 43 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe examinarea documentației tehnice , cu implicarea unui organism notificat, menționată în anexa VII.

(b)

procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe documentația tehnică , cu implicarea unui organism notificat, menționată în anexa VII.

Amendamentul 453

Propunere de regulament

Articolul 43 – alineatul 1 – paragraful 1

Textul propus de Comisie

Amendamentul

În cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul nu a aplicat sau a aplicat doar parțial normele armonizate menționate la articolul 40 sau în cazul în care astfel de standarde armonizate nu există, iar specificațiile comune menționate la articolul 41 nu sunt disponibile, furnizorul urmează procedura de evaluare a conformității prevăzută în anexa VII.

Pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 din prezentul titlu, furnizorul urmează procedura de evaluare a conformității prevăzută în anexa VII în următoarele cazuri:

 

(a)

atunci când standardele armonizate menționate la articolul 40, al căror număr de referință a fost publicat în Jurnalul Oficial al Uniunii Europene sub incidența cărora se află toate cerințele relevante de siguranță pentru sistemul de IA, nu există, iar specificațiile comune menționate la articolul 41 nu sunt disponibile;

 

(b)

atunci când specificațiile tehnice menționate la litera (a) există, dar furnizorul nu le-a aplicat sau le-a aplicat doar parțial;

 

(c)

atunci când specificațiile tehnice menționate la litera (a) au fost publicate cu o restricție și numai în partea standardului care a fost restricționată;

 

(d)

atunci când furnizorul consideră că natura, proiectarea, construcția sau scopul sistemului de IA trebuie verificate de o parte terță, indiferent de nivelul de risc.

Amendamentul 454

Propunere de regulament

Articolul 43 – alineatul 1 – paragraful 2

Textul propus de Comisie

Amendamentul

În sensul procedurii de evaluare a conformității menționate în anexa VII, furnizorul poate alege oricare dintre organismele notificate. Cu toate acestea, în cazul în care sistemul este destinat să fie pus în funcțiune de către autoritățile de aplicare a legii, autoritățile din domeniul imigrației sau al azilului, precum și de către instituțiile, organismele sau agențiile UE, autoritatea de supraveghere a pieței menționată la articolul 63 alineatul (5) sau (6), după caz, acționează ca organism notificat.

În scopul desfășurării procedurii de evaluare a conformității menționate în anexa VII, furnizorul poate alege oricare dintre organismele notificate. Cu toate acestea, în cazul în care sistemul este destinat să fie pus în funcțiune de către autoritățile de aplicare a legii, autoritățile din domeniul imigrației sau al azilului, precum și de către instituțiile, organismele sau agențiile UE, autoritatea de supraveghere a pieței menționată la articolul 63 alineatul (5) sau (6), după caz, acționează ca organism notificat.

Amendamentul 455

Propunere de regulament

Articolul 43 – alineatul 4 – partea introductivă

Textul propus de Comisie

Amendamentul

4.   Sistemele de IA cu grad ridicat de risc fac obiectul unei noi proceduri de evaluare a conformității ori de câte ori sunt modificate substanțial, indiferent dacă sistemul modificat este destinat să fie distribuit ulterior sau dacă utilizatorul curent continuă să utilizeze sistemul modificat.

4.   Sistemele de IA cu grad ridicat de risc care au făcut deja obiectul unei noi proceduri de evaluare a conformității sunt supuse la o nouă procedură de evaluare a conformității ori de câte ori sunt modificate substanțial, indiferent dacă sistemul modificat este destinat să fie distribuit ulterior sau dacă operatorul actual continuă să utilizeze sistemul modificat.

Amendamentul 456

Propunere de regulament

Articolul 43 – alineatul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.     La stabilirea taxelor pentru evaluarea conformității efectuată de o parte terță în temeiul prezentului articol, se ține cont de interesele și nevoile specifice ale IMM-urilor, taxele respective fiind reduse proporțional cu mărimea și cota de piață.

Amendamentul 457

Propunere de regulament

Articolul 43 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării anexelor VI și VII pentru a introduce elemente ale procedurilor de evaluare a conformității care devin necesare având în vedere progresul tehnic.

5.   Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării anexelor VI și VII pentru a introduce elemente ale procedurilor de evaluare a conformității care devin necesare având în vedere progresul tehnic. Când pregătește asemenea acte delegate, Comisia se consultă cu Oficiul pentru IA și cu părțile interesate afectate;

Amendamentul 458

Propunere de regulament

Articolul 43 – alineatul 6

Textul propus de Comisie

Amendamentul

6.   Comisia este împuternicită să adopte acte delegate pentru a modifica alineatele (1) și (2) în vederea supunerii sistemelor de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III procedurii de evaluare a conformității menționate în anexa VII sau unei părți ale acesteia. Comisia adoptă astfel de acte delegate ținând seama de eficacitatea procedurii de evaluare a conformității bazate pe controlul intern menționate în anexa VI în ceea ce privește prevenirea sau reducerea la minimum a riscurilor pentru sănătate și siguranță și protecția drepturilor fundamentale pe care le prezintă astfel de sisteme, precum și disponibilitatea capacităților și a resurselor adecvate în rândul organismelor notificate.

6.   Comisia este împuternicită să adopte acte delegate pentru a modifica alineatele (1) și (2) în vederea supunerii sistemelor de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III procedurii de evaluare a conformității menționate în anexa VII sau unei părți ale acesteia. Comisia adoptă astfel de acte delegate ținând seama de eficacitatea procedurii de evaluare a conformității bazate pe controlul intern menționate în anexa VI în ceea ce privește prevenirea sau reducerea la minimum a riscurilor pentru sănătate și siguranță și protecția drepturilor fundamentale pe care le prezintă astfel de sisteme, precum și disponibilitatea capacităților și a resurselor adecvate în rândul organismelor notificate. Când pregătește asemenea acte delegate, Comisia se consultă cu Oficiul pentru IA și cu părțile interesate afectate;

Amendamentul 459

Propunere de regulament

Articolul 44 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Certificatele eliberate de organismele notificate în conformitate cu anexa VII sunt redactate într-o limbă oficială a Uniunii stabilită de statul membru în care este stabilit organismul notificat sau într-o limbă oficială a Uniunii acceptată în alt mod de organismul notificat.

1.   Certificatele eliberate de organismele notificate în conformitate cu anexa VII sunt redactate în una sau mai multe limbi oficiale stabilite de statul membru în care este stabilit organismul notificat sau în una sau mai multe limbi oficiale acceptate în alt mod de organismul notificat.

Amendamentul 460

Propunere de regulament

Articolul 44 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Certificatele sunt valabile pentru perioada pe care o menționează, care nu depășește cinci ani. La solicitarea furnizorului, valabilitatea unui certificat poate fi prelungită pentru perioade suplimentare, fiecare dintre acestea nedepășind cinci ani, pe baza unei reevaluări în conformitate cu procedurile aplicabile de evaluare a conformității.

2.   Certificatele sunt valabile pe perioada pe care o menționează, care nu depășește patru ani. La solicitarea furnizorului, valabilitatea unui certificat poate fi prelungită cu perioade suplimentare, fiecare dintre acestea nedepășind patru ani, pe baza unei reevaluări în conformitate cu procedurile aplicabile de evaluare a conformității.

Amendamentul 461

Propunere de regulament

Articolul 44 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   În cazul în care un organism notificat constată că un sistem de IA nu mai îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu, acesta, ținând seama de principiul proporționalității, suspendă sau retrage certificatul eliberat sau impune restricții asupra acestuia, cu excepția cazului în care îndeplinirea cerințelor respective este asigurată prin acțiuni corective adecvate întreprinse de furnizorul sistemului într-un termen adecvat stabilit de organismul notificat. Organismul notificat comunică motivele deciziei sale.

3.   În cazul în care un organism notificat constată că un sistem de IA nu mai îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu, suspendă sau retrage certificatul eliberat sau impune restricții asupra acestuia, cu excepția cazului în care îndeplinirea cerințelor respective este asigurată prin acțiuni corective adecvate întreprinse de furnizorul sistemului într-un termen adecvat stabilit de organismul notificat. Organismul notificat comunică motivele deciziei sale.

Amendamentul 462

Propunere de regulament

Articolul 45 – paragraful 1

Textul propus de Comisie

Amendamentul

Statele membre se asigură că părțile care au un interes legitim în decizia respectivă au la dispoziție o cale de atac împotriva deciziilor organismelor notificate .

Statele membre se asigură că părțile care au un interes legitim în deciziile organismelor notificate, au la dispoziție o cale de atac împotriva deciziilor respective, inclusiv împotriva celor privind certificatele de conformitate eliberate .

Amendamentul 463

Propunere de regulament

Articolul 46 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Fiecare organism notificat furnizează celorlalte organisme notificate care îndeplinesc activități similare de evaluare a conformității care acoperă aceleași tehnologii din domeniul inteligenței artificiale informații relevante privind aspecte legate de rezultatele negative ale evaluărilor conformității și, la cerere, de rezultatele pozitive ale evaluărilor conformității.

3.   Fiecare organism notificat furnizează celorlalte organisme notificate care îndeplinesc activități similare de evaluare a conformității informații relevante privind aspecte legate de rezultatele negative ale evaluărilor conformității și, la cerere, de rezultatele pozitive ale evaluărilor conformității.

Amendamentul 464

Propunere de regulament

Articolul 47 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Prin derogare de la articolul 43, orice autoritate de supraveghere a pieței poate autoriza introducerea pe piață sau punerea în funcțiune a anumitor sisteme de IA cu grad ridicat de risc pe teritoriul statului membru în cauză, din motive excepționale de siguranță publică sau de protecție a vieții și sănătății persoanelor, de protecție a mediului și de protecție a  activelor industriale și de infrastructură esențiale . Autorizația respectivă se acordă pentru o perioadă limitată de timp, cât timp procedurile necesare de evaluare a conformității sunt în desfășurare, și încetează odată ce procedurile respective au fost finalizate. Finalizarea procedurilor respective se efectuează fără întârzieri nejustificate.

1.   Prin derogare de la articolul 43, orice autoritate națională de supraveghere poate solicita unei autorități judiciare să autorizeze introducerea pe piață sau punerea în funcțiune a anumitor sisteme de IA cu grad ridicat de risc pe teritoriul statului membru în cauză, din motive excepționale de protecție a vieții și sănătății persoanelor, de protecție a mediului și de protecție a  infrastructurilor de importanță critică . Autorizația respectivă se acordă pentru o perioadă limitată de timp, cât timp procedurile necesare de evaluare a conformității sunt în desfășurare, și încetează odată ce procedurile respective au fost finalizate. Finalizarea procedurilor respective se efectuează fără întârzieri nejustificate;

Amendamentul 465

Propunere de regulament

Articolul 47 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Autorizația menționată la alineatul (1) se eliberează numai în cazul în care autoritatea de supraveghere a pieței concluzionează că sistemul de IA cu grad ridicat de risc respectă cerințele din capitolul 2 din prezentul titlu. Autoritatea de supraveghere a pieței informează Comisia și celelalte state membre cu privire la orice autorizație eliberată în temeiul alineatului (1).

2.   Autorizația menționată la alineatul (1) se eliberează numai în cazul în care autoritatea națională de supraveghere și autoritatea judiciară ajung la concluzia că sistemul de IA cu grad ridicat de risc respectă cerințele din capitolul 2 din prezentul titlu. Autoritatea națională de supraveghere informează Comisia, Oficiul pentru IA și celelalte state membre cu privire la orice cerere făcută și la orice autorizație ulterioară eliberată în temeiul alineatului (1).

Amendamentul 466

Propunere de regulament

Articolul 47 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   În cazul în care, în termen de 15 zile calendaristice de la primirea informațiilor menționate la alineatul (2), niciun stat membru și nici Comisia nu ridică obiecții cu privire la o autorizație eliberată de o autoritate de supraveghere a pieței dintr-un stat membru în conformitate cu alineatul (1), autorizația respectivă este considerată justificată.

3.   În cazul în care, în termen de 15 zile calendaristice de la primirea informațiilor menționate la alineatul (2), niciun stat membru și nici Comisia nu ridică obiecții cu privire la cererea autorității naționale de supraveghere referitoare la o autorizație eliberată de o autoritate națională de supraveghere dintr-un stat membru în conformitate cu alineatul (1), autorizația respectivă este considerată justificată.

Amendamentul 467

Propunere de regulament

Articolul 47 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   În cazul în care, în termen de 15 zile calendaristice de la primirea notificării menționate la alineatul (2), sunt ridicate obiecții de către un stat membru împotriva unei autorizații eliberate de o autoritate de supraveghere a pieței dintr-un alt stat membru sau în cazul în care Comisia consideră că autorizația este contrară dreptului Uniunii sau că concluzia statelor membre cu privire la conformitatea sistemului menționat la alineatul (2) este nefondată, Comisia inițiază fără întârziere consultări cu statul membru în cauză; operatorul (operatorii) în cauză este (sunt) consultat (consultați) și are (au) posibilitatea de a-și prezenta punctele de vedere. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia sa statului membru în cauză și operatorului sau operatorilor relevanți.

4.   În cazul în care, în termen de 15 zile calendaristice de la primirea notificării menționate la alineatul (2), un stat membru ridică obiecții împotriva unei cereri făcute de o autoritate națională de supraveghere dintr-un alt stat membru sau în cazul în care Comisia consideră că autorizația este contrară dreptului Uniunii sau că concluzia statelor membre cu privire la conformitatea sistemului menționat la alineatul (2) este nefondată, Comisia inițiază fără întârziere consultări cu statul membru în cauză și cu Oficiul pentru IA ; operatorul (operatorii) în cauză este (sunt) consultat (consultați) și are (au) posibilitatea de a-și prezenta punctele de vedere. În acest sens, Comisia decide dacă autorizația este justificată sau nu. Comisia comunică decizia sa statului membru în cauză și operatorului (operatorilor ) relevant ( relevanți).

Amendamentul 468

Propunere de regulament

Articolul 47 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În cazul în care autorizația este considerată nejustificată, aceasta este retrasă de către autoritatea de supraveghere a pieței din statul membru în cauză.

5.   În cazul în care este considerată nejustificată, autorizația este retrasă de către autoritatea de supraveghere a pieței din statul membru în cauză.

Amendamentul 469

Propunere de regulament

Articolul 48 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Furnizorul întocmește o declarație de conformitate UE scrisă pentru fiecare sistem de IA și o pune la dispoziția autorităților naționale competente pe o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA . Declarația de conformitate UE identifică sistemul de IA pentru care a fost întocmită. O copie a declarației de conformitate UE este pusă la dispoziția autorităților naționale competente relevante, la cerere.

1.   Furnizorul întocmește o declarație de conformitate UE scrisă , care poate fi citită automat, fizică sau electronică, pentru fiecare sistem de IA cu grad ridicat de risc și o pune la dispoziția autorității naționale de supraveghere și autorităților naționale competente pe o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc . O copie a declarației de conformitate UE este pusă la dispoziția autorității naționale de supraveghere și a autorităților naționale competente relevante, la cerere;

Amendamentul 470

Propunere de regulament

Articolul 48 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Declarația de conformitate UE precizează că sistemul de IA cu grad ridicat de risc în cauză îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu. Declarația de conformitate UE conține informațiile prevăzute în anexa V și se traduce într-o limbă oficială a Uniunii solicitată sau în limbile oficiale ale Uniunii solicitate de statul (statele) membru (membre) în care se pune la dispoziție sistemul de IA cu grad ridicat de risc.

2.   Declarația de conformitate UE precizează că sistemul de IA cu grad ridicat de risc în cauză îndeplinește cerințele prevăzute în capitolul 2 din prezentul titlu. Declarația de conformitate UE conține informațiile prevăzute în anexa V și se traduce într-o limbă oficială a Uniunii solicitată sau în limbile oficiale ale Uniunii solicitate de statul (statele) membru (membre) în care se introduce pe piață sau se pune la dispoziție sistemul de IA cu grad ridicat de risc;

Amendamentul 471

Propunere de regulament

Articolul 48 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative de armonizare ale Uniunii care necesită, de asemenea, o declarație de conformitate UE, se redactează o singură declarație de conformitate UE cu privire la toate legislațiile Uniunii aplicabile sistemului de IA cu grad ridicat de risc. Declarația conține toate informațiile necesare pentru identificarea legislației de armonizare a Uniunii la care declarația face referire.

3.   În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative de armonizare ale Uniunii care necesită, de asemenea, o declarație de conformitate UE, se poate redacta o singură declarație de conformitate UE cu privire la toate legislațiile Uniunii aplicabile sistemului de IA cu grad ridicat de risc. Declarația conține toate informațiile necesare pentru identificarea legislației de armonizare a Uniunii la care declarația face referire.

Amendamentul 472

Propunere de regulament

Articolul 48 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării conținutului declarației de conformitate UE prevăzute în anexa V pentru a introduce elemente care devin necesare având în vedere progresele tehnice.

5.    După consultarea Oficiului pentru IA, Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 73 în scopul actualizării conținutului declarației de conformitate UE prevăzute în anexa V pentru a introduce elemente care devin necesare având în vedere progresele tehnice.

Amendamentul 473

Propunere de regulament

Articolul 49 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Marcajul CE se aplică în mod vizibil, lizibil și indelebil pentru sistemele de IA cu risc ridicat. În cazul în care acest lucru nu este posibil sau justificat din considerente ținând de natura sistemului de IA cu grad ridicat de risc, marcajul se aplică pe ambalaj și pe documentele de însoțire, după caz.

1.   Marcajul CE fizic se aplică în mod vizibil, lizibil și indelebil pentru sistemele de IA cu risc ridicat înainte ca sistemul de IA cu grad ridicat de risc să fie introdus pe piață . În cazul în care acest lucru nu este posibil sau justificat din considerente ținând de natura sistemului de IA cu grad ridicat de risc, marcajul se aplică pe ambalaj și pe documentele de însoțire, după caz. Acesta poate fi urmat de o pictogramă sau de orice alt marcaj care indică un risc special de utilizare;

Amendamentul 474

Propunere de regulament

Articolul 49 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     În cazul sistemelor digitale de IA cu grad ridicat de risc, se utilizează un marcaj CE digital numai dacă poate fi accesat cu ușurință prin intermediul interfeței de la care este accesat sistemul de IA sau printr-un cod ușor accesibil care poate fi citit automat sau prin alte mijloace electronice.

Amendamentul 475

Propunere de regulament

Articolul 49 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Dacă este cazul, marcajul CE este urmat de numărul de identificare al organismului notificat responsabil de procedurile de evaluare a conformității menționate la articolul 43. De asemenea, numărul de identificare se indică în orice material promoțional care menționează faptul că sistemul de IA cu grad ridicat de risc îndeplinește cerințele aferente marcajului CE.

3.   Dacă este cazul, marcajul CE este urmat de numărul de identificare al organismului notificat responsabil de procedurile de evaluare a conformității menționate la articolul 43. Numărul de identificare al organismului notificat se aplică chiar de către organism sau, la instrucțiunile acestuia, de către reprezentantul autorizat al furnizorului. De asemenea, numărul de identificare se indică în orice material promoțional care menționează faptul că sistemul de IA cu grad ridicat de risc îndeplinește cerințele aferente marcajului CE;

Amendamentul 476

Propunere de regulament

Articolul 49 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     În cazul în care sistemele de IA cu grad ridicat de risc fac obiectul altor acte legislative ale Uniunii care prevăd și aplicarea marcajului CE, acesta indică faptul că sistemele de IA cu grad ridicat de risc îndeplinesc și cerințele celorlalte acte legislative.

Amendamentul 477

Propunere de regulament

Articolul 50 – paragraful1 – partea introductivă

Textul propus de Comisie

Amendamentul

Pentru o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA, furnizorul pune la dispoziția autorităților naționale competente:

Pentru o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA, furnizorul pune la dispoziția autorității naționale de supraveghere și a autorităților naționale competente:

Amendamentul 478

Propunere de regulament

Articolul 51 – paragraful 1

Textul propus de Comisie

Amendamentul

Înainte de a introduce pe piață sau de a pune în funcțiune un sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2), furnizorul sau, după caz, reprezentantul autorizat înregistrează sistemul respectiv în baza de date a UE menționată la articolul 60.

Înainte de a introduce pe piață sau de a pune în funcțiune un sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2), furnizorul sau, după caz, reprezentantul autorizat înregistrează sistemul respectiv în baza de date a UE menționată la articolul 60 , în conformitate cu articolul 60 alineatul (2);

Amendamentul 479

Propunere de regulament

Articolul 51 – paragraful 1 a (nou)

Textul propus de Comisie

Amendamentul

 

Înainte de a pune în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc în conformitate cu articolul 6 alineatul (2), următoarele categorii de operatori înregistrează utilizarea sistemului de IA respectiv în baza de date a UE menționată la articolul 60:

 

(a)

operatorii care sunt autorități publice sau instituții, organe, oficii sau agenții ale Uniunii sau operatori care acționează în numele acestora;

 

(b)

operatorii care sunt întreprinderi desemnate drept controlori de acces în temeiul Regulamentului (UE) 2022/1925.

Amendamentul 480

Propunere de regulament

Articolul 51 – paragraful 1 b (nou)

Textul propus de Comisie

Amendamentul

 

Operatorii care nu intră sub incidența paragrafului 1a au dreptul de a înregistra în mod voluntar utilizarea unui sistem de IA cu grad ridicat de risc menționat la articolul 6 alineatul (2) în baza de date a UE menționată la articolul 60.

Amendamentul 481

Propunere de regulament

Articolul 51 – paragraful 1 c (nou)

Textul propus de Comisie

Amendamentul

 

O înregistrare actualizată trebuie completată imediat după fiecare modificare substanțială.

Amendamentul 482

Propunere de regulament

Titlul IV

Textul propus de Comisie

Amendamentul

OBLIGAȚII DE TRANSPARENȚĂ PENTRU ANUMITE SISTEME DE IA

OBLIGAȚII DE TRANSPARENȚĂ

Amendamentul 483

Propunere de regulament

Articolul 52 – titlu

Textul propus de Comisie

Amendamentul

Obligații de transparență pentru anumite sisteme de IA

Obligații de transparență

Amendamentul 484

Propunere de regulament

Articolul 52 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât persoanele fizice să fie informate că interacționează cu un sistem de IA, cu excepția cazului în care acest lucru este evident din circumstanțele și contextul de utilizare. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta , a preveni, a investiga și a urmări penal infracțiunile , cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune .

1.   Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât sistemul de IA, furnizorul însuși sau utilizatorul informează persoana fizică expusă la un sistem de IA că interacționează cu un sistem de IA la timp , în mod clar și inteligibil , cu excepția cazului în care acest lucru este evident din circumstanțele și contextul de utilizare .

 

După caz și dacă este relevant, aceste informații precizează, de asemenea, funcțiile care sunt bazate pe IA, dacă există supraveghere umană și cine este responsabil de procesul decizional, precum și drepturile și procesele existente care, în conformitate cu dreptul Uniunii și cu dreptul intern, le permit persoanelor fizice sau reprezentanților acestora să se opună aplicării unor astfel de sisteme în cazul lor și să introducă căi de atac judiciare împotriva deciziilor luate de sistemele de IA sau a prejudiciilor cauzate de acestea, inclusiv dreptul lor de a solicita o explicație. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune.

Amendamentul 485

Propunere de regulament

Articolul 52 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Utilizatorii unui sistem de recunoaștere a emoțiilor sau ai unui sistem biometric de clasificare informează persoanele fizice expuse la sistem cu privire la funcționarea acestuia. Această obligație nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică, care sunt autorizate prin lege să detecteze, să prevină și să investigheze infracțiunile.

2.   Utilizatorii unui sistem de recunoaștere a emoțiilor sau ai unui sistem biometric de clasificare care nu este interzis în temeiul articolului 5 informează în timp util, în mod clar și inteligibil persoanele fizice expuse la sistem cu privire la funcționarea acestuia și obțin consimțământul lor înainte de prelucrarea datelor lor biometrice și a altor date cu caracter personal în conformitate cu Regulamentul (UE) 2016/679, Regulamentul (UE) 2016/1725 și Directiva (UE) 2016/280, după caz . Această obligație nu se aplică sistemelor de IA utilizate pentru clasificarea biometrică, care sunt autorizate prin lege să detecteze, să prevină și să investigheze infracțiunile.

Amendamentul 486

Propunere de regulament

Articolul 52 – alineatul 3 – paragraful 1

Textul propus de Comisie

Amendamentul

3.   Utilizatorii unui sistem de IA care generează sau manipulează imagini , conținuturi audio sau video care seamănă în mod considerabil cu persoane, obiecte, locuri sau alte entități sau evenimente existente și care ar crea unei persoane impresia falsă că sunt autentice sau adevărate („deepfake”) , trebuie să facă cunoscut faptul că respectivul conținut a fost generat sau manipulat artificial.

3.   Utilizatorii unui sistem de IA care generează sau manipulează text , conținuturi audio sau vizuale care ar crea impresia falsă că sunt autentice sau adevărate („deepfake”) și care prezintă reprezentări ale unor persoane care par să spună sau să facă lucruri pe care nu le-au spus sau făcut, fără consimțământul lor , trebuie să facă cunoscut , într-un mod adecvat, clar și vizibil și la timp, faptul că respectivul conținut a fost generat sau manipulat artificial , precum și, ori de câte ori este posibil, numele persoanei fizice sau juridice care l-a generat sau manipulat. Prin a face cunoscut se înțelege etichetarea conținutului într-un mod care să informeze că conținutul este neautentic și care este vizibil în mod clar pentru destinatarul conținutului respectiv. Pentru a eticheta conținutul, utilizatorii țin seama de stadiul actual al tehnologiei general recunoscut și de standardele și specificațiile armonizate pertinente.

Amendamentul 487

Propunere de regulament

Articolul 52 – alineatul 3 – paragraful 2

Textul propus de Comisie

Amendamentul

Cu toate acestea, primul paragraf nu se aplică în cazul în care utilizarea este autorizată prin lege pentru a detecta, a preveni , a investiga și a urmări penal infracțiunile sau este necesară pentru exercitarea dreptului la libertatea de exprimare și a dreptului la libertatea artelor și științelor garantate în Carta drepturilor fundamentale a UE și sub rezerva unor garanții adecvate pentru drepturile și libertățile terților.

3a.     Alineatul (3) nu se aplică în cazul în care utilizarea unui sistem de IA care generează sau manipulează text , conținut audio sau vizual este autorizată prin lege sau în cazul în care este necesară pentru exercitarea dreptului la libertatea de exprimare și a dreptului la libertatea artelor și științelor garantate în Carta drepturilor fundamentale a UE și sub rezerva unor garanții adecvate pentru drepturile și libertățile terților. Atunci când conținutul face parte dintr-o lucrare cinematografică, dintr-un joc video și dintr-o operă sau program analog care sunt în mod evident creative, satirice, artistice sau fictive, obligațiile de transparență prevăzute la alineatul (3) se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, clar și vizibil, care să nu împiedice afișarea operei și divulgarea drepturilor de autor aplicabile, după caz. De asemenea, aceasta nu împiedică autoritățile de aplicare a legii să utilizeze sisteme de IA menite să detecteze materialele „deepfake” și să prevină, să investigheze și să urmărească penal infracțiunile legate de utilizarea lor.

Amendamentul 488

Propunere de regulament

Articolul 52 – alineatul 3 b (nou)

Textul propus de Comisie

Amendamentul

 

3b.     Informațiile menționate la alineatele (1)-(3) sunt furnizate persoanelor fizice cel târziu în momentul primei interacțiuni sau al primei expuneri. Informațiile trebuie să fie accesibile persoanelor vulnerabile, cum ar fi persoanele cu dizabilități sau copiii, complete, atunci când acest lucru este relevant și adecvat, cu proceduri de intervenție sau de marcare pentru persoana fizică expusă, ținând seama de stadiul actual al tehnologiei general recunoscut și de standardele armonizate și specificațiile comune relevante.

Amendamentul 489

Propunere de regulament

Articolul 53 – alineatul 1

Textul propus de Comisie

Amendamentul

1.    Spațiile de testare în materie de reglementare a IA instituite de una sau mai multe autorități competente ale statelor membre sau de Autoritatea Europeană pentru Protecția Datelor asigură un mediu controlat care facilitează dezvoltarea, testarea și validarea sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune , conform unui plan specific. Acest lucru are loc sub supravegherea și îndrumarea directă a autorităților competente în vederea asigurării conformității cu cerințele prezentului regulament și, după caz, cu alte acte legislative ale Uniunii și ale statelor membre supravegheate în spațiul de testare.

1.    Statele membre instituie cel puțin un spațiu de testare în materie de reglementare pentru IA la nivel național, care este operațional cel târziu la data intrării în vigoare a prezentului regulament. Acest spațiu de testare poate fi, de asemenea , instituit în comun cu unul sau mai multe alte state membre;

Amendamentul 490

Propunere de regulament

Articolul 53 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     De asemenea, pot fi instituite spații de testare suplimentare în materie de reglementare a IA la nivel regional sau local sau împreună cu alte state membre;

Amendamentul 491

Propunere de regulament

Articolul 53 – alineatul 1 b (nou)

Textul propus de Comisie

Amendamentul

 

1b.     Comisia și Autoritatea Europeană pentru Protecția Datelor, pe cont propriu, împreună sau în colaborare cu unul sau mai multe state membre, pot institui, de asemenea, spații de testare în materie de reglementare a IA la nivelul Uniunii;

Amendamentul 492

Propunere de regulament

Articolul 53 – alineatul 1 c (nou)

Textul propus de Comisie

Amendamentul

 

1c.     Autoritățile de instituire alocă suficiente resurse pentru a se conforma prezentului articol în mod eficace și în timp util;

Amendamentul 493

Propunere de regulament

Articolul 53 – alineatul 1 d (nou)

Textul propus de Comisie

Amendamentul

 

1d.     Spațiile de testare în materie de reglementare a IA prevăd, în conformitate cu criteriile prevăzute la articolul 53a, un mediu controlat care promovează inovarea și facilitează dezvoltarea, testarea și validarea sistemelor de IA inovatoare pentru o perioadă limitată de timp înainte de introducerea lor pe piață sau de punerea lor în funcțiune în temeiul unui plan specific convenit între furnizorii potențiali și autoritatea de instituire;

Amendamentul 494

Propunere de regulament

Articolul 53 – alineatul 1 e (nou)

Textul propus de Comisie

Amendamentul

 

1e.     Instituirea spațiilor de testare în materie de reglementare a IA urmărește să contribuie la următoarele obiective:

 

(a)

ca autoritățile competente să ofere orientări potențialilor furnizori de sisteme de IA pentru a asigura conformitatea normativă cu prezentul regulament sau, după caz, cu alte acte legislative aplicabile ale Uniunii și ale statelor membre;

 

(b)

ca potențialii furnizori să permită și să faciliteze testarea și dezvoltarea de soluții inovatoare legate de sistemele de IA;

 

(c)

învățarea în materie de reglementare într-un mediu controlat.

Amendamentul 495

Propunere de regulament

Articolul 53 – alineatul 1 f (nou)

Textul propus de Comisie

Amendamentul

 

1f.     Autoritățile de instituire oferă orientări și supraveghere în spațiul de testare pentru a identifica riscurile, în special pentru drepturile fundamentale, democrație și statul de drept, sănătate, siguranță și mediu, pentru a testa și a demonstra măsurile de atenuare a riscurilor identificate, precum și pentru a asigura eficacitatea acestora și pentru a asigura conformitatea cu cerințele prezentului regulament și, după caz, cu alte acte legislative ale Uniunii și ale statelor membre;

Amendamentul 496

Propunere de regulament

Articolul 53 – alineatul 1 f (nou)

Textul propus de Comisie

Amendamentul

 

1g.     Autoritățile de instituire oferă potențialilor furnizori de spații de testare care dezvoltă sisteme de IA cu grad ridicat de risc orientări și supraveghere cu privire la modul de îndeplinire a cerințelor prevăzute în prezentul regulament, astfel încât sistemele de IA să poată ieși din spațiul de testare prezumat a fi în conformitate cu cerințele specifice ale prezentului regulament care au fost evaluate în spațiul de testare. În măsura în care sistemul de IA respectă cerințele la ieșirea din spațiul de testare, se presupune că acesta este în conformitate cu prezentul regulament. În acest sens, rapoartele de ieșire create de autoritatea de instituire sunt luate în considerare de autoritățile de supraveghere a pieței sau de organismele notificate, după caz, în contextul procedurilor de evaluare a conformității sau al controalelor de supraveghere a pieței;

Amendamentul 497

Propunere de regulament

Articolul 53 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Statele membre se asigură că, în măsura în care sistemele de IA inovatoare implică prelucrarea de date cu caracter personal sau intră în alt mod în competența de supraveghere a altor autorități naționale sau autorități competente care furnizează sau sprijină accesul la date, autoritățile naționale de protecție a datelor și celelalte autorități naționale respective sunt asociate funcționării spațiului de testare în materie de reglementare a IA.

2.    Autoritățile de instituire se asigură că, în măsura în care sistemele de IA inovatoare implică prelucrarea de date cu caracter personal sau intră în alt mod în competența de supraveghere a altor autorități naționale sau autorități competente care furnizează sau sprijină accesul la date personale , autoritățile naționale de protecție a datelor sau, în cazurile menționate la alineatul (1b), AEPD și celelalte autorități naționale respective sunt asociate funcționării spațiului de testare în materie de reglementare a IA și implicate în supravegherea aspectelor respective în măsura deplină a sarcinilor și a competențelor lor respective;

Amendamentul 498

Propunere de regulament

Articolul 53 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Spațiile de testare în materie de reglementare a IA nu afectează competențele de supraveghere și atribuțiile corective ale autorităților competente. Orice risc semnificativ pentru sănătate , siguranță și drepturile fundamentale identificat în cursul dezvoltării și testării unor astfel de sisteme conduce la atenuarea imediată și , în cazul în care atenuarea nu este posibilă , la suspendarea procesului de dezvoltare și testare până la efectuarea unei astfel de atenuări.

3.   Spațiile de testare în materie de reglementare a IA nu afectează competențele de supraveghere și atribuțiile corective ale autorităților competente , inclusiv la nivel regional sau local . Orice risc semnificativ pentru drepturile fundamentale , democrație și statul de drept, sănătate, siguranță sau mediu identificat în cursul dezvoltării și testării unor astfel de sisteme de IA conduce la atenuarea imediată și adecvată. Autoritățile competente au competența de a suspenda temporar sau permanent procesul de testare sau participarea la spațiul de testare dacă nu este posibilă o atenuare eficace și informează Oficiul pentru IA cu privire la o astfel de decizie;

Amendamentul 499

Propunere de regulament

Articolul 53 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Participanții la spațiul de testare în materie de reglementare a IA rămân responsabili, în temeiul legislației aplicabile a Uniunii și a statelor membre în materie de răspundere, pentru orice prejudiciu adus terților ca urmare a experimentării care are loc în spațiul de testare.

4.   Furnizorii potențiali din spațiul de testare în materie de reglementare a IA rămân responsabili, în temeiul legislației aplicabile a Uniunii și a statelor membre în materie de răspundere, pentru orice prejudiciu adus terților ca urmare a experimentării care are loc în spațiul de testare. Cu toate acestea, cu condiția ca furnizorul (furnizorii) potențial(i) să respecte planul specific menționat la alineatul (1c) și termenii și condițiile de participare a acestora și să urmeze cu bună-credință orientările date de autoritățile de instituire, autoritățile nu impun amenzi administrative pentru încălcarea prezentului regulament;

Amendamentul 500

Propunere de regulament

Articolul 53 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Autoritățile competente ale statelor membre care au instituit spații de testare în materie de reglementare a IA își coordonează activitățile și cooperează în cadrul Comitetului european pentru inteligența artificială. Acestea prezintă comitetului și Comisiei rapoarte anuale cu privire la rezultatele punerii în aplicare a sistemului respectiv, inclusiv bune practici, lecții învățate și recomandări privind structura acestora și, după caz, privind aplicarea prezentului regulament și a altor acte legislative ale Uniunii supravegheate în spațiul de testare.

5.   Autoritățile de instituire își coordonează activitățile și cooperează în cadrul Oficiului pentru IA;

Amendamentul 501

Propunere de regulament

Articolul 53 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Autoritățile de instituire informează Oficiul pentru IA cu privire la instituirea unui spațiu de testare și pot solicita sprijin și orientări. O listă a spațiilor de testare planificate și existente este pusă la dispoziția publicului de către Oficiul pentru IA și este actualizată pentru a încuraja o mai mare interacțiune în spațiile de testare în materie de reglementare și cooperarea transnațională;

Amendamentul 502

Propunere de regulament

Articolul 53 – alineatul 5 b (nou)

Textul propus de Comisie

Amendamentul

 

5b.     Autoritățile de instituire prezintă Oficiului pentru IA și, cu excepția cazului în care Comisia este singura autoritate de instituire, Comisiei, rapoarte anuale, începând cu un an de la instituirea spațiului de testare și apoi în fiecare an până la încheierea acestuia și un raport final. Rapoartele respective furnizează informații cu privire la progresele și rezultatele punerii în aplicare a spațiilor de testare respective, inclusiv cele mai bune practici, incidente, lecții învățate și recomandări cu privire la instituirea acestora și, după caz, cu privire la aplicarea și posibila revizuire a prezentului regulament și a altor acte legislative ale Uniunii supravegheate în spațiul de testare. Aceste rapoarte anuale sau rezumate ale acestora sunt puse la dispoziția publicului, online;

Amendamentul 503

Propunere de regulament

Articolul 53 – alineatul 6

Textul propus de Comisie

Amendamentul

6.    Modalitățile și condițiile de funcționare a spațiilor de testare în materie de reglementare a IA, inclusiv criteriile de eligibilitate și procedura de depunere cererii, de selecție, de participare și de ieșire din spațiul de testare, precum și drepturile și obligațiile participanților sunt stabilite în acte de punere în aplicare. Actele de punere în aplicare respective se adoptă în conformitate cu procedura de examinare menționată la articolul 74 alineatul (2).

6.    Comisia dezvoltă o interfață unică și specifică care să conțină toate informațiile relevante referitoare la spațiile de testare, împreună cu un punct de contact unic la nivelul Uniunii pentru interacționa cu spațiile de testare în materie de reglementare și pentru a permite părților interesate să adreseze întrebări autorităților competente și să solicite orientări fără caracter obligatoriu cu privire la conformitatea produselor, a serviciilor și a modelelor de afaceri inovatoare care cuprind tehnologii de IA;

 

Comisia se coordonează în mod proactiv cu autoritățile naționale, regionale și locale, după caz;

Amendamentul 504

Propunere de regulament

Articolul 53 – alineatul 6 a (nou)

Textul propus de Comisie

Amendamentul

 

6a.     În sensul alineatelor (1) și (1a), Comisia joacă un rol complementar, permițând statelor membre să se bazeze pe expertiza lor și, pe de altă parte, să acorde asistență și resurse tehnice statelor membre care solicită orientări cu privire la crearea și funcționarea acestor spații de testare în materie de reglementare;

Amendamentul 505

Propunere de regulament

Articolul 53 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 53a

 

Modalități și funcționarea spațiilor de testare în materie de reglementare a IA

 

1.     Pentru a evita fragmentarea în întreaga Uniune, Comisia, în consultare cu Oficiul pentru IA, adoptă un act delegat care detaliază modalitățile de instituire, dezvoltare, punere în aplicare, funcționare și supraveghere a spațiilor de testare în materie de reglementare a IA, inclusiv criteriile de eligibilitate și procedura pentru aplicarea, selectarea, participarea și ieșirea din spațiul de testare, precum și drepturile și obligațiile participanților pe baza dispozițiilor prevăzute la prezentul articol;

 

2.     Comisia este împuternicită să adopte acte de punere în aplicare în conformitate cu procedura menționată la articolul 73 în termen de cel mult 12 luni de la intrarea în vigoare a prezentului regulament și asigură că:

 

(a)

spațiile de testare în materie de reglementare sunt deschise oricărui potențial furnizor al unui sistem de IA care îndeplinește criteriile de eligibilitate și de selecție. Criteriile de acces la spațiul de testare în materie de reglementare sunt transparente și echitabile, iar autoritățile de instituire informează solicitanții cu privire la decizia lor în termen de 3 luni de la depunerea cererii;

 

(b)

spațiile de testare în materie de reglementare permit un acces larg și egal și țin pasul cu cererea de participare;

 

(c)

accesul la spațiile de testare în materie de reglementare a IA este gratuit pentru IMM-uri și întreprinderile nou-înființate, fără a aduce atingere costurilor excepționale pe care autoritățile de instituire le pot recupera în mod echitabil și proporțional;

 

(d)

spațiile de testare în materie de reglementare facilitează implicarea altor actori relevanți din ecosistemul IA, cum ar fi organismele notificate și organizațiile de standardizare (IMM-uri, întreprinderi nou-înființate, întreprinderi, inovatori, instalații de testare și experimentare, laboratoare de cercetare și experimentare și centre de inovare digitală, centre de excelență, cercetători individuali), pentru a permite și a facilita cooperarea cu sectorul public și cu sectorul privat;

 

(e)

le permit potențialilor furnizori să îndeplinească, într-un mediu controlat, obligațiile de evaluare a conformității prevăzute de prezentul regulament sau aplicarea voluntară a codurilor de conduită menționate la articolul 69;

 

(f)

procedurile, procesele și cerințele administrative pentru depunerea cererilor, selecție, participare și ieșirea din spațiul de testare sunt simple, ușor de înțeles, comunicate în mod clar pentru a facilita participarea IMM-urilor și a întreprinderilor nou-înființate cu capacități juridice și administrative limitate și sunt raționalizate în întreaga Uniune, pentru a evita fragmentarea, iar participarea la un spațiu de testare în materie de reglementare instituit de un stat membru, de Comisie sau de AEPD este recunoscută reciproc și uniform și produce aceleași efecte juridice în întreaga Uniune;

 

(g)

participarea la spațiul de testare în materie de reglementare a IA este limitată la o perioadă adecvată complexității și amplorii proiectului;

 

(h)

spațiile de testare facilitează dezvoltarea de instrumente și de infrastructură pentru testarea, analiza comparativă, evaluarea și explicarea dimensiunilor sistemelor de IA relevante pentru spațiile de testare, cum ar fi acuratețea, robustețea și securitatea cibernetică, precum și reducerea la minimum a riscurilor pentru drepturile fundamentale, mediu și societate în general.

 

3.     Potențialilor furnizori din spațiile de testare, în special IMM-urilor și întreprinderilor nou-înființate, li se facilitează accesul la serviciile anterioare implementării, cum ar fi orientările privind punerea în aplicare a prezentului regulament, la alte servicii cu valoare adăugată, cum ar fi asistența în ceea ce privește documentele de standardizare și certificarea și consultarea, precum și la alte inițiative privind piața unică digitală, cum ar fi instalațiile de testare și experimentare, centrele digitale, centrele de excelență și capacitățile de evaluare comparativă ale UE;

Amendamentul 506

Propunere de regulament

Articolul 54 – titlu

Textul propus de Comisie

Amendamentul

Prelucrarea ulterioară a datelor cu caracter personal în vederea dezvoltării anumitor sisteme de IA în interes public în spațiul de testare în materie de reglementare a IA

Prelucrarea ulterioară a datelor în vederea dezvoltării anumitor sisteme de IA în interes public în spațiul de testare în materie de reglementare a IA

Amendamentul 507

Propunere de regulament

Articolul 54 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   În spațiul de testare în materie de reglementare a IA, datele cu caracter personal colectate în mod legal în alte scopuri sunt prelucrate în scopul dezvoltării și testării anumitor sisteme de IA inovatoare în spațiul de testare, în următoarele condiții :

1.   În spațiul de testare în materie de reglementare a IA, datele cu caracter personal colectate în mod legal în alte scopuri pot fi prelucrate numai în scopul dezvoltării și testării anumitor sisteme de IA în spațiul de testare, atunci când toate condițiile următoare sunt îndeplinite :

Amendamentul 508

Propunere de regulament

Articolul 54 – alineatul 1 – litera a – partea introductivă

Textul propus de Comisie

Amendamentul

(a)

sistemele de IA inovatoare sunt dezvoltate pentru a proteja un interes public substanțial în unul sau mai multe dintre următoarele domenii:

(a)

sistemele de IA sunt dezvoltate pentru a proteja un interes public substanțial în unul sau mai multe dintre următoarele domenii:

 

 

(ii)

siguranța publică și sănătatea publică, inclusiv depistarea, diagnosticarea, prevenirea, controlul și tratarea bolilor;

 

 

(iii)

un nivel ridicat de protecție și de îmbunătățire a calității mediului, protecția biodiversității, poluarea, precum și atenuarea schimbărilor climatice și adaptarea la acestea;

 

 

(iii a)

siguranța și reziliența sistemelor, a infrastructurilor critice și a rețelelor de transport.

Amendamentul 509

Propunere de regulament

Articolul 54 – alineatul 1 – litera a – punctul i

Textul propus de Comisie

Amendamentul

(i)

prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau executarea sancțiunilor penale, inclusiv protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora, sub controlul și responsabilitatea autorităților competente. Prelucrarea se bazează pe legislația statului membru sau a Uniunii;

eliminat

Amendamentul 510

Propunere de regulament

Articolul 54 – alineatul 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

există mecanisme eficace de monitorizare pentru a identifica dacă pot apărea riscuri ridicate la adresa drepturilor fundamentale ale persoanelor vizate în timpul experimentării în spațiul de testare, precum și mecanisme de răspuns pentru a atenua cu promptitudine aceste riscuri și, dacă este necesar, pentru a opri prelucrarea;

(c)

există mecanisme eficace de monitorizare pentru a identifica dacă pot apărea riscuri ridicate la adresa drepturilor și libertăților persoanelor vizate , astfel cum sunt menționate la articolul 35 din Regulamentul (UE) 2016/679 și la articolul 35 din Regulamentul (UE) 2018/1725, în timpul experimentării în spațiul de testare, precum și mecanisme de răspuns pentru a atenua cu promptitudine aceste riscuri și, dacă este necesar, pentru a opri prelucrarea;

Amendamentul 511

Propunere de regulament

Articolul 54 – alineatul 1 – litera d

Textul propus de Comisie

Amendamentul

(d)

toate datele cu caracter personal care urmează să fie prelucrate în contextul spațiului de testare se află într-un mediu de prelucrare a datelor separat din punct de vedere funcțional, izolat și protejat, aflat sub controlul participanților și numai persoanele autorizate au acces la datele respective;

(d)

toate datele cu caracter personal care urmează să fie prelucrate în contextul spațiului de testare se află într-un mediu de prelucrare a datelor separat din punct de vedere funcțional, izolat și protejat, aflat sub controlul furnizorului potențial și numai persoanele autorizate au acces la datele respective;

Amendamentul 512

Propunere de regulament

Articolul 54 – alineatul 1 – litera f

Textul propus de Comisie

Amendamentul

(f)

nicio prelucrare a datelor cu caracter personal în contextul spațiului de testare nu conduce la măsuri sau la decizii care afectează persoanele vizate;

(f)

nicio prelucrare a datelor cu caracter personal în contextul spațiului de testare nu conduce la măsuri sau la decizii care afectează persoanele vizate și nici nu afectează aplicarea drepturilor acestora prevăzute în dreptul Uniunii privind protecția datelor cu caracter personal ;

Amendamentul 513

Propunere de regulament

Articolul 54 – alineatul 1 – litera g

Textul propus de Comisie

Amendamentul

(g)

toate datele cu caracter personal prelucrate în contextul spațiului de testare sunt șterse după ce participarea la spațiul respectiv a încetat sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;

(g)

toate datele cu caracter personal prelucrate în contextul spațiului de testare sunt protejate prin măsuri tehnice și organizaționale adecvate și sunt șterse după ce participarea la spațiul respectiv a încetat sau datele cu caracter personal au ajuns la sfârșitul perioadei de păstrare;

Amendamentul 514

Propunere de regulament

Articolul 54 – alineatul 1 – litera h

Textul propus de Comisie

Amendamentul

(h)

fișierele de jurnalizare a prelucrării datelor cu caracter personal în contextul spațiului de testare sunt păstrate pe durata participării la spațiul de testare și timp de 1 an de la încetarea acesteia, exclusiv în scopul îndeplinirii obligațiilor de responsabilitate și documentare în temeiul prezentului articol sau al altei aplicări a legislației Uniunii sau a statelor membre, și numai atât timp cât este necesar pentru aceasta ;

(h)

fișierele de jurnalizare a prelucrării datelor cu caracter personal în contextul spațiului de testare sunt păstrate pe durata participării la spațiul de testare;

Amendamentul 515

Propunere de regulament

Articolul 54 – alineatul 1 – litera j

Textul propus de Comisie

Amendamentul

(j)

un scurt rezumat al proiectului de IA elaborat în spațiul de testare, obiectivele și rezultatele preconizate ale acestuia, publicate pe site-ul web al autorităților competente.

(j)

un scurt rezumat al sistemului de IA elaborat în spațiul de testare, obiectivele , ipotezele și rezultatele preconizate ale acestuia, publicate pe site-ul web al autorităților competente;

Amendamentul 516

Propunere de regulament

Articolul 54 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 54a

 

Promovarea cercetării și dezvoltării IA pentru rezultate benefice din punct de vedere social și al mediului

 

1.     Statele membre promovează cercetarea și dezvoltarea de soluții bazate pe IA pentru rezultate benefice din punct de vedere social și al mediului, inclusiv, dar fără a se limita la acestea, dezvoltarea de soluții bazate pe IA pentru a spori accesibilitatea pentru persoanele cu dizabilități, pentru a aborda disparitățile socioeconomice și pentru a îndeplini obiectivele de durabilitate și de mediu, prin:

 

(a)

oferirea de acces prioritar la spațiile de testare în materie de reglementare a IA proiectelor relevante, în măsura în care îndeplinesc condițiile de eligibilitate;

 

(b)

alocarea de fonduri publice, inclusiv din fondurile UE corespunzătoare, pentru cercetarea și dezvoltarea IA în sprijinul unor rezultate benefice din punct de vedere social și al mediului;

 

(c)

organizarea de activități specifice de sensibilizare cu privire la aplicarea prezentului regulament, la disponibilitatea și la procedurile de solicitare a finanțării specifice, adaptate la nevoile proiectelor respective;

 

(d)

după caz, stabilirea unor canale dedicate accesibile, inclusiv în cadrul spațiilor de testare, pentru comunicarea cu proiectele, pentru a oferi îndrumare și a răspunde la întrebări privind punerea în aplicare a prezentului regulament.

 

Statele membre sprijină societatea civilă și părțile interesate din domeniul social să conducă astfel de proiecte sau să participe la ele;

Amendamentul 517

Propunere de regulament

Articolul 55 – titlu

Textul propus de Comisie

Amendamentul

Măsuri pentru micii furnizori și utilizatori

Măsuri pentru IMM-uri, întreprinderi nou-înființate și utilizatori

Amendamentul 518

Propunere de regulament

Articolul 55 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

oferă micilor furnizori și întreprinderilor nou-înființate acces prioritar la spațiile de testare în materie de reglementare a IA, în măsura în care îndeplinesc condițiile de eligibilitate;

(a)

oferă IMM-urilor și întreprinderilor nou-înființate stabilite în Uniune acces prioritar la spațiile de testare în materie de reglementare a IA, în măsura în care îndeplinesc condițiile de eligibilitate;

Amendamentul 519

Propunere de regulament

Articolul 55 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

organizează activități specifice de sensibilizare cu privire la aplicarea prezentului regulament, adaptate la nevoile micilor furnizori și utilizatori ;

(b)

organizează activități specifice de sensibilizare și de dezvoltare a unor competențe digitale mai bune cu privire la aplicarea prezentului regulament, adaptate la nevoile IMM-urilor, ale întreprinderilor nou-înființate și ale utilizatorilor ;

Amendamentul 520

Propunere de regulament

Articolul 55 – alineatul 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

după caz, stabilesc un canal special de comunicare cu micii furnizori și utilizatori , precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament.

(c)

utilizează canalele speciale existente și, după caz, stabilesc noi canale speciale de comunicare cu IMM-urile, întreprinderile nou-înființate, utilizatorii , precum și cu alți inovatori, pentru a oferi orientări și a răspunde la întrebări legate de punerea în aplicare a prezentului regulament;

Amendamentul 521

Propunere de regulament

Articolul 55 – alineatul 1 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

încurajează participarea IMM-urilor și a altor părți interesate relevante la procesul de dezvoltare a standardizării.

Amendamentul 522

Propunere de regulament

Articolul 55 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Interesele și nevoile specifice ale micilor furnizori sunt luate în considerare la stabilirea taxelor pentru evaluarea conformității în temeiul articolului 43, taxele respective fiind reduse proporțional cu mărimea și cu dimensiunea lor de piață.

2.   Interesele și nevoile specifice ale IMM-urilor, ale întreprinderilor nou-înființate și ale utilizatorilor sunt luate în considerare la stabilirea taxelor pentru evaluarea conformității în temeiul articolului 43, taxele respective fiind reduse proporțional cu stadiul de dezvoltare, mărimea lor, dimensiunea lor de piață și cererea de pe piață. Comisia evaluează periodic costurile de certificare și de asigurare a conformității pentru IMM-uri și întreprinderile nou-înființate, inclusiv prin consultări transparente cu IMM-urile, întreprinderile nou-înființate și utilizatorii, și colaborează cu statele membre pentru a reduce aceste costuri, dacă este posibil. Comisia raportează Parlamentului European și Consiliului cu privire la aceste constatări în cadrul raportului privind evaluarea și revizuirea prezentului regulament prevăzut la articolul 84 alineatul (2).

Amendamentul 523

Propunere de regulament

Articolul 56 – secțiunea 1 – titlu

Textul propus de Comisie

Amendamentul

 

Titlu

 

SECȚIUNEA 1: Dispoziții generale privind Oficiul european pentru inteligența artificială

Amendamentul 524

Propunere de regulament

Articolul 56 – titlu

Textul propus de Comisie

Amendamentul

Instituirea Comitetului european pentru inteligența artificială

Instituirea Oficiului european pentru inteligența artificială

Amendamentul 525

Propunere de regulament

Articolul 56 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Se instituie un „Comitet european pentru inteligența artificială” (denumit în continuare „comitetul” ).

1.   Se instituie prin aceasta un „Oficiu european pentru inteligența artificială” (denumit în continuare „Oficiul pentru IA” ). Oficiul pentru IA este un organism independent al Uniunii. Acesta are personalitate juridică.

Amendamentul 526

Propunere de regulament

Articolul 56 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.    Comitetul oferă consiliere și asistență Comisiei pentru:

2.    Oficiul pentru IA are un secretariat și este finanțat și dotat în mod adecvat cu personalul necesar pentru a-și îndeplini sarcinile în temeiul prezentului regulament.

Amendamentul 527

Propunere de regulament

Articolul 56 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Sediul Oficiului pentru IA este situat la Bruxelles.

Amendamentul 528

Propunere de regulament

Articolul 56 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 56a

Structură

Structura administrativă și de conducere a Oficiului pentru IA cuprinde:

(a)

un consiliu de administrație, inclusiv un președinte;

(b)

un secretariat condus de un director executiv;

(c)

un forum consultativ.

Amendamentul 529

Propunere de regulament

Articolul 56 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 56b

 

Atribuțiile Oficiului pentru IA

 

Oficiul pentru IA îndeplinește următoarele funcții:

 

(a)

sprijină, consiliază și cooperează cu statele membre, cu autoritățile naționale de supraveghere, cu Comisia și cu alte instituții, organe, oficii și agenții ale Uniunii în ceea ce privește punerea în aplicare a prezentului regulament;

 

(b)

monitorizează și asigură aplicarea efectivă și consecventă a prezentului regulament, fără a aduce atingere sarcinilor autorităților naționale de supraveghere;

 

(c)

contribuie la coordonarea dintre autoritățile naționale de supraveghere responsabile cu aplicarea prezentului regulament;

 

(d)

servește drept mediator în discuțiile cu privire la dezacordurile grave care pot apărea între autoritățile competente în ceea ce privește aplicarea regulamentului;

 

(e)

coordonează anchetele comune, în temeiul articolului 66a;

 

(f)

contribuie la cooperarea eficace cu autoritățile competente din țările terțe și cu organizațiile internaționale;

 

(g)

colectează și partajează expertiza și cele mai bune practici ale statelor membre și sprijină autoritățile naționale de supraveghere ale statelor membre și Comisia în dezvoltarea expertizei organizaționale și tehnice necesare pentru punerea în aplicare a prezentului regulament, inclusiv prin facilitarea creării și a menținerii unei rezerve de experți la nivelul Uniunii;

 

(h)

examinează, din proprie inițiativă sau la cererea consiliului său de administrație sau a Comisiei, chestiuni legate de punerea în aplicare a prezentului regulament și emite avize, recomandări sau contribuții scrise, inclusiv cu privire la:

 

 

(i)

specificațiile tehnice sau standardele existente;

 

 

(ii)

orientările Comisiei;

 

 

(iii)

codurile de conduită și aplicarea acestora, în strânsă cooperare cu sectorul și cu alte părți interesate relevante;

 

 

(iv)

posibila revizuire a regulamentului, pregătirea actelor delegate și posibilele alinieri ale prezentului regulament la actele juridice enumerate în anexa II;

 

 

(v)

tendințele, cum ar fi competitivitatea europeană la nivel mondial în domeniul inteligenței artificiale, adoptarea inteligenței artificiale în Uniune, dezvoltarea competențelor digitale și amenințările sistemice emergente legate de inteligența artificială;

 

 

(vi)

orientările privind modul în care prezentul regulament se aplică tipologiei în continuă evoluție a lanțurilor valorice ale IA, în special cu privire la implicațiile rezultate în ceea ce privește responsabilitatea tuturor entităților implicate;

 

(i)

emite:

 

 

(i)

un raport anual care include o evaluare a punerii în aplicare a prezentului regulament, o examinare a rapoartelor privind incidentele grave menționate la articolul 62 și funcționarea bazei de date menționate la articolul 60 și

 

 

(ii)

recomandări adresate Comisiei privind clasificarea practicilor interzise, a sistemelor de IA cu grad ridicat de risc menționate în anexa III, a codurilor de conduită menționate la articolul 69 și a aplicării principiilor generale prezentate la articolul 4a;

 

(j)

sprijină autoritățile în crearea și dezvoltarea de spații de testare în materie de reglementare și facilitează cooperarea între spațiile de testare în materie de reglementare;

 

(k)

organizează reuniuni cu agențiile și organismele de guvernanță ale Uniunii ale căror sarcini sunt legate de inteligența artificială și de punerea în aplicare a prezentului regulament;

 

(l)

organizează consultări trimestriale cu Forumul consultativ și, după caz, consultări publice cu alte părți interesate și publică rezultatele acestor consultări pe site-ul său web;

 

(m)

promovează acțiuni de sensibilizare și de înțelegere în rândul publicului a beneficiilor, riscurilor, garanțiilor și drepturilor și obligațiilor legate de utilizarea sistemelor de IA;

 

(n)

facilitează elaborarea unor criterii comune și a unei înțelegeri comune între operatorii de pe piață și autoritățile competente a conceptelor relevante prevăzute în prezentul regulament;

 

(o)

asigură monitorizarea modelelor de bază și organizează un dialog periodic cu dezvoltatorii de modele de bază cu privire la conformitatea acestora, precum și a sistemelor de IA care utilizează astfel de modele de IA;

 

(p)

oferă orientări interpretative cu privire la modul în care Legea privind IA se aplică tipologiei din ce în ce mai evolutive a lanțurilor valorice ale IA și care vor fi implicațiile rezultate în ceea ce privește responsabilitatea tuturor entităților implicate în diferitele scenarii bazate pe stadiul actual al tehnologiei general recunoscut, inclusiv astfel cum se reflectă în standardele armonizate relevante;

 

(q)

asigură o supraveghere și o monitorizare specifice și instituționalizează un dialog periodic cu furnizorii de modele de bază cu privire la conformitatea modelelor de bază și a sistemelor de IA care utilizează astfel de modele de IA cu articolul 28b din prezentul regulament, precum și cu privire la cele mai bune practici ale industriei pentru autoguvernanță. Orice astfel de reuniune este deschisă autorităților naționale de supraveghere, organismelor notificate și autorităților de supraveghere a pieței, care pot participa și contribui la ea;

 

(r)

emite și actualizează periodic orientări privind pragurile care califică antrenarea unui model de bază drept rulaj mare de antrenament, înregistrează și monitorizează cazurile cunoscute de rulaje mari de antrenament și publică un raport anual privind situația actuală a dezvoltării, proliferării și utilizării modelelor de bază, alături de opțiunile de politică pentru a aborda riscurile și oportunitățile specifice modelelor de bază;

 

(s)

promovează cunoștințele în domeniul IA în conformitate cu articolul 4b.

Amendamentul 530

Propunere de regulament

Articolul 56 c (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 56c

 

Responsabilitate, independență și transparență

 

1.     Oficiul pentru IA:

 

(a)

este răspunzător în fața Parlamentului European și a Consiliului, în conformitate cu prezentul regulament;

 

(b)

acționează independent atunci când își îndeplinește sarcinile sau își exercită competențele și

 

(c)

asigură un nivel ridicat de transparență în ceea ce privește activitățile sale și dezvoltă bune practici administrative în această privință.

 

Regulamentul (CE) nr. 1049/2001 se aplică documentelor deținute de Oficiul pentru IA.

Amendamentul 531

Propunere de regulament

Articolul 57 a (nou) – secțiunea 2 – titlu

Textul propus de Comisie

Amendamentul

 

Titlu

 

SECȚIUNEA 2: Consiliul de administrație

Amendamentul 532

Propunere de regulament

Articolul 57 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 57a

 

Componența Consiliului de administrație

 

1.     Consiliul de administrație este alcătuit din următorii membri:

 

(a)

câte un reprezentant al autorității naționale de supraveghere a fiecărui stat membru;

 

(b)

un reprezentant al Comisiei;

 

(c)

un reprezentant al Autorității Europene pentru Protecția Datelor (AEPD);

 

(d)

un reprezentant al Agenției Uniunii Europene pentru Securitate Cibernetică (ENISA);

 

(e)

un reprezentant al Agenției pentru Drepturi Fundamentale (FRA).

 

Fiecare reprezentant al unei autorități naționale de supraveghere dispune de un vot. Reprezentanții Comisiei, ai AEPD, ai ENISA și ai FRA nu au drept de vot. Pentru fiecare membru există un membru supleant. Numirea membrilor și a membrilor supleanți ai Consiliului de administrație ține seama de necesitatea echilibrului de gen. Membrii Consiliului de administrație și membrii supleanți ai acestora sunt făcuți publici.

 

2.     Membrii și membrii supleanți ai Consiliului de administrație nu trebuie să dețină poziții sau interese comerciale conflictuale cu privire la niciun subiect legat de aplicarea prezentului regulament.

 

3.     Normele privind reuniunile și votul Consiliului de administrație, precum și numirea și revocarea din funcție a directorului executiv sunt prevăzute în regulamentul de procedură menționat la articolul 57b litera (a).

Amendamentul 533

Propunere de regulament

Articolul 57 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 57b

 

Funcțiile Consiliului de administrație

 

1.     Consiliul de administrație are următoarele sarcini:

 

(a)

ia decizii strategice cu privire la activitățile Oficiului pentru IA și adoptă regulamentul de procedură cu o majoritate de două treimi a membrilor săi;

 

(b)

pune în aplicare regulamentul său de procedură;

 

(c)

adoptă documentul unic de programare al Oficiului pentru IA, precum și raportul public anual, și le transmite pe amândouă Parlamentului European, Consiliului, Comisiei, cât și Curții de Conturi;

 

(d)

adoptă bugetul Oficiului pentru IA;

 

(e)

numește directorul executiv și, dacă este cazul, prelungește sau scurtează mandatul acestuia sau îl revocă din funcție;

 

(f)

decide cu privire la instituirea structurilor interne ale Oficiului pentru IA și, dacă este necesar, cu privire la modificarea structurilor interne necesare pentru îndeplinirea sarcinilor Oficiului pentru IA;

Amendamentul 534

Propunere de regulament

Articolul 57 c (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 57c

Președinția Consiliului de administrație

1.     Consiliul de administrație alege un președinte și doi vicepreședinți din rândul membrilor săi cu drept de vot, cu majoritate simplă.

2.     Mandatul președintelui și al vicepreședinților este de patru ani. Mandatul președintelui și al vicepreședinților poate fi reînnoit o dată.

Amendamentul 535

Propunere de regulament

Articolul 57 – secțiunea 3 – titlu

Textul propus de Comisie

Amendamentul

Structura comitetului

Secretariatul

Amendamentul 536

Propunere de regulament

Articolul 57 – alineatul 1

Textul propus de Comisie

Amendamentul

1.    Comitetul este alcătuit din autoritățile naționale de supraveghere, care sunt reprezentate de șeful autorității respective sau de un înalt funcționar echivalent al acesteia, precum și din Autoritatea Europeană pentru Protecția Datelor. La reuniuni pot fi invitate și alte autorități naționale în cazul în care chestiunile discutate le privesc .

1.    Activitățile secretariatului sunt gestionate de un director executiv. Directorul executiv răspunde în fața Consiliului de administrație. Fără a aduce atingere competențelor Consiliului de administrație și ale instituțiilor Uniunii, directorul executiv nu solicită și nu acceptă instrucțiuni din partea vreunui guvern sau a altui organism .

Amendamentul 537

Propunere de regulament

Articolul 57 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Comitetul își adoptă regulamentul de procedură cu majoritatea simplă a membrilor săi, pe baza unei propuneri a Comisiei. Regulamentul de procedură conține, de asemenea, aspecte operaționale legate de executarea sarcinilor comitetului, astfel cum sunt enumerate la articolul 58. Comitetul poate înființa subgrupuri, după caz, în scopul examinării unor chestiuni specifice.

2.    Directorul executiv participă la audieri cu privire la orice aspect legat de activitățile Oficiului pentru IA și prezintă un raport cu privire la îndeplinirea atribuțiilor directorului executiv atunci când este invitat în acest sens de Parlamentul European sau de Consiliu .

Amendamentul 538

Propunere de regulament

Articolul 57 – alineatul 3

Textul propus de Comisie

Amendamentul

3.    Comitetul este prezidat de Comisie. Comisia convoacă reuniunile și stabilește ordinea de zi în conformitate cu sarcinile care revin comitetului în temeiul prezentului regulament și cu regulamentul său de procedură. Comisia furnizează sprijin administrativ și analitic pentru activitățile desfășurate de comitet în temeiul prezentului regulament.

3.    Directorul executiv reprezintă Oficiul pentru IA, inclusiv în forurile internaționale de cooperare în domeniul inteligenței artificiale;

Amendamentul 539

Propunere de regulament

Articolul 57 – alineatul 4

Textul propus de Comisie

Amendamentul

4.    Comitetul poate invita experți și observatori externi să participe la reuniunile sale și poate organiza schimburi cu părți terțe interesate ale căror rezultate să contribuie la activitățile sale , într-o măsură adecvată. În acest scop, Comisia poate facilita schimburile dintre comitet și alte organisme , oficii, agenții și grupuri consultative ale Uniunii.

4.    Secretariatul asigură Consiliului de administrație și Forumului consultativ sprijinul analitic , administrativ și logistic necesar pentru îndeplinirea sarcinilor Oficiului pentru IA , inclusiv prin:

 

(a)

punerea în aplicare a deciziilor, a programelor și a activităților adoptate de Consiliul de administrație;

 

(b)

pregătirea în fiecare an a proiectului de document unic de programare, a proiectului de buget, a raportului anual de activitate privind Oficiul pentru IA, a proiectelor de aviz și a proiectelor de poziții ale Oficiului pentru IA și prezentarea acestora Consiliului de administrație;

 

(c)

coordonarea cu forurile internaționale pentru cooperarea în materie de inteligență artificială;

Amendamentul 540

Propunere de regulament

Articolul 58 – secțiunea 4 – titlu

Textul propus de Comisie

Amendamentul

Sarcinile comitetului

Forumul consultativ

Amendamentul 541

Propunere de regulament

Articolul 58 – paragraful 1 – partea introductivă

Textul propus de Comisie

Amendamentul

Atunci când oferă consiliere și asistență Comisiei în contextul articolului 56 alineatul (2), comitetul , în special:

Forumul consultativ furnizează Oficiului pentru IA contribuții ale părților interesate în chestiuni legate de prezentul regulament , în special în ceea ce privește sarcinile prevăzute la articolul 56b litera (l).

Amendamentul 542

Propunere de regulament

Articolul 58 – paragraful 2 (nou)

Textul propus de Comisie

Amendamentul

 

Componența Forumului consultativ reprezintă o selecție echilibrată a părților interesate, inclusiv a sectorului, a întreprinderilor nou-înființate, a IMM-urilor, a societății civile, a partenerilor sociali și a mediului academic. Componența Forumului consultativ este echilibrată în raport cu interesele comerciale și necomerciale și, în cadrul categoriei intereselor comerciale, cu IMM-urile și alte întreprinderi.

Amendamentul 543

Propunere de regulament

Articolul 58 – paragraful 3 (nou)

Textul propus de Comisie

Amendamentul

 

Consiliul de administrație numește membrii Forumului consultativ în conformitate cu procedura de selecție stabilită în regulamentul de procedură al Oficiului pentru IA și ținând seama de nevoia de transparență și în conformitate cu criteriile prevăzute la alineatul (2);

Amendamentul 544

Propunere de regulament

Articolul 58 – paragraful 4 (nou)

Textul propus de Comisie

Amendamentul

 

Mandatul membrilor Forumului consultativ este de doi ani, care poate fi prelungit cu cel mult patru ani.

Amendamentul 545

Propunere de regulament

Articolul 58 – paragraful 5 (nou)

Textul propus de Comisie

Amendamentul

 

Comitetul European de Standardizare (CEN), Comitetul European de Standardizare în Electrotehnică (CENELEC) și Institutul European de Standardizare în Telecomunicații (ETSI) sunt membri permanenți ai Forumului consultativ. Centrul Comun de Cercetare este membru permanent, fără drept de vot.

Amendamentul 546

Propunere de regulament

Articolul 58 – paragraful 6 (nou)

Textul propus de Comisie

Amendamentul

 

Forumul consultativ își stabilește regulamentul de procedură. Acesta alege doi copreședinți dintre membrii săi, în conformitate cu criteriile stabilite la alineatul (2). Mandatul copreședinților este de doi ani, reînnoibil o singură dată.

Amendamentul 547

Propunere de regulament

Articolul 58 – paragraful 7 (nou)

Textul propus de Comisie

Amendamentul

 

Forumul consultativ organizează reuniuni de cel puțin patru ori pe an. Forumul consultativ poate invita experți și alte părți interesate la reuniunile sale. Directorul executiv poate participa, din oficiu, la reuniunile Forumului consultativ.

Amendamentul 548

Propunere de regulament

Articolul 58 – paragraful 8 (nou)

Textul propus de Comisie

Amendamentul

 

În îndeplinirea rolului său prevăzut la alineatul (1), Forumul consultativ poate elabora avize, recomandări și contribuții scrise.

Amendamentul 549

Propunere de regulament

Articolul 58 – paragraful 9 (nou)

Textul propus de Comisie

Amendamentul

 

Forumul consultativ poate institui subgrupuri permanente sau temporare, după caz, în scopul examinării unor chestiuni specifice legate de obiectivele prezentului regulament.

Amendamentul 550

Propunere de regulament

Articolul 58 – paragraful 10 (nou)

Textul propus de Comisie

Amendamentul

 

Forumul consultativ întocmește un raport anual al activităților sale. Raportul respectiv este pus la dispoziția publicului.

Amendamentul 551

Propunere de regulament

Articolul 58 a – secțiunea 5 – titlu

Textul propus de Comisie

Amendamentul

 

Autoritățile europene privind evaluarea comparativă

Amendamentul 552

Propunere de regulament

Articolul 58 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 58a

Evaluarea comparativă

Autoritățile europene privind evaluarea comparativă menționate la articolul 15 alineatul (1a) și Oficiul pentru IA, în strânsă cooperare cu partenerii internaționali, elaborează în comun orientări și capacități eficiente din punctul de vedere al costurilor pentru a măsura și a compara aspectele sistemelor de IA și ale componentelor de IA, în special ale modelelor de bază relevante pentru conformitatea și asigurarea respectării prezentului regulament, pe baza tehnologiei de vârf general recunoscute, inclusiv astfel cum se reflectă în standardele armonizate relevante.

Amendamentul 553

Propunere de regulament

Articolul 59 – titlu

Textul propus de Comisie

Amendamentul

Desemnarea autorităților naționale competente

Desemnarea autorităților naționale de supraveghere

Amendamentul 554

Propunere de regulament

Articolul 59 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Fiecare stat membru instituie sau desemnează autorități naționale competente cu scopul de a asigura aplicarea și punerea în aplicare a prezentului regulament. Autoritățile naționale competente sunt organizate astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor lor .

1.   Fiecare stat membru desemnează o autoritate națională de supraveghere, care este organizată astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor sale până la …[trei luni de la data intrării în vigoare a prezentului regulament] .

Amendamentul 555

Propunere de regulament

Articolul 59 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Fiecare stat membru desemnează o autoritate națională de supraveghere din rândul autorităților naționale competente . Autoritatea națională de supraveghere acționează ca autoritate de notificare și autoritate de supraveghere a pieței , cu excepția cazului în care un stat membru are motive organizatorice și administrative pentru a desemna mai multe autorități .

2.    Autoritatea națională de supraveghere asigură aplicarea și punerea în aplicare a prezentului regulament . În ceea ce privește sistemele de IA cu grad ridicat de risc legate de produse cărora li se aplică actele juridice enumerate în anexa II , autoritățile competente desemnate în temeiul respectivelor acte juridice continuă să fie autoritățile principale în ceea ce privește procedurile administrative. Cu toate acestea, în măsura în care un caz implică aspecte reglementate exclusiv de prezentul regulament, autoritățile competente respective sunt obligate să respecte măsurile legate de aspectele emise de autoritatea națională de supraveghere desemnată în temeiul prezentului regulament. Autoritatea națională de supraveghere acționează ca autoritate de supraveghere a pieței .

Amendamentul 556

Propunere de regulament

Articolul 59 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Statele membre informează Comisia cu privire la desemnarea sau desemnările lor și , după caz , cu privire la motivele desemnării mai multor autorități .

3.   Statele membre publică și comunică Oficiului pentru IA și Comisiei autoritatea națională de supraveghere, precum și datele de contact ale acesteia , până la… [trei luni de la data intrării în vigoare a prezentului regulament]. Autoritatea națională de supraveghere acționează ca punct unic de contact pentru prezentul regulament și ar trebui să poată fi contactată prin mijloace de comunicații electronice .

Amendamentul 557

Propunere de regulament

Articolul 59 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Statele membre se asigură că autoritățile naționale competente dispun de resurse financiare și umane adecvate pentru a-și îndeplini sarcinile care le revin în temeiul prezentului regulament. În special, autoritățile naționale competente dispun în permanență de un personal suficient ale cărui competențe și expertiză includ o înțelegere aprofundată a tehnologiilor din domeniul inteligenței artificiale, a datelor și a calculului de date, a drepturilor fundamentale, a riscurilor în materie de sănătate și siguranță, precum și cunoașterea standardelor și a cerințelor legale existente.

4.   Statele membre se asigură că autoritatea națională de supraveghere dispune de resurse tehnice, financiare și umane adecvate și de infrastructura necesară pentru a-și îndeplini eficient sarcinile care îi revin în temeiul prezentului regulament. În special, autoritatea națională de supraveghere dispune în permanență de un personal suficient ale cărui competențe și expertiză includ o înțelegere aprofundată a tehnologiilor din domeniul inteligenței artificiale, a datelor și a calculului de date, a  protecției datelor cu caracter personal, a securității cibernetice, a dreptului în materie de concurență, a drepturilor fundamentale, a riscurilor în materie de sănătate și siguranță, precum și cunoașterea standardelor și a cerințelor legale existente. Statele membre evaluează și, dacă se consideră necesar, actualizează anual competențele și resursele necesare menționate la prezentul alineat.

Amendamentul 558

Propunere de regulament

Articolul 59 – alineatul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.     Fiecare autoritate de supraveghere își exercită competențele și își îndeplinește sarcinile în mod independent, imparțial și nepărtinitor. Membrii fiecărei autorități naționale de supraveghere, în îndeplinirea sarcinilor lor și în exercitarea competențelor care le revin în temeiul prezentului regulament, nu solicită și nici nu acceptă instrucțiuni din partea niciunui organism și se abțin de la orice acțiune incompatibilă cu atribuțiile lor.

Amendamentul 559

Propunere de regulament

Articolul 59 – alineatul 4 b (nou)

Textul propus de Comisie

Amendamentul

 

4b.     Autoritățile naționale de supraveghere îndeplinesc cerințele minime de securitate cibernetică stabilite pentru entitățile administrației publice identificate ca operatori de servicii esențiale în temeiul Directivei (UE) 2022/2555.

Amendamentul 560

Propunere de regulament

Articolul 59 – alineatul 4 c (nou)

Textul propus de Comisie

Amendamentul

 

4c.     Atunci când își îndeplinește sarcinile, autoritatea națională de supraveghere acționează în conformitate cu obligațiile de confidențialitate prevăzute la articolul 70.

Amendamentul 561

Propunere de regulament

Articolul 59 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Statele membre raportează anual Comisiei cu privire la situația resurselor financiare și umane ale autorităților naționale competente , evaluând gradul lor de adecvare. Comisia transmite aceste informații comitetului pentru a fi discutate și pentru a formula eventuale recomandări.

5.   Statele membre raportează anual Comisiei cu privire la situația resurselor financiare și umane ale autorității naționale de supraveghere , evaluând gradul lor de adecvare. Comisia transmite aceste informații Oficiului pentru IA pentru a fi discutate și pentru a formula eventuale recomandări.

Amendamentul 562

Propunere de regulament

Articolul 59 – alineatul 6

Textul propus de Comisie

Amendamentul

6.     Comisia facilitează schimbul de experiență între autoritățile naționale competente.

eliminat

Amendamentul 563

Propunere de regulament

Articolul 59 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Autoritățile naționale competente pot oferi orientări și consiliere cu privire la punerea în aplicare a prezentului regulament, inclusiv micilor furnizori . Ori de câte ori autoritățile naționale competente intenționează să ofere orientări și consiliere cu privire la un sistem de IA în domenii reglementate de alte acte legislative ale Uniunii, autoritățile naționale competente în temeiul legislației respective a Uniunii sunt consultate , după caz. Statele membre pot stabili, de asemenea, un punct central de contact pentru comunicarea cu operatorii.

7.   Autoritățile naționale de supraveghere pot oferi orientări și consiliere cu privire la punerea în aplicare a prezentului regulament, inclusiv IMM-urilor și întreprinderilor nou-înființate, luând în considerare orientările și recomandările Oficiului pentru IA sau ale Comisiei . Ori de câte ori autoritatea națională de supraveghere intenționează să ofere orientări și consiliere cu privire la un sistem de IA în domenii reglementate de alte acte legislative ale Uniunii, se elaborează orientări în consultare cu autoritățile naționale competente, în temeiul legislației respective a Uniunii, după caz.

Amendamentul 564

Propunere de regulament

Articolul 59 – alineatul 8

Textul propus de Comisie

Amendamentul

8.   Atunci când instituțiile, agențiile și organele Uniunii intră în domeniul de aplicare al prezentului regulament, Autoritatea Europeană pentru Protecția Datelor acționează ca autoritate competentă pentru supravegherea lor.

8.   Atunci când instituțiile, agențiile și organele Uniunii intră în domeniul de aplicare al prezentului regulament, Autoritatea Europeană pentru Protecția Datelor acționează ca autoritate competentă pentru supravegherea și coordonarea lor.

Amendamentul 565

Propunere de regulament

Articolul 59 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 59a

 

Mecanismul de cooperare între autoritățile naționale de supraveghere în cazurile care implică două sau mai multe state membre

 

1.     Fiecare autoritate națională competentă își îndeplinește sarcinile atribuite și exercită competențele conferite în concordanță cu prezentul regulament pe teritoriul statului membru de care aparține.

 

2.     Într-un caz care implică două sau mai multe autorități naționale de supraveghere, autoritatea națională de supraveghere din statul membru în care a avut loc încălcarea este considerată a fi autoritatea de supraveghere principală.

 

3.     În cazurile de tipul celor menționate la alineatul (2), autoritățile de supraveghere de resort cooperează și își transmit reciproc toate informațiile relevante în timp util. Autoritățile naționale de supraveghere cooperează pentru a ajunge la un consens.

Amendamentul 566

Propunere de regulament

Titlul VII

Textul propus de Comisie

Amendamentul

VII BAZA DE DATE A UE PENTRU SISTEME AUTONOME DE IA CU GRAD RIDICAT DE RISC

BAZA DE DATE A UE PENTRU SISTEME DE IA CU GRAD RIDICAT DE RISC

Amendamentul 567

Propunere de regulament

Articolul 60 – titlu

Textul propus de Comisie

Amendamentul

Baza de date a UE pentru sisteme autonome de IA cu grad ridicat de risc

Baza de date a UE pentru sisteme de IA cu grad ridicat de risc

Amendamentul 568

Propunere de regulament

Articolul 60 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Comisia, în colaborare cu statele membre, creează și întreține o bază de date a UE care conține informațiile menționate la alineatul  (2) privind sistemele de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2) care sunt înregistrate în conformitate cu articolul 51.

1.   Comisia, în colaborare cu statele membre, creează și întreține o bază de date publică a UE care conține informațiile menționate la alineatele  (2 ) și (2a ) privind sistemele de IA cu grad ridicat de risc menționate la articolul 6 alineatul (2) care sunt înregistrate în conformitate cu articolul 51.

Amendamentul 569

Propunere de regulament

Articolul 60 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Datele enumerate în anexa VIII se introduc în baza de date a UE de către furnizori. Comisia le furnizează acestora sprijin tehnic și administrativ.

2.   Datele enumerate în secțiunea A din anexa VIII se introduc în baza de date a UE de către furnizori.

Amendamentul 570

Propunere de regulament

Articolul 60 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Datele enumerate în secțiunea B din anexa VIII se introduc în baza de date a UE de către operatorii care sunt autorități publice sau instituții, organe, oficii sau agenții ale Uniunii sau acționează în numele lor și de către operatorii care sunt întreprinderi menționate la articolul 51 alineatele (1a) și (1b).

Amendamentul 571

Propunere de regulament

Articolul 60 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Informațiile conținute în baza de date a UE sunt accesibile publicului .

3.   Informațiile conținute în baza de date a UE sunt puse gratuit la dispoziția publicului, sunt ușor de utilizat și accesibile , ușor de navigat și pot fi citite automat, conținând date digitale structurate, bazate pe un protocol standardizat .

Amendamentul 572

Propunere de regulament

Articolul 60 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Baza de date a UE conține date cu caracter personal numai în măsura în care acest lucru este necesar pentru colectarea și prelucrarea informațiilor în conformitate cu prezentul regulament. Aceste informații includ numele și datele de contact ale persoanelor fizice responsabile cu înregistrarea sistemului și care au autoritatea legală de a-l reprezenta pe furnizor.

4.   Baza de date a UE conține date cu caracter personal numai în măsura în care acest lucru este necesar pentru colectarea și prelucrarea informațiilor în conformitate cu prezentul regulament. Aceste informații includ numele și datele de contact ale persoanelor fizice responsabile cu înregistrarea sistemului și care au autoritatea legală de a-l reprezenta pe furnizor sau pe operatorul care este o autoritate publică sau o instituție, un organ, un oficiu sau o agenție a Uniunii sau un operator care acționează în numele acestora sau un operator care este o întreprindere menționată la articolul 51 alineatul (1a) litera (b) și la alineatul (1b) .

Amendamentul 573

Propunere de regulament

Articolul 60 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Comisia este operatorul bazei de date a UE. Totodată, aceasta asigură furnizorilor sprijin tehnic și administrativ adecvat.

5.   Comisia este operatorul bazei de date a UE. Totodată, aceasta asigură furnizorilor și operatorilor sprijin tehnic și administrativ adecvat.

 

Baza de date îndeplinește cerințele de accesibilitate prevăzute în anexa I la Directiva (UE) 2019/882.

Amendamentul 574

Propunere de regulament

Articolul 61 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Sistemul de monitorizare ulterioară introducerii pe piață colectează, documentează și analizează în mod activ și sistematic datele relevante furnizate de utilizatori sau colectate din alte surse cu privire la performanța sistemelor de IA cu grad ridicat de risc pe toată durata lor de viață și permite furnizorului să evalueze conformitatea continuă a sistemelor de IA cu cerințele prevăzute în titlul III capitolul 2.

2.   Sistemul de monitorizare ulterioară introducerii pe piață colectează, documentează și analizează în mod activ și sistematic datele relevante furnizate de operatori sau colectate din alte surse cu privire la performanța sistemelor de IA cu grad ridicat de risc pe toată durata lor de viață și permite furnizorului să evalueze conformitatea continuă a sistemelor de IA cu cerințele prevăzute în titlul III capitolul 2. După caz, monitorizarea ulterioară introducerii pe piață include o analiză a interacțiunii cu alte sisteme de IA, inclusiv cu alte dispozitive și software, ținând seama de normele aplicabile din domenii precum protecția datelor, drepturile de proprietate intelectuală și dreptul concurenței.

Amendamentul 575

Propunere de regulament

Articolul 61 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Sistemul de monitorizare ulterioară introducerii pe piață se bazează pe un plan de monitorizare ulterioară introducerii pe piață. Planul de monitorizare ulterioară introducerii pe piață face parte din documentația tehnică menționată în anexa IV. Comisia adoptă un act de punere în aplicare prin care stabilește dispoziții detaliate de instituire a unui model pentru planul de monitorizare ulterioară introducerii pe piață și a listei elementelor care trebuie incluse în plan.

3.   Sistemul de monitorizare ulterioară introducerii pe piață se bazează pe un plan de monitorizare ulterioară introducerii pe piață. Planul de monitorizare ulterioară introducerii pe piață face parte din documentația tehnică menționată în anexa IV. Comisia adoptă un act de punere în aplicare prin care stabilește dispoziții detaliate de instituire a unui model pentru planul de monitorizare ulterioară introducerii pe piață și a listei elementelor care trebuie incluse în plan până la [12 luni de la data intrării în vigoare a prezentului regulament] .

Amendamentul 576

Propunere de regulament

Articolul 62 – titlu

Textul propus de Comisie

Amendamentul

Raportarea incidentelor grave și a funcționării defectuoase

Raportarea incidentelor grave

Amendamentul 577

Propunere de regulament

Articolul 62 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Furnizorii de sisteme de IA cu grad ridicat de risc introduse pe piața Uniunii raportează autorităților de supraveghere a pieței din statele membre în care s-a produs incidentul grav sau încălcarea respectivă orice incident grav sau orice funcționare defectuoasă a sistemelor respective, care constituie o încălcare a obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale.

1.   Furnizorii și, în cazul în care operatorii au identificat un incident grav, operatorii de sisteme de IA cu grad ridicat de risc introduse pe piața Uniunii raportează autorității naționale de supraveghere din statele membre în care s-a produs incidentul grav sau încălcarea respectivă orice incident grav al sistemelor respective, care constituie o încălcare a obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale.

Amendamentul 578

Propunere de regulament

Articolul 62 – alineatul 1 – paragraful 1

Textul propus de Comisie

Amendamentul

O astfel de notificare se efectuează imediat după ce furnizorul a stabilit o legătură de cauzalitate între sistemul de IA și incident sau funcționarea defectuoasă sau probabilitatea rezonabilă a unei astfel de legături și, în orice caz, nu mai târziu de 15 zile de la data la care furnizorii au luat cunoștință de incidentul grav sau de funcționarea defectuoasă .

O astfel de notificare se efectuează fără întârzieri nejustificate după ce furnizorul sau, după caz, operatorul a stabilit o legătură de cauzalitate între sistemul de IA și incident sau probabilitatea rezonabilă a unei astfel de legături și, în orice caz, nu mai târziu de 72 de ore de la data la care furnizorul sau, după caz, operatorul a luat cunoștință de incidentul grav.

Amendamentul 579

Propunere de regulament

Articolul 62 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     După ce se stabilește o legătură de cauzalitate între sistemul de IA și incidentul grav sau probabilitatea rezonabilă să existe o astfel de legătură, furnizorii iau măsurile corective adecvate în temeiul articolului 21.

Amendamentul 580

Propunere de regulament

Articolul 62 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   La primirea unei notificări referitoare la o încălcare a obligațiilor instituite în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale, autoritatea de supraveghere a pieței informează autoritățile sau organismele publice naționale menționate la articolul 64 alineatul (3). Comisia elaborează orientări specifice pentru a facilita respectarea obligațiilor prevăzute la alineatul (1). Orientările respective se emit în termen de cel mult 12 luni de la intrarea în vigoare a prezentului regulament .

2.   La primirea unei notificări referitoare la o încălcare a obligațiilor instituite în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale, autoritatea națională de supraveghere informează autoritățile sau organismele publice naționale menționate la articolul 64 alineatul (3). Comisia elaborează orientări specifice pentru a facilita respectarea obligațiilor prevăzute la alineatul (1). Orientările respective se emit până la [intrarea în vigoare a prezentului regulament] și sunt evaluate periodic .

Amendamentul 581

Propunere de regulament

Articolul 62 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Autoritățile naționale de supraveghere iau măsurile corespunzătoare în termen de 7 zile de la data la care au primit notificarea menționată la alineatul (1). În cazul în care încălcarea are loc sau este probabil să aibă loc în alt stat membru, autoritatea națională de supraveghere informează Oficiul pentru IA și autoritățile naționale de supraveghere relevante din aceste state membre.

Amendamentul 582

Propunere de regulament

Articolul 62 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   În cazul sistemelor de IA cu grad ridicat de risc menționate la punctul 5 litera (b) din anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care sunt instituții de credit reglementate de Directiva 2013/36/UE și pentru sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale dispozitivelor sau sunt ele însele dispozitive care fac obiectul Regulamentului (UE) 2017/745 și al Regulamentului (UE) 2017/746 , notificarea incidentelor grave sau a funcționării defectuoase se limitează la cele care constituie o încălcare a  obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale .

3.   În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III care sunt introduse pe piață sau puse în funcțiune de furnizori care fac obiectul instrumentelor legislative ale Uniunii care stabilesc obligații de raportare echivalente cu cele prevăzute în prezentul regulament , notificarea incidentelor grave care constituie o încălcare a  drepturilor fundamentale în temeiul dreptului Uniunii se transferă autorității naționale de supraveghere .

Amendamentul 583

Propunere de regulament

Articolul 62 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     Autoritățile naționale de supraveghere notifică anual Oficiului pentru IA incidentele grave care le-au fost raportate în conformitate cu prezentul articol.

Amendamentul 584

Propunere de regulament

Articolul 63 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Regulamentul (UE) 2019/1020 se aplică sistemelor de IA care intră sub incidența prezentului regulament. Cu toate acestea, în scopul aplicării efective a prezentului regulament:

1.   Regulamentul (UE) 2019/1020 se aplică sistemelor de IA și modelelor de bază care intră sub incidența prezentului regulament. Cu toate acestea, în scopul aplicării efective a prezentului regulament:

Amendamentul 585

Propunere de regulament

Articolul 63 – alineatul 1 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

autoritățile naționale de supraveghere acționează în calitate de autorități de supraveghere a pieței în temeiul prezentului regulament și au aceleași competențe și obligații ca autoritățile de supraveghere a pieței în temeiul Regulamentului (UE) 2019/1020.

Amendamentul 586

Propunere de regulament

Articolul 63 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Autoritatea națională de supraveghere raportează periodic Comisiei rezultatele activităților relevante de supraveghere a pieței. Autoritatea națională de supraveghere raportează fără întârziere Comisiei și autorităților naționale de concurență relevante toate informațiile identificate în cursul activităților de supraveghere a pieței care ar putea prezenta un potențial interes pentru aplicarea dreptului Uniunii privind normele în materie de concurență.

2.   Autoritatea națională de supraveghere raportează anual Comisiei și Oficiului pentru IA rezultatele activităților relevante de supraveghere a pieței. Autoritatea națională de supraveghere raportează fără întârziere Comisiei și autorităților naționale de concurență relevante toate informațiile identificate în cursul activităților de supraveghere a pieței care ar putea prezenta un potențial interes pentru aplicarea dreptului Uniunii privind normele în materie de concurență.

Amendamentul 587

Propunere de regulament

Articolul 63 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     În scopul asigurării aplicării efective a prezentului regulament, autoritățile naționale de supraveghere pot:

 

(a)

să efectueze inspecții neanunțate la fața locului și de la distanță ale sistemelor de IA cu grad ridicat de risc;

 

(b)

să obțină eșantioane legate de sistemele de IA cu grad ridicat de risc, inclusiv prin inspecții de la distanță, să reproducă prin inginerie inversă sistemele de IA și să obțină dovezi pentru a identifica cazurile de neconformitate.

Amendamentul 588

Propunere de regulament

Articolul 63 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Pentru sistemele de IA enumerate la alineatul 1 litera (a), în măsura în care sistemele sunt utilizate în scopul asigurării respectării legii, precum și la punctele 6 și 7 din anexa III, statele membre desemnează drept autorități de supraveghere a pieței în sensul prezentului regulament fie autoritățile de supraveghere în materie de protecție a datelor competente în temeiul Directivei (UE) 2016/680 sau al Regulamentului 2016/679, fie autoritățile naționale competente care supraveghează activitățile autorităților de aplicare a legii, de imigrație sau de azil ce pun în funcțiune sau utilizează sistemele respective .

5.   Pentru sistemele de IA care sunt utilizate în scopul asigurării respectării legii, statele membre desemnează drept autorități de supraveghere a pieței în sensul prezentului regulament autoritățile de supraveghere în materie de protecție a datelor competente în temeiul Directivei (UE) 2016/680.

Amendamentul 589

Propunere de regulament

Articolul 63 – alineatul 7

Textul propus de Comisie

Amendamentul

7.    Statele membre facilitează coordonarea dintre autoritățile de supraveghere a pieței desemnate în temeiul prezentului regulament și alte autorități sau organisme naționale relevante care supraveghează aplicarea legislației de armonizare a Uniunii enumerate în anexa II sau a altor acte legislative ale Uniunii care ar putea fi relevante pentru sistemele de IA cu grad ridicat de risc menționate în anexa III.

7.   Autoritățile naționale de supraveghere desemnate în temeiul prezentului regulament se coordonează cu alte autorități sau organisme naționale relevante care supraveghează aplicarea legislației de armonizare a Uniunii enumerate în anexa II sau a altor acte legislative ale Uniunii care ar putea fi relevante pentru sistemele de IA cu grad ridicat de risc menționate în anexa III.

Amendamentul 590

Propunere de regulament

Articolul 64 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   În ceea ce privește accesul la date și la documentație în contextul activităților lor , autorităților de supraveghere a pieței li se acordă acces deplin la seturile de date de antrenament, de validare și de testare utilizate de furnizor, inclusiv prin interfețe de programare a aplicațiilor („IPA”) sau prin alte mijloace și instrumente adecvate care permit accesul de la distanță .

1.   În contextul activităților sale și la cererea motivată a acesteia , autorității naționale de supraveghere i se acordă acces deplin la seturile de date de antrenament, de validare și de testare utilizate de furnizor sau , după caz, de operator, care sunt relevante și strict necesare în scopul solicitării sale, prin mijloace și instrumente tehnice adecvate .

Amendamentul 591

Propunere de regulament

Articolul 64 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III și în urma unei cereri motivate, autorităților de supraveghere a pieței li se acordă, de asemenea , acces la codul sursă al sistemului de IA .

2.   În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III , după ce toate celelalte modalități rezonabile de verificare a conformității au fost epuizate, inclusiv cele de la alineatul (1) ori s-au dovedit a fi insuficiente și în urma unei cereri motivate, autorității naționale de supraveghere i se acordă acces la modelele de antrenament sau modelele antrenate ale sistemului de IA , inclusiv la parametrii relevanți ai modelului. Toate informațiile obținute în conformitate cu articolul 70 sunt tratate ca informații confidențiale și fac obiectul legislației în vigoare a Uniunii privind protecția proprietății intelectuale și secretelor comerciale și sunt șterse la încheierea investigației pentru care au fost solicitate informațiile.

Amendamentul 592

Propunere de regulament

Articolul 64 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Alineatele (1) și (2) nu aduc atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020.

Amendamentul 593

Propunere de regulament

Articolul 64 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Autoritățile sau organismele publice naționale care supraveghează sau asigură respectarea obligațiilor în temeiul dreptului Uniunii care protejează drepturile fundamentale în ceea ce privește utilizarea sistemelor de IA cu grad ridicat de risc menționate în anexa III au competența de a solicita și de a accesa orice documentație creată sau păstrată în temeiul prezentului regulament atunci când accesul la documentația respectivă este necesar pentru îndeplinirea competențelor care le revin în temeiul mandatului lor, în limitele jurisdicției lor. Autoritatea sau organismul public relevant informează autoritatea de supraveghere a pieței din statul membru în cauză cu privire la orice astfel de cerere.

3.   Autoritățile sau organismele publice naționale care supraveghează sau asigură respectarea obligațiilor în temeiul dreptului Uniunii care protejează drepturile fundamentale în ceea ce privește utilizarea sistemelor de IA cu grad ridicat de risc menționate în anexa III au competența de a solicita și de a accesa orice documentație creată sau păstrată în temeiul prezentului regulament atunci când accesul la documentația respectivă este necesar pentru îndeplinirea competențelor care le revin în temeiul mandatului lor, în limitele jurisdicției lor. Autoritatea sau organismul public relevant informează autoritatea națională de supraveghere din statul membru în cauză cu privire la orice astfel de cerere.

Amendamentul 594

Propunere de regulament

Articolul 64 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   În termen de 3 luni de la intrarea în vigoare a prezentului regulament, fiecare stat membru identifică autoritățile sau organismele publice menționate la alineatul (3) și pune la dispoziția publicului o listă pe site-ul web al autorității naționale de supraveghere. Statele membre notifică lista Comisiei și tuturor celorlalte state membre și o actualizează.

4.   În termen de 3 luni de la intrarea în vigoare a prezentului regulament, fiecare stat membru identifică autoritățile sau organismele publice menționate la alineatul (3) și pune la dispoziția publicului o listă pe site-ul web al autorității naționale de supraveghere. Autoritățile naționale de supraveghere notifică lista Comisiei , Oficiului pentru IA și tuturor celorlalte autorități naționale de supraveghere și o actualizează. Comisia publică pe un site web special lista tuturor autorităților competente desemnate de statele membre în conformitate cu prezentul articol.

Amendamentul 595

Propunere de regulament

Articolul 64 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În cazul în care documentația menționată la alineatul (3) este insuficientă pentru a stabili dacă a avut loc sau nu o încălcare a obligațiilor prevăzute de dreptul Uniunii menite să protejeze drepturile fundamentale, autoritatea sau organismul public menționat la alineatul (3) poate adresa autorității de supraveghere a pieței o cerere motivată de organizare a testării sistemului de IA cu grad ridicat de risc prin mijloace tehnice. Autoritatea de supraveghere a pieței organizează testarea implicând îndeaproape autoritatea sau organismul public solicitant, într-un termen rezonabil de la primirea cererii.

5.   În cazul în care documentația menționată la alineatul (3) este insuficientă pentru a stabili dacă a avut loc sau nu o încălcare a obligațiilor prevăzute de dreptul Uniunii menite să protejeze drepturile fundamentale, autoritatea sau organismul public menționat la alineatul (3) poate adresa autorității naționale de supraveghere o cerere motivată de organizare a testării sistemului de IA cu grad ridicat de risc prin mijloace tehnice. Autoritatea națională de supraveghere organizează testarea implicând îndeaproape autoritatea sau organismul public solicitant, într-un termen rezonabil de la primirea cererii.

Amendamentul 596

Propunere de regulament

Articolul 65 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Prin sisteme de IA care prezintă un risc se înțelege un produs ce prezintă un risc definit la articolul 3 punctul 19 din Regulamentul (UE) 2019/1020 în ceea ce privește riscurile pentru sănătate sau siguranță sau pentru protecția drepturilor fundamentale ale persoanelor .

1.   Prin sisteme de IA care prezintă un risc se înțelege sisteme de IA care au potențialul de a afecta în mod negativ sănătatea și siguranța, drepturile fundamentale ale persoanelor în general, inclusiv la locul de muncă, protecția consumatorilor, mediul, securitatea publică, democrația sau statul de drept și alte interese publice, care sunt protejate de legislația aplicabilă de armonizare a Uniunii, într-o măsură care depășește ceea ce este considerat rezonabil și acceptabil în raport cu scopul lor preconizat sau în condiții normale sau previzibile în mod rezonabil de utilizare a sistemelor în cauză, care includ durata de utilizare și, după caz, punerea în funcțiune, instalarea și cerințele de întreținere .

Amendamentul 597

Propunere de regulament

Articolul 65 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   În cazul în care autoritatea de supraveghere a pieței dintr-un stat membru are suficiente motive să considere că un sistem de IA prezintă un risc astfel cum se menționează la alineatul (1), aceasta efectuează o evaluare a sistemului de IA în cauză din punctul de vedere al conformității sale cu toate cerințele și obligațiile prevăzute în prezentul regulament. Atunci când există riscuri pentru protecția drepturilor fundamentale, autoritatea de supraveghere a pieței informează , de asemenea, autoritățile sau organismele publice naționale relevante menționate la articolul 64 alineatul (3). Operatorii relevanți cooperează, după caz, cu autoritățile de supraveghere a pieței și cu celelalte autorități sau organisme publice naționale menționate la articolul 64 alineatul (3).

2.   În cazul în care autoritatea națională de supraveghere dintr-un stat membru are suficiente motive să considere că un sistem de IA prezintă un risc astfel cum se menționează la alineatul (1), aceasta efectuează o evaluare a sistemului de IA în cauză din punctul de vedere al conformității sale cu toate cerințele și obligațiile prevăzute în prezentul regulament. Atunci când există riscuri pentru protecția drepturilor fundamentale, autoritatea națională de supraveghere informează imediat și autoritățile sau organismele publice naționale de resort menționate la articolul 64 alineatul (3) și cooperează fără rezerve cu ele; În cazul în care există motive suficiente să se considere că un sistem de IA exploatează vulnerabilitățile grupurilor vulnerabile sau le încalcă drepturile în mod intenționat sau neintenționat, autoritatea națională de supraveghere are datoria de a investiga obiectivele de proiectare, datele de intrare, selecția modelului, implementarea și rezultatele sistemului de IA. Operatorii relevanți cooperează, după caz, cu autoritatea națională de supraveghere și cu celelalte autorități sau organisme publice naționale menționate la articolul 64 alineatul (3);

Amendamentul 598

Propunere de regulament

Articolul 65 – alineatul 2 – paragraful 1

Textul propus de Comisie

Amendamentul

În cazul în care, pe parcursul evaluării respective, autoritatea de supraveghere a pieței constată că sistemul de IA nu respectă cerințele și obligațiile prevăzute în prezentul regulament, aceasta solicită de îndată operatorului relevant să ia toate măsurile corective adecvate pentru a asigura conformitatea sistemului de IA, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta.

În cazul în care, pe parcursul evaluării respective, autoritatea națională de supraveghere sau, după caz, autoritatea publică națională menționată la articolul 64 alineatul (3) constată că sistemul de IA nu respectă cerințele și obligațiile prevăzute în prezentul regulament, aceasta solicită de îndată operatorului relevant să ia toate măsurile corective adecvate pentru a asigura conformitatea sistemului de IA, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta și, în orice caz, nu mai târziu de 15 zile lucrătoare sau astfel cum se prevede în legislația relevantă de armonizare a Uniunii, după caz .

Amendamentul 599

Propunere de regulament

Articolul 65 – alineatul 2 – paragraful 2

Textul propus de Comisie

Amendamentul

Autoritățile de supraveghere a pieței informează organismul notificat relevant în consecință. Articolul 18 din Regulamentul (UE) 2019/1020 se aplică măsurilor menționate la al doilea paragraf.

Autoritatea națională de supraveghere informează organismul notificat relevant în consecință. Articolul 18 din Regulamentul (UE) 2019/1020 se aplică măsurilor menționate la al doilea paragraf.

Amendamentul 600

Propunere de regulament

Articolul 65 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   În cazul în care autoritatea de supraveghere a pieței consideră că neconformitatea nu se limitează la teritoriul său național, informează Comisia și celelalte state membre cu privire la rezultatele evaluării și la măsurile pe care le-a impus operatorului.

3.   În cazul în care autoritatea națională de supraveghere consideră că neconformitatea nu se limitează la teritoriul său național, informează fără întârzieri nejustificate Comisia , Oficiul pentru IA și autoritatea națională de supraveghere din celelalte state membre cu privire la rezultatele evaluării și la măsurile pe care le-a impus operatorului.

Amendamentul 601

Propunere de regulament

Articolul 65 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În cazul în care operatorul unui sistem de IA nu întreprinde acțiunile corective adecvate în termenul menționat la alineatul (2), autoritatea de supraveghere a pieței ia toate măsurile provizorii corespunzătoare pentru a interzice sau a restricționa punerea la dispoziție a sistemului de IA pe piața sa națională, pentru a retrage produsul de pe piață sau pentru a-l rechema. Autoritatea respectivă informează Comisia și celelalte state membre , fără întârziere, cu privire la măsurile respective.

5.   În cazul în care operatorul unui sistem de IA nu întreprinde acțiunile corective adecvate în termenul menționat la alineatul (2), autoritatea națională de supraveghere ia toate măsurile provizorii corespunzătoare pentru a interzice sau a restricționa punerea la dispoziție sau în funcțiune a sistemului de IA pe piața sa națională, pentru a retrage sistemul de IA de pe piață sau pentru a-l rechema. Autoritatea respectivă informează imediat Comisia , Oficiul pentru IA și autoritatea națională de supraveghere din celelalte state membre cu privire la măsurile respective.

Amendamentul 602

Propunere de regulament

Articolul 65 – alineatul 6 – partea introductivă

Textul propus de Comisie

Amendamentul

6.   Informațiile menționate la alineatul (5) includ toate detaliile disponibile, în special cu privire la datele necesare pentru a identifica sistemul de IA neconform, originea sistemului de IA, natura neconformității invocate și riscul implicat, natura și durata măsurilor naționale luate, precum și argumentele prezentate de operatorul respectiv. În special, autoritățile de supraveghere a pieței indică dacă neconformitatea se datorează unuia sau mai multora dintre următoarele motive:

6.   Informațiile menționate la alineatul (5) includ toate detaliile disponibile, în special cu privire la datele necesare pentru a identifica sistemul de IA neconform, originea sistemului de IA și rețeaua de distribuție , natura neconformității invocate și riscul implicat, natura și durata măsurilor naționale luate, precum și argumentele prezentate de operatorul respectiv. În special, autoritatea națională de supraveghere indică dacă neconformitatea se datorează unuia sau mai multora dintre următoarele motive:

Amendamentul 603

Propunere de regulament

Articolul 65 – alineatul 6 – litera a

Textul propus de Comisie

Amendamentul

(a)

nerespectarea de către sistemul de IA a cerințelor prevăzute în titlul III capitolul 2 ;

(a)

nerespectarea de către sistemul de IA cu grad ridicat de risc a cerințelor prevăzute în prezentul regulament ;

Amendamentul 604

Propunere de regulament

Articolul 65 – alineatul 6 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5;

Amendamentul 605

Propunere de regulament

Articolul 65 – alineatul 6 – litera bb (nouă)

Textul propus de Comisie

Amendamentul

 

(bb)

nerespectarea dispozițiilor prevăzute la articolul 52.

Amendamentul 606

Propunere de regulament

Articolul 65 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Autoritățile de supraveghere a pieței din statele membre, altele decât autoritatea de supraveghere a pieței din statul membru care a inițiat procedura, informează imediat Comisia și celelalte state membre cu privire la toate măsurile adoptate și la toate informațiile suplimentare deținute referitoare la neconformitatea sistemelor de IA în cauză și, în cazul unui dezacord cu măsura națională notificată, cu privire la obiecțiile lor.

7.   Autoritățile naționale de supraveghere din statele membre, altele decât autoritatea națională de supraveghere din statul membru care a inițiat procedura, informează imediat Comisia , Oficiul pentru IA și celelalte state membre cu privire la toate măsurile adoptate și la toate informațiile suplimentare deținute referitoare la neconformitatea sistemelor de IA în cauză și, în cazul unui dezacord cu măsura națională notificată, cu privire la obiecțiile lor.

Amendamentul 607

Propunere de regulament

Articolul 65 – alineatul 8

Textul propus de Comisie

Amendamentul

8.   În cazul în care, în termen de trei luni de la primirea informațiilor menționate la alineatul (5), niciun stat membru și nici Comisia nu ridică vreo obiecție cu privire la o măsură provizorie luată de un stat membru, măsura respectivă este considerată justificată. Acest lucru nu aduce atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020.

8.   În cazul în care, în termen de trei luni de la primirea informațiilor menționate la alineatul (5), nicio autoritate națională de supraveghere a unui stat membru și nici Comisia nu ridică vreo obiecție cu privire la o măsură provizorie luată de o autoritate națională de supraveghere a altui stat membru, măsura respectivă este considerată justificată. Acest lucru nu aduce atingere drepturilor procedurale ale operatorului în cauză în conformitate cu articolul 18 din Regulamentul (UE) 2019/1020. Perioada menționată în prima frază a prezentului alineat se reduce la 30 de zile în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5.

Amendamentul 608

Propunere de regulament

Articolul 65 – alineatul 9

Textul propus de Comisie

Amendamentul

9.   Autoritățile de supraveghere a pieței din toate statele membre se asigură că se iau măsuri restrictive adecvate în ceea ce privește produsul în cauză, cum ar fi retragerea fără întârziere a  produsului de pe piețele lor.

9.   Autoritățile naționale de supraveghere din toate statele membre se asigură că se iau măsuri restrictive adecvate în ceea ce privește sistemul de IA în cauză, cum ar fi retragerea fără întârziere a  sistemului de IA de pe piețele lor.

Amendamentul 609

Propunere de regulament

Articolul 65 – alineatul 9 a (nou)

Textul propus de Comisie

Amendamentul

 

9a.     Autoritățile naționale de supraveghere raportează anual Oficiului pentru IA despre utilizarea practicilor interzise care au avut loc în anul respectiv și despre măsurile luate pentru a elimina sau atenua riscurile în conformitate cu prezentul articol.

Amendamentul 610

Propunere de regulament

Articolul 66 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Dacă, în termen de trei luni de la primirea notificării menționate la articolul 65 alineatul (5), se ridică obiecții de către un stat membru împotriva unei măsuri adoptate de un alt stat membru , sau în cazul în care Comisia consideră că măsura este contrară dreptului Uniunii, Comisia inițiază fără întârziere consultări cu statul membru și cu operatorul sau operatorii în cauză și evaluează măsura națională. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura națională este justificată sau nu în termen de 9  luni de la notificarea menționată la articolul 65 alineatul (5) și notifică această decizie statului membru în cauză.

1.   Dacă, în termen de trei luni de la primirea notificării menționate la articolul 65 alineatul (5) sau în termen de 30 de zile în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5, se ridică obiecții de către autoritatea națională de supraveghere a unui stat membru împotriva unei măsuri adoptate de altă autoritate națională de supraveghere, sau în cazul în care Comisia consideră că măsura este contrară dreptului Uniunii, Comisia inițiază fără întârziere consultări cu autoritatea națională de supraveghere a statului membru respectiv și cu operatorul sau operatorii în cauză și evaluează măsura națională. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura națională este justificată sau nu în termen de trei  luni ori în termen de 60 de zile, în cazul nerespectării interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5, de la notificarea menționată la articolul 65 alineatul (5) și notifică această decizie autorității naționale de supraveghere a statului membru în cauză. Comisia informează, de asemenea, toate celelalte autorități naționale de supraveghere cu privire la o astfel de decizie.

Amendamentul 611

Propunere de regulament

Articolul 66 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care măsura națională este considerată justificată, toate statele membre adoptă măsurile necesare pentru a se asigura că sistemul de IA neconform este retras de pe piețele lor și informează Comisia în consecință. În cazul în care măsura națională este considerată nejustificată, statul membru în cauză retrage măsura.

2.   În cazul în care măsura națională este considerată justificată, toate autoritățile naționale de supraveghere desemnate în temeiul prezentului regulament adoptă măsurile necesare astfel încât sistemul de IA neconform să fie retras neîntârziat de pe piețele lor și informează Comisia și Oficiul pentru IA în consecință. În cazul în care măsura națională este considerată nejustificată, autoritatea națională de supraveghere a statului membru în cauză retrage măsura.

Amendamentul 612

Propunere de regulament

Articolul 66 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 66a

Investigații comune

Dacă o autoritate națională de supraveghere are motive să suspecteze că încălcarea prezentului regulament de către un furnizor sau un operator al unui sistem de IA cu grad ridicat de risc sau al unui model de bază cu grad ridicat de risc constituie o încălcare pe scară largă cu o dimensiune europeană sau afectează sau este probabil să afecteze cel puțin 45 de milioane de persoane din mai multe state membre, respectiva autoritate națională de supraveghere informează oficiul de IA și poate solicita autorităților naționale de supraveghere din statele membre în care a avut loc o astfel de încălcare să înceapă o investigație comună. Oficiul pentru IA asigură coordonarea centrală a investigației comune. Competențele de investigare rămân în sfera de competență a autorităților naționale de supraveghere.

Amendamentul 613

Propunere de regulament

Articolul 67 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   În cazul în care, după efectuarea unei evaluări în temeiul articolului 65, autoritatea de supraveghere a pieței dintr-un stat membru constată că, deși un sistem de IA este în conformitate cu prezentul regulament, acesta prezintă un risc pentru sănătatea sau siguranța persoanelor, pentru respectarea obligațiilor prevăzute de dreptul Uniunii sau de dreptul intern menite să protejeze drepturile fundamentale sau alte aspecte legate de protecția interesului public, aceasta solicită operatorului relevant să ia toate măsurile corespunzătoare pentru a se asigura că sistemul de IA în cauză, atunci când este introdus pe piață sau pus în funcțiune, nu mai prezintă riscul respectiv și să retragă de pe piață sau să recheme sistemul de IA într-un termen rezonabil, proporțional cu natura riscului, indicat de aceasta.

1.   În cazul în care, după ce a efectuat o evaluare în temeiul articolului 65 în colaborare strânsă cu autoritatea publică națională de resort menționată la articolul 64 alineatul (3) , autoritatea națională de supraveghere dintr-un stat membru constată că, deși este în conformitate cu prezentul regulament, un sistem de IA prezintă totuși un risc mare pentru sănătatea sau siguranța persoanelor, pentru respectarea obligațiilor prevăzute de dreptul Uniunii sau de dreptul intern menite să protejeze drepturile fundamentale sau mediul sau democrația și statul de drept sau alte aspecte legate de protecția interesului public, aceasta solicită operatorului relevant să ia toate măsurile corespunzătoare pentru a se asigura că sistemul de IA în cauză, atunci când este introdus pe piață sau pus în funcțiune, nu mai prezintă riscul respectiv.

Amendamentul 614

Propunere de regulament

Articolul 67 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Furnizorul sau alți operatori relevanți se asigură că sunt întreprinse acțiuni corective cu privire la toate sistemele de IA în cauză pe care aceștia le-au pus la dispoziție pe piață în întreaga Uniune, în termenul prevăzut de autoritatea de supraveghere a pieței din statul membru menționată la alineatul (1).

2.   Furnizorul sau alți operatori relevanți se asigură că sunt întreprinse acțiuni corective cu privire la toate sistemele de IA în cauză pe care aceștia le-au pus la dispoziție pe piață în întreaga Uniune, în termenul prevăzut de autoritatea națională de supraveghere din statul membru menționată la alineatul (1).

Amendamentul 615

Propunere de regulament

Articolul 67 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Dacă furnizorul sau alți operatori relevanți nu iau măsuri corective astfel cum se prevede la alineatul (2), iar sistemul de IA continuă să prezinte un risc astfel cum se menționează la alineatul (1), autoritatea de națională de supraveghere a pieței poate solicita operatorului relevant să retragă sistemul de IA de pe piață sau să îl recheme într-un termen rezonabil, proporțional cu natura riscului.

Amendamentul 616

Propunere de regulament

Articolul 67 – alineatul 3

Textul propus de Comisie

Amendamentul

3.    Statul membru informează imediat Comisia și celelalte state membre . Informațiile includ toate detaliile disponibile, în special datele necesare pentru identificarea sistemului de IA în cauză, originea și a  lanțului de aprovizionare aferent acestuia, natura riscului implicat, precum și natura și durata măsurilor naționale luate.

3.    Autoritatea națională de supraveghere informează imediat Comisia, Oficiul pentru IA și celelalte autorități naționale de supraveghere . Informațiile includ toate detaliile disponibile, în special datele necesare pentru identificarea sistemului de IA în cauză, originea și a  lanțului de aprovizionare aferent acestuia, natura riscului implicat, precum și natura și durata măsurilor naționale luate.

Amendamentul 617

Propunere de regulament

Articolul 67 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Comisia inițiază fără întârziere consultări cu statele membre și cu operatorul relevant și evaluează măsurile naționale luate. Pe baza rezultatelor evaluării respective, Comisia decide dacă măsura este justificată sau nu și, dacă este cazul, propune măsuri adecvate.

4.   Comisia inițiază fără întârziere, în consultare cu Oficiul pentru AI, consultări cu autoritățile naționale de supraveghere și cu statele membre în cauză și cu operatorul relevant și evaluează măsurile naționale luate. Pe baza rezultatelor evaluării respective, Oficiul pentru IA decide dacă măsura este justificată sau nu și, dacă este cazul, propune măsuri adecvate.

Amendamentul 618

Propunere de regulament

Articolul 67 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Comisia comunică decizia sa celorlalte state membre.

5.   Comisia, în consultare cu Oficiul pentru IA, comunică imediat decizia sa autorităților naționale de supraveghere din statele membre în cauză și operatorilor relevanți . De asemenea, informează toate celelalte autorități naționale de supraveghere cu privire la decizie.

Amendamentul 619

Propunere de regulament

Articolul 67 – alineatul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.     Comisia adoptă orientări pentru a ajuta autoritățile naționale competente să identifice și să rectifice, după caz, probleme similare care apar în alte sisteme de IA.

Amendamentul 620

Propunere de regulament

Articolul 68 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Autoritatea de supraveghere a pieței dintr-un stat membru solicită operatorului relevant să pună capăt neconformității în cauză, atunci când constată una dintre situațiile următoare:

1.   Autoritatea națională de supraveghere a pieței dintr-un stat membru solicită operatorului relevant să pună capăt neconformității în cauză, atunci când constată una dintre situațiile următoare:

Amendamentul 621

Propunere de regulament

Articolul 68 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

marcajul de conformitate a fost aplicat cu încălcarea articolului 49;

(a)

marcajul CE a fost aplicat cu încălcarea articolului 49;

Amendamentul 622

Propunere de regulament

Articolul 68 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

marcajul de conformitate nu este aplicat;

(b)

marcajul CE nu a fost aplicat;

Amendamentul 623

Propunere de regulament

Articolul 68 – alineatul 1 – litera ea (nouă)

Textul propus de Comisie

Amendamentul

 

(ea)

documentația tehnică nu este disponibilă:

Amendamentul 624

Propunere de regulament

Articolul 68 – alineatul 1 – litera eb (nouă)

Textul propus de Comisie

Amendamentul

 

(eb)

nu a fost efectuată înregistrarea în baza de date a UE.

Amendamentul 625

Propunere de regulament

Articolul 68 – alineatul 1 – litera ec (nouă)

Textul propus de Comisie

Amendamentul

 

(ec)

după caz, nu a fost numit reprezentantul autorizat.

Amendamentul 626

Propunere de regulament

Articolul 68 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   În cazul în care neconformitatea menționată la alineatul (1) persistă, statul membru în cauză ia toate măsurile corespunzătoare pentru a restricționa sau a interzice punerea la dispoziție pe piață a sistemului de IA cu grad ridicat de risc sau se asigură că acesta este rechemat sau retras de pe piață.

2.   În cazul în care neconformitatea menționată la alineatul (1) persistă, autoritatea națională de supraveghere din statul membru în cauză ia toate măsurile corespunzătoare și proporționate pentru a restricționa sau a interzice punerea la dispoziție pe piață a sistemului de IA cu grad ridicat de risc sau dă dispoziții să fie rechemat sau retras de pe piață fără întârziere . Autoritate națională de supraveghere din statul membru în cauză comunică imediat Oficiului pentru IA cazul de neconformitate și măsurile luate.

Amendamentul 627

Propunere de regulament

Articolul 68 – capitolul 3a (nou)

Textul propus de Comisie

Amendamentul

 

3a.

Căi de atac

Amendamentul 628

Propunere de regulament

Articolul 68 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 68a

 

Dreptul de a depune o plângere la o autoritate națională de supraveghere

 

1.     Fără a aduce atingere oricăror alte căi de atac administrative sau judiciare, orice persoană fizică sau grup de persoane fizice are dreptul de a depune o plângere la o autoritate de supraveghere, în special în statul membru în care își are reședința obișnuită, în care se află locul său de muncă sau în care a avut loc presupusa încălcare, dacă consideră că sistemul de IA asociat persoanei respective încalcă prezentul regulament.

 

2.     Autoritatea națională de supraveghere la care s-a depus plângerea informează reclamantul cu privire la evoluția și rezultatul plângerii, inclusiv posibilitatea de a exercita o cale de atac judiciară în temeiul articolului 78.

Amendamentul 629

Propunere de regulament

Articolul 68 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 68b

 

Dreptul la o cale de atac judiciară efectivă împotriva unei autorități de supraveghere

 

1.     Fără a aduce atingere niciunei alte căi de atac administrative sau nejudiciare, fiecare persoană fizică sau juridică are dreptul la o cale de atac judiciară eficientă împotriva unei decizii obligatorii din punct de vedere juridic a unei autorități naționale de supraveghere care o vizează.

 

2.     Fără a aduce atingere niciunei alte căi de atac administrative sau extrajudiciare, fiecare persoană fizică sau juridică are dreptul de a exercita o cale de atac judiciară efectivă dacă autoritatea națională de supraveghere competentă în conformitate cu articolul 59 nu tratează o plângere sau nu informează persoana respectivă în termen de trei luni cu privire la evoluția sau la soluționarea plângerii depuse în conformitate cu articolul 68a.

 

3.     Acțiunile împotriva unei autorități naționale de supraveghere sunt intentate la instanțele din statul membru în care este stabilită autoritatea națională de supraveghere.

 

4.     În cazul în care acțiunile sunt introduse împotriva unei decizii a unei autorități de naționale de supraveghere care a fost precedată de un aviz sau o decizie a Comisiei în cadrul procedurii de salvgardare a uniunii, autoritatea de supraveghere transmite curții avizul respectiv sau decizia respectivă.

Amendamentul 630

Propunere de regulament

Articolul 68 c (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 68c

 

Dreptul la explicarea luării deciziilor individuale

 

1.     Orice persoană afectată care face obiectul unei decizii luate de operator pe baza rezultatelor unui sistem IA de risc ridicat, care produce efecte juridice sau o afectează în mod similar și semnificativ într-un mod pe care aceasta îl consideră că are un impact negativ asupra sănătății, siguranței, drepturilor fundamentale, bunăstării socio-economice sau asupra oricărui alt drept care decurge din obligațiile prevăzute în prezentul regulament, are dreptul de a solicita operatorului o explicație clară și semnificativă în temeiul articolului 13 alineatul (1) cu privire la rolul sistemului de IA în procedura de luare a deciziilor, la principalii parametri ai deciziei luate și la datele de intrare aferente.

 

2.     Alineatul (1) nu se aplică utilizării sistemelor de IA pentru care sunt prevăzute excepții de la obligația prevăzută la alineatul (1) sau restricții de la această obligație în temeiul dreptului Uniunii sau al dreptului intern, în măsura în care o astfel de excepție sau astfel de restricții respectă esența drepturilor și libertăților fundamentale și constituie o măsură necesară și proporțională într-o societate democratică.

 

3.     Prezentul articol de aplică fără a aduce atingere articolelor 13, 14, 15 și 22 din Regulamentul 2016/679.

Amendamentul 631

Propunere de regulament

Articolul 68 d (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 68d

 

Modificarea Directivei (UE) 2020/1828

 

În anexa I la Directiva (UE) 2020/1828 a Parlamentului European și a Consiliului  (1a) , se adaugă următorul punct:

 

„(67a)

Regulamentul xxxx/xxxx al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii (JO L …)]”.

Amendamentul 632

Propunere de regulament

Articolul 68 e (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 68e

Raportarea încălcărilor și protecția persoanelor care raportează

Se aplică Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului pentru raportarea încălcării prezentului regulament și protecția persoanelor care raportează astfel de încălcări.

Amendamentul 633

Propunere de regulament

Articolul 69 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Comisia și statele membre încurajează și facilitează elaborarea de coduri de conduită menite să promoveze aplicarea voluntară pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc, a cerințelor prevăzute în titlul III capitolul 2, pe baza unor specificații și soluții tehnice care sunt mijloace adecvate de asigurare a conformității cu aceste cerințe, având în vedere scopul preconizat al sistemelor.

1.   Comisia, Oficiul pentru IA și statele membre încurajează și facilitează elaborarea de coduri de conduită menite, inclusiv atunci când sunt elaborate pentru a demonstra în ce fel sistemele de IA respectă principiile stabilite la articolul 4a și, prin urmare, pot fi considerate de încredere , să promoveze aplicarea voluntară pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc, a cerințelor prevăzute în titlul III capitolul 2, pe baza unor specificații și soluții tehnice care sunt mijloace adecvate de asigurare a conformității cu aceste cerințe, având în vedere scopul preconizat al sistemelor.

Amendamentul 634

Propunere de regulament

Articolul 69 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Comisia și comitetul încurajează și facilitează elaborarea de coduri de conduită menite să promoveze aplicarea voluntară, pentru sistemele de IA, a cerințelor legate, de exemplu, de durabilitatea mediului, de accesibilitatea pentru persoanele cu handicap, de participarea părților interesate la proiectarea și dezvoltarea sistemelor de IA și de diversitatea echipelor de dezvoltare, pe baza unor obiective clare și a unor indicatori-cheie de performanță pentru a măsura realizarea obiectivelor respective.

2.   Codurile de conduită menite să promoveze respectarea voluntară a principiilor care stau la baza sistemelor de IA fiabile, trebuie, în special :

 

(a)

să vizeze un nivel suficient de cunoaștere în domeniul IA în rândul personalului lor și al altor persoane care se ocupă de operarea și utilizarea sistemelor de IA pentru a respecta aceste principii;

 

(b)

să analizeze în ce măsură sistemele lor de IA pot afecta persoanele sau grupurile de persoane vulnerabile, inclusiv copiii, persoanele în vârstă, migranții și persoanele cu dizabilități, sau dacă ar putea fi adoptate măsuri pentru a îmbunătăți accesibilitatea sau a sprijini în alt fel aceste persoane sau grupuri de persoane;

 

(c)

să analizeze modul în care utilizarea sistemelor lor de IA poate avea un impact asupra diversității, echilibrului de gen și a egalității de gen sau le poate îmbunătăți;

 

(d)

să acorde atenție posibilității ca sistemele lor de IA pot fi utilizate într-un mod care, direct sau indirect, ar putea consolida în mod rezidual sau semnificativ prejudecățile sau inegalitățile existente;

 

(e)

să reflecteze asupra necesității și relevanței existenței unor echipe de dezvoltare diverse în vederea asigurării unei proiectări incluzive a sistemelor lor;

 

(f)

să analizeze cu atenție dacă sistemele lor pot avea un impact negativ asupra societății, în special în ceea ce privește instituțiile politice și procesele democratice;

 

(g)

să evalueze modul în care sistemele de IA pot contribui la durabilitatea mediului și, în special, la angajamentele asumate de Uniune în cadrul Pactului verde european și al Declarației europene privind drepturile și principiile digitale ;

Amendamentul 635

Propunere de regulament

Articolul 69 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Codurile de conduită pot fi elaborate de furnizori individuali de sisteme de IA sau de organizații care îi reprezintă sau de ambele, inclusiv cu implicarea utilizatorilor și a oricăror părți interesate și a organizațiilor lor reprezentative. Codurile de conduită pot acoperi unul sau mai multe sisteme de IA, ținând seama de similaritatea scopului preconizat al sistemelor relevante.

3.   Codurile de conduită pot fi elaborate de furnizori individuali de sisteme de IA sau de organizații care îi reprezintă sau de ambele, inclusiv cu implicarea utilizatorilor și a oricăror părți interesate, printre care și cercetătorii științifici, și a organizațiilor lor reprezentative, mai ales sindicatele și organizațiile consumatorilor . Codurile de conduită pot acoperi unul sau mai multe sisteme de IA, ținând seama de similaritatea scopului preconizat al sistemelor relevante. Furnizorii care adoptă coduri de conduită vor desemna cel puțin o persoană fizică responsabilă cu monitorizarea internă.

Amendamentul 636

Propunere de regulament

Articolul 69 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Comisia și comitetul țin seama de interesele și nevoile specifice ale micilor furnizori și ale întreprinderilor nou-înființate atunci când încurajează și facilitează elaborarea de coduri de conduită.

4.   Comisia și Oficiul pentru IA comitetul țin seama de interesele și nevoile specifice ale IMM-urilor și ale întreprinderilor nou-înființate atunci când încurajează și facilitează elaborarea de coduri de conduită.

Amendamentul 637

Propunere de regulament

Articolul 70 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.   Autoritățile naționale competente și organismele notificate implicate în aplicarea prezentului regulament respectă confidențialitatea informațiilor și a datelor obținute în îndeplinirea sarcinilor și a activităților lor într-un mod care să protejeze, în special:

1.   Comisia, autoritățile naționale competente și organismele notificate, Oficiul pentru IA și orice altă persoană fizică sau juridică implicate în aplicarea prezentului regulament respectă confidențialitatea informațiilor și a datelor obținute în îndeplinirea sarcinilor și a activităților lor într-un mod care să protejeze, în special:

Amendamentul 638

Propunere de regulament

Articolul 70 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

drepturile de proprietate intelectuală și informațiile comerciale confidențiale sau secretele comerciale ale unei persoane fizice sau juridice, inclusiv codul sursă, cu excepția cazurilor menționate la articolul 5 din Directiva 2016/943 privind protecția know-how-ului și a informațiilor de afaceri nedivulgate (secrete comerciale) împotriva dobândirii, utilizării și divulgării ilegale;

(a)

drepturile de proprietate intelectuală și informațiile comerciale confidențiale sau secretele comerciale ale unei persoane fizice sau juridice, în conformitate cu dispozițiile Directivelor 2004/48/CE și 2016/943/CE, inclusiv codul sursă, cu excepția cazurilor menționate la articolul 5 din Directiva 2016/943 privind protecția know-how-ului și a informațiilor de afaceri nedivulgate (secrete comerciale) împotriva dobândirii, utilizării și divulgării ilegale;

Amendamentul 639

Propunere de regulament

Articolul 70 – alineatul 1 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

interesele de securitate publică și națională;

Amendamentul 640

Propunere de regulament

Articolul 70 – alineatul 1 a (nou)

Textul propus de Comisie

Amendamentul

 

1a.     Autoritățile implicate în aplicarea prezentului regulament în temeiul alineatului (1) reduc la minimum cantitatea de date solicitate pentru divulgarea datelor care sunt strict necesare pentru riscul perceput și pentru evaluarea riscului respectiv. Acestea șterg datele de îndată ce nu mai sunt necesare în scopul pentru care au fost solicitate. Ele elaborează măsuri adecvate și eficiente de securitate cibernetică, tehnice și organizatorice pentru a proteja securitatea și confidențialitatea informațiilor și a datelor obținute în îndeplinirea sarcinilor și activităților lor.

Amendamentul 641

Propunere de regulament

Articolul 70 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.   Fără a aduce atingere alineatului (1), informațiile care au făcut obiectul unui schimb în condiții de confidențialitate între autoritățile naționale competente și între autoritățile naționale competente și Comisie nu se divulgă fără consultarea prealabilă a autorității naționale competente emitente și a utilizatorului atunci când sistemele de IA cu grad ridicat de risc menționate la punctele 1, 6 și 7 din anexa III sunt utilizate de autoritățile de aplicare a legii, de imigrație sau de azil, în cazul în care o astfel de divulgare ar pune în pericol interesele publice și de securitate națională.

2.    Fără a aduce atingere alineatului (1) și alineatului (1a) , informațiile care au făcut obiectul unui schimb în condiții de confidențialitate între autoritățile naționale competente și între autoritățile naționale competente și Comisie nu se divulgă fără consultarea prealabilă a autorității naționale competente emitente și a operatorului atunci când sistemele de IA cu grad ridicat de risc menționate la punctele 1, 6 și 7 din anexa III sunt utilizate de autoritățile de aplicare a legii, de imigrație sau de azil, în cazul în care o astfel de divulgare ar pune în pericol siguranța publică sau securitatea națională.

Amendamentul 642

Propunere de regulament

Articolul 70 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Alineatele (1) și (2) nu aduc atingere drepturilor și obligațiilor care revin Comisiei, statelor membre și organismelor notificate cu privire la schimbul de informații și difuzarea avertizărilor și nici obligațiilor părților în cauză de a furniza informații în temeiul dreptului penal al statelor membre.

3.   Alineatele (1), (1a) și (2) nu aduc atingere drepturilor și obligațiilor care revin Comisiei, statelor membre și organismelor notificate cu privire la schimbul de informații și difuzarea avertizărilor și nici obligațiilor părților în cauză de a furniza informații în temeiul dreptului penal al statelor membre.

Amendamentul 643

Propunere de regulament

Articolul 70 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Comisia și statele membre pot face schimb, atunci când este necesar, de informații confidențiale cu autoritățile de reglementare din țări terțe cu care au încheiat acorduri de confidențialitate bilaterale sau multilaterale care garantează un nivel adecvat de confidențialitate.

4.   Comisia și statele membre pot face schimb, atunci când este strict necesar și în conformitate cu dispozițiile relevante din acordurile internaționale și comerciale , de informații confidențiale cu autoritățile de reglementare din țări terțe cu care au încheiat acorduri de confidențialitate bilaterale sau multilaterale care garantează un nivel adecvat de confidențialitate.

Amendamentul 644

Propunere de regulament

Articolul 71 – titlu

Textul propus de Comisie

Amendamentul

Sancțiuni și amenzi

Sancțiuni

Amendamentul 645

Propunere de regulament

Articolul 71 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   În conformitate cu clauzele și condițiile prevăzute în prezentul regulament, statele membre stabilesc normele privind sancțiunile, inclusiv amenzile administrative, aplicabile în cazul încălcării prezentului regulament, și iau toate măsurile necesare pentru a se asigura că acestea sunt puse în aplicare în mod corespunzător și cu eficacitate. Sancțiunile prevăzute sunt eficace, proporționale și disuasive. Acestea țin seama în special de interesele micilor furnizori și ale întreprinderilor nou-înființate, precum și de viabilitatea lor economică.

1.   În conformitate cu clauzele și condițiile prevăzute în prezentul regulament, statele membre stabilesc normele privind sancțiunile, inclusiv amenzile administrative, aplicabile în cazul încălcării prezentului regulament de către orice operator , și iau toate măsurile necesare pentru a se asigura că acestea sunt puse în aplicare în mod corespunzător și cu eficacitate și sunt aliniate la orientările emise de Comisie și Oficiul pentru IA în temeiul articolului 82b . Sancțiunile prevăzute sunt eficace, proporționale și disuasive. Acestea țin seama în special de interesele IMM-urilor și ale întreprinderilor nou-înființate , precum și de viabilitatea lor economică.

Amendamentul 646

Propunere de regulament

Articolul 71 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Statele membre notifică normele respective Comisiei și îi comunică acesteia, fără întârziere, orice modificare ulterioară privind aceste norme.

2.   Statele membre notifică Comisiei și Oficiului pentru IA până la [ 12 luni de la data intrării în vigoare a prezentului regulament ] acele morme și măsuri și notifică, fără întârziere, orice modificare ulterioară a acestora.

Amendamentul 647

Propunere de regulament

Articolul 71 – alineatul 3 – partea introductivă

Textul propus de Comisie

Amendamentul

3.   Următoarele încălcări fac obiectul unor amenzi administrative de până la 30 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 6 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare:

3.    Nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5 face obiectul unor amenzi administrative de până la 40 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 7  % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare;

Amendamentul 648

Propunere de regulament

Articolul 71 – alineatul 3 – litera a

Textul propus de Comisie

Amendamentul

(a)

nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5;

eliminat

Amendamentul 649

Propunere de regulament

Articolul 71 – alineatul 3 – litera b

Textul propus de Comisie

Amendamentul

(b)

neconformitatea sistemului de IA cu cerințele prevăzute la articolul 10.

eliminat

Amendamentul 650

Propunere de regulament

Articolul 71 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     Neconformitatea sistemului de IA cu cerințele prevăzute la articolul 10 și la articolul 13 face obiectul unor amenzi administrative de până la 20 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 4 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea.

Amendamentul 651

Propunere de regulament

Articolul 71 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   Neconformitatea sistemului de IA cu oricare dintre cerințele sau obligațiile în temeiul prezentului regulament, altele decât cele prevăzute la articolele 5 și 10, face obiectul unor amenzi administrative de până la 20 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 4 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea.

4.   Neconformitatea sistemului de IA sau a modelului de bază cu oricare dintre cerințele sau obligațiile în temeiul prezentului regulament, altele decât cele prevăzute la articolele 5 , 10 și 13 , face obiectul unor amenzi administrative de până la 10 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 2 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea.

Amendamentul 652

Propunere de regulament

Articolul 71 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   Furnizarea de informații incorecte, incomplete sau înșelătoare organismelor notificate și autorităților naționale competente ca răspuns la o cerere face obiectul unor amenzi administrative de până la 10 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 2 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea.

5.   Furnizarea de informații incorecte, incomplete sau înșelătoare organismelor notificate și autorităților naționale competente ca răspuns la o cerere face obiectul unor amenzi administrative de până la 5 000 000  EUR sau, în cazul în care autorul infracțiunii este o întreprindere, de până la 1 % din cifra sa de afaceri mondială totală anuală pentru exercițiul financiar precedent, luându-se în considerare valoarea cea mai mare dintre acestea.

Amendamentul 653

Propunere de regulament

Articolul 71 – alineatul 6 – partea introductivă

Textul propus de Comisie

Amendamentul

6.   Atunci când se decide cu privire la cuantumul amenzii administrative în fiecare caz în parte, se iau în considerare toate circumstanțele relevante ale situației specifice și se acordă atenția cuvenită următoarelor aspecte:

6.    Pot fi impuse amenzi pentru suplimentarea sau în locul măsurilor nemonetare, cum ar fi ordinele sau avertismentele. Atunci când se decide cu privire la cuantumul amenzii administrative în fiecare caz în parte, se iau în considerare toate circumstanțele relevante ale situației specifice și se acordă atenția cuvenită următoarelor aspecte:

Amendamentul 654

Propunere de regulament

Articolul 71 – alineatul 6 – litera a

Textul propus de Comisie

Amendamentul

(a)

natura, gravitatea și durata încălcării și a consecințelor acesteia;

(a)

natura, gravitatea și durata încălcării și a consecințelor acesteia, ținându-se seama de scopul sistemului de IA în cauză, precum și, dacă este cazul, de numărul de persoane afectate și de nivelul prejudiciilor suferite de acestea;

Amendamentul 655

Propunere de regulament

Articolul 71 – alineatul 6 – litera b

Textul propus de Comisie

Amendamentul

(b)

dacă alte autorități de supraveghere a pieței au aplicat deja amenzi administrative aceluiași operator pentru aceeași încălcare;

(b)

dacă alte autorități naționale de supraveghere dintr-un stat membru sau din mai multe state membre au aplicat deja una sau mai multe amenzi administrative aceluiași operator pentru aceeași încălcare;

Amendamentul 656

Propunere de regulament

Articolul 71 – alineatul 6 – litera c

Textul propus de Comisie

Amendamentul

(c)

dimensiunea și cota de piață ale operatorului care a săvârșit încălcarea.

(c)

dimensiunea și cifra de afaceri anuală ale operatorului care a săvârșit încălcarea.

Amendamentul 657

Propunere de regulament

Articolul 71 – alineatul 6 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

orice măsură luată de operator pentru a diminua dauna suferită sau prejudiciul suferit de persoanele afectate;

Amendamentul 658

Propunere de regulament

Articolul 71 – alineatul 6 – litera cb (nouă)

Textul propus de Comisie

Amendamentul

 

(cb)

dacă încălcarea a fost comisă intenționat sau din neglijență;

Amendamentul 659

Propunere de regulament

Articolul 71 – alineatul 6 – litera cc (nouă)

Textul propus de Comisie

Amendamentul

 

(cc)

gradul de cooperare cu autoritățile naționale competente, pentru a remedia încălcarea și a diminua efectele negative posibile ale încălcării;

Amendamentul 660

Propunere de regulament

Articolul 71 – alineatul 6 – litera cd (nouă)

Textul propus de Comisie

Amendamentul

 

(cd)

gradul de responsabilitate al operatorului ținându-se seama de măsurile tehnice și organizatorice puse în aplicare de acesta;

Amendamentul 661

Propunere de regulament

Articolul 71 – alineatul 6 – litera ce (nouă)

Textul propus de Comisie

Amendamentul

 

(ce)

modul în care încălcarea a fost adusă la cunoștința autorităților naționale competente, în special dacă și, în caz afirmativ, în ce măsură operatorul a notificat încălcarea;

Amendamentul 662

Propunere de regulament

Articolul 71 – alineatul 6 – litera cf (nouă)

Textul propus de Comisie

Amendamentul

 

(cf)

aderarea la codurile de conduită aprobate sau la mecanismele de certificare aprobate;

Amendamentul 663

Propunere de regulament

Articolul 71 – alineatul 6 – litera cg (nouă)

Textul propus de Comisie

Amendamentul

 

(cg)

orice încălcare anterioară relevantă comisă de operator;

Amendamentul 664

Propunere de regulament

Articolul 71 – alineatul 6 – litera ch (nouă)

Textul propus de Comisie

Amendamentul

 

(ch)

orice alt factor agravant sau atenuant aplicabil circumstanțelor cazului.

Amendamentul 665

Propunere de regulament

Articolul 71 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Fiecare stat membru stabilește norme pentru a stabili dacă și în ce măsură pot fi impuse amenzi administrative autorităților și organismelor publice stabilite în statul membru respectiv.

7.   Fiecare stat membru stabilește norme privind amenzile administrative ce vor fi aplicate autorităților și organismelor publice stabilite în statul membru respectiv.

Amendamentul 666

Propunere de regulament

Articolul 71 – alineatul 8 a (nou)

Textul propus de Comisie

Amendamentul

 

8a.     Penalitățile menționate în prezentul articol, precum și cheltuielile de judecată și cererile de despăgubire asociate nu pot face obiectul unor clauze contractuale sau al altor forme de acorduri de repartizare a sarcinilor între furnizori și distribuitori, importatori, operatori sau alte părți terțe.

Amendamentul 667

Propunere de regulament

Articolul 71 – alineatul 8 b (nou)

Textul propus de Comisie

Amendamentul

 

8b.     Autoritățile naționale de supraveghere notifică anual Oficiul pentru IA în legătură cu amenzile pe care le-au emis anul respectiv în conformitate cu prezentul articol.

Amendamentul 668

Propunere de regulament

Articolul 71 – alineatul 8 c (nou)

Textul propus de Comisie

Amendamentul

 

8c.     Autoritățile competente își exercită atribuțiile în temeiul prezentului articol cu condiția respectării unor garanții procedurale adecvate în conformitate cu dreptul Uniunii și cu dreptul intern al statelor membre, incluzând acțiuni judiciare și dreptul la un proces echitabil.

Amendamentul 669

Propunere de regulament

Articolul 72 – alineatul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

natura, gravitatea și durata încălcării și a consecințelor acesteia;

(a)

natura, gravitatea și durata încălcării și a consecințelor acesteia , ținând seama de scopul sistemului de IA în cauză, precum și de numărul de persoane afectate și de nivelul prejudiciului suferit de acestea, precum și de orice încălcare anterioară relevantă;

Amendamentul 670

Propunere de regulament

Articolul 72 – alineatul 1 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

orice măsură luată de instituția, agenția sau organismul Uniunii pentru a diminua prejudiciul suferit de persoanele afectate;

Amendamentul 671

Propunere de regulament

Articolul 72 – alineatul 1 – litera ab (nouă)

Textul propus de Comisie

Amendamentul

 

(ab)

gradul de responsabilitate al instituției, agenției sau organismului Uniunii, ținându-se seama de măsurile tehnice și organizatorice aplicate de acesta;

Amendamentul 672

Propunere de regulament

Articolul 72 – alineatul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

cooperarea cu Autoritatea Europeană pentru Protecția Datelor pentru a remedia încălcarea și a atenua posibilele efecte negative ale încălcării, inclusiv conformitatea cu oricare dintre măsurile dispuse anterior de Autoritatea Europeană pentru Protecția Datelor împotriva instituției, agenției sau a organului Uniunii în cauză cu privire la același subiect;

(b)

gradul de cooperare cu Autoritatea Europeană pentru Protecția Datelor pentru a remedia încălcarea și a atenua posibilele efecte negative ale încălcării, inclusiv conformitatea cu oricare dintre măsurile dispuse anterior de Autoritatea Europeană pentru Protecția Datelor împotriva instituției, agenției sau a organului Uniunii în cauză cu privire la același subiect;

Amendamentul 673

Propunere de regulament

Articolul 72 – alineatul 1 – litera ca (nouă)

Textul propus de Comisie

Amendamentul

 

(ca)

modul în care încălcarea a fost adusă la cunoștința Autorității Europene pentru Protecția Datelor, în special dacă și în ce măsură instituția sau organul Uniunii a notificat încălcarea;

Amendamentul 674

Propunere de regulament

Articolul 72 – alineatul 1 – litera cb (nouă)

Textul propus de Comisie

Amendamentul

 

(cb)

bugetul anual al organismului

Amendamentul 675

Propunere de regulament

Articolul 72 – alineatul 2 – partea introductivă

Textul propus de Comisie

Amendamentul

2.    Următoarele încălcări fac obiectul unor amenzi administrative de până la 500 000  EUR :

2.    Nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5 face obiectul unor amenzi administrative de până la 1 500 000  EUR ;

Amendamentul 676

Propunere de regulament

Articolul 72 – alineatul 2 – litera a

Textul propus de Comisie

Amendamentul

(a)

nerespectarea interdicției privind practicile în domeniul inteligenței artificiale menționate la articolul 5;

eliminat

Amendamentul 677

Propunere de regulament

Articolul 72 – alineatul 2 a (nou)

Textul propus de Comisie

Amendamentul

 

2a.     Neconformitatea sistemului de IA cu cerințele prevăzute la articolul 10 face obiectul unor amenzi administrative de până la 1 000 000  EUR.

Amendamentul 678

Propunere de regulament

Articolul 72 – alineatul 3

Textul propus de Comisie

Amendamentul

3.   Neconformitatea sistemului de IA cu oricare dintre cerințele sau obligațiile în temeiul prezentului regulament, altele decât cele prevăzute la articolele 5 și 10, face obiectul unor amenzi administrative de până la 250 000  EUR .

3.   Neconformitatea sistemului de IA cu oricare dintre cerințele sau obligațiile în temeiul prezentului regulament, altele decât cele prevăzute la articolele 5 și 10, face obiectul unor amenzi administrative de până la 750 000  EUR .

Amendamentul 679

Propunere de regulament

Articolul 72 – alineatul 6

Textul propus de Comisie

Amendamentul

6.   Fondurile colectate prin aplicarea amenzilor prevăzute la prezentul articol constituie venituri la bugetul general al Uniunii.

6.   Fondurile colectate prin aplicarea amenzilor prevăzute la prezentul articol contribuie la bugetul general al Uniunii. Amenzile nu afectează funcționarea eficientă a instituției, organismului sau agenției Uniunii amendate.

Amendamentul 680

Propunere de regulament

Articolul 72 – alineatul 6 a (nou)

Textul propus de Comisie

Amendamentul

 

6a.     Autoritatea Europeană pentru Protecția Datelor notifică anual oficiul pentru IA în legătură cu amenzile pe care le-a impus în temeiul prezentului articol.

Amendamentul 681

Propunere de regulament

Articolul 73 – alineatul 2

Textul propus de Comisie

Amendamentul

2.    Delegarea de competențe menționată la articolul 4, la articolul 7 alineatul (1), la articolul 11 alineatul (3), la articolul 43 alineatele (5) și (6) și la articolul 48 alineatul (5) se conferă Comisiei pe o perioadă nedeterminată de la [intrarea în vigoare a regulamentului].

2.    Competența de a adopta acte delegate, menționată la articolul 4, la articolul 7 alineatul (1), la articolul 11 alineatul (3), la articolul 43 alineatele (5) și (6) și la articolul 48 alineatul (5) se conferă Comisiei pe o perioadă de cinci ani de la … [ data intrării în vigoare a prezentului Regulament de modificare]. Comisia prezintă un raport privind delegarea de competențe cu cel puțin nouă luni înainte de încheierea perioadei de cinci ani. Delegarea de competențe se prelungește tacit cu perioade identice, cu excepția cazului în care Parlamentul European sau Consiliul se opune prelungirii respective cu cel puțin trei luni înainte de încheierea fiecărei perioade.

Amendamentul 682

Propunere de regulament

Articolul 73 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     Înainte de adoptarea unui act delegat, Comisia consultă instituțiile relevante, Oficiul, forumul consultativ și alte părți interesate în conformitate cu principiile prevăzute în Acordul interinstituțional din 13 aprilie 2016 privind o mai bună legiferare.

 

Odată ce Comisia decide să elaboreze un act delegat, aceasta înștiințează Parlamentul European în acest sens. Această notificare nu constituie o obligație a Comisiei de a adopta actul respectiv.

Amendamentul 683

Propunere de regulament

Articolul 81 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 81a

 

Modificarea Regulamentului (UE) 2019/1020

 

Regulamentul (UE) 2019/1020 se modifică după cum urmează:

 

la articolul 14 alineatul (4) se adaugă următorul paragraf:

 

„(l)

competența de a pune în aplicare la distanță competențele prevăzute la prezentul articol, după caz.”

Amendamentul 684

Propunere de regulament

Articolul 82 a (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 82a

O mai bună reglementare

Când ia în considerare cerințele prezentului regulament în temeiul amendamentelor la articolele 75, 76, 77, 78, 79, 80, 81 și 82, Comisia efectuează o analiză și consultă părțile interesate relevante pentru a stabili lacunele potențiale, precum și suprapunerile dintre legislația sectorială existentă și dispozițiile prezentului regulament.

Amendamentul 685

Propunere de regulament

Articolul 82 b (nou)

Textul propus de Comisie

Amendamentul

 

Articolul 82b

 

Orientările Comisiei cu privire la punerea în aplicare a prezentului regulament

 

1.     Comisia elaborează, în consultare cu biroul IA, orientări privind punerea în aplicare practică a prezentului regulament, în special cu privire la:

 

(a)

aplicarea cerințelor menționate la articolele 8-15 și articolele 28-28b;

 

(b)

practicile interzise menționate la articolul 5;

 

(c)

punerea în practică a prevederilor referitoare la modificarea substanțială;

 

(d)

circumstanțele practice în care rezultatul unui sistem de IA menționat în anexa III ar prezenta un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice, astfel cum se menționează la articolul 6 alineatul (2), inclusiv exemple în ceea ce privește sistemele de IA cu risc ridicat menționate în anexa III;

 

(e)

punerea în practică a obligațiilor de transparență prevăzute la articolul 52;

 

(f)

dezvoltarea de coduri de comportament prevăzute la articolul 69;

 

(g)

relația dintre prezentul regulament și alte acte legislative relevante ale Uniunii, inclusiv cu privire la coerența în ceea ce privește asigurarea respectării acestora.

 

(h)

aplicarea practică a articolului 12, a articolului 28b privind impactul asupra mediului al modelelor de bază și a anexei IV punctul 3 litera (b), în special a metodelor de măsurare și de înregistrare care să permită calcularea și raportarea impactului asupra mediului al sistemelor în vederea respectării obligațiilor prevăzute în prezentul regulament, inclusiv amprenta de carbon și eficiența energetică, ținând seama de metodele de ultimă generație și de economiile de scară.

 

Atunci când emite astfel de orientări, Comisia acordă o atenție deosebită nevoilor IMM-urilor, inclusiv ale întreprinderilor nou-înființate, ale autorităților publice locale și ale sectoarelor celor mai susceptibile de a fi afectate de prezentul regulament.

 

2.     La cererea statelor membre sau a Oficiului pentru IA sau din proprie inițiativă, Comisia actualizează orientările deja adoptate atunci când consideră necesar.

Amendamentul 686

Propunere de regulament

Articolul 83 – alineatul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.    Prezentul regulament nu se aplică sistemelor IA care sunt componente ale sistemelor informatice la scară largă instituite prin actele juridice enumerate în anexa IX și care au fost introduse pe piață sau puse în funcțiune înainte de [12 luni de la data aplicării prezentului regulament menționată la articolul 85 alineatul (2)], cu excepția cazului în care înlocuirea sau modificarea respectivelor acte juridice duce la o modificare semnificativă a proiectării sau a scopului preconizat al sistemului sau sistemelor de IA în cauză .

1.    Operatorii de sisteme IA care sunt componente ale sistemelor informatice la scară largă instituite prin actele juridice enumerate în anexa IX și care au fost introduse pe piață sau puse în funcțiune înainte de … [data intrării în vigoare a prezentului regulament ] ia măsurile necesare pentru a se conforma cerințelor prevăzute în prezentul regulament până la .. [patru ani de la data intrării în vigoare a prezentului regulament].

Amendamentul 687

Propunere de regulament

Articolul 83 – alineatul 1 – paragraful 1

Textul propus de Comisie

Amendamentul

Cerințele prevăzute în prezentul regulament sunt luate în considerare, după caz, la evaluarea fiecărui sistem informatic la scară largă instituit prin actele juridice enumerate în anexa IX care urmează să fie întreprinsă, astfel cum se prevede în actele respective.

Cerințele prevăzute în prezentul regulament sunt luate în considerare la evaluarea fiecărui sistem informatic la scară largă instituit prin actele juridice enumerate în anexa IX care urmează să fie întreprinsă, astfel cum se prevede în actele respective și ori de câte ori actele juridice respective sunt înlocuite sau modificate .

Amendamentul 688

Propunere de regulament

Articolul 83 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Prezentul regulament se aplică sistemelor de IA cu grad ridicat de risc, altele decât cele menționate la alineatul (1), care au fost introduse pe piață sau puse în funcțiune înainte de [data aplicării prezentului regulament menționată la articolul 85 alineatul (2)], numai dacă, de la data respectivă, sistemele respective fac obiectul unor modificări semnificative în ceea ce privește proiectarea sau scopul preconizat .

2.   Prezentul regulament se aplică operatorilor de sisteme de IA cu grad ridicat de risc, altele decât cele menționate la alineatul (1), care au fost introduse pe piață sau puse în funcțiune înainte de [data aplicării prezentului regulament menționată la articolul 85 alineatul (2)], numai dacă, de la data respectivă, sistemele respective fac obiectul unei modificări substanțiale definite la articolul 3 punctul (23) . În cazul sistemelor de IA cu grad ridicat de risc destinate a fi utilizate de autoritățile publice, furnizorii și operatorii unor astfel de sisteme iau măsurile necesare pentru a se conforma cerințelor prezentului regulament [doi ani de la data intrării în vigoare a prezentului regulament] .

Amendamentul 689

Propunere de regulament

Articolul 84 – alineatul 1

Textul propus de Comisie

Amendamentul

1.   Comisia evaluează necesitatea modificării listei din anexa III o dată pe an după intrarea în vigoare a prezentului regulament.

1.    După consultarea Oficiului pentru IA, Comisia evaluează necesitatea modificării listei din anexa III, inclusiv extinderea rubricilor existente sau adăugarea unor noi rubrici, lista practicilor de IA interzise de la articolul 5 și lista sistemelor de IA care necesită măsuri suplimentare de transparență de la articolul 52 o dată pe an după intrarea în vigoare a prezentului regulament și în urma unei recomandări a oficiului, o dată pe an după intrarea în vigoare a prezentului regulament.

 

Comisia transmite rezultatele acestei evaluări Parlamentului European și Consiliului.

Amendamentul 690

Propunere de regulament

Articolul 84 – alineatul 2

Textul propus de Comisie

Amendamentul

2.   Până la [ trei ani de la data aplicării prezentului regulament menționată la articolul 85 alineatul (2)] și, ulterior, o dată la patru ani, Comisia prezintă Parlamentului European și Consiliului un raport privind evaluarea și revizuirea prezentului regulament. Rapoartele sunt făcute publice.

2.   Până la [ doi ani de la data aplicării prezentului regulament menționată la articolul 85 alineatul (2)] și, ulterior, o dată la doi ani, Comisia împreună cu Oficiul pentru AI prezintă Parlamentului European și Consiliului un raport privind evaluarea și revizuirea prezentului regulament. Rapoartele sunt făcute publice.

Amendamentul 691

Propunere de regulament

Articolul 84 – alineatul 3 – litera a

Textul propus de Comisie

Amendamentul

(a)

situația resurselor financiare și umane ale autorităților naționale competente în vederea îndeplinirii cu eficacitate a sarcinilor care le-au fost încredințate în temeiul prezentului regulament;

(a)

situația resurselor financiare, tehnice și umane ale autorităților naționale competente în vederea îndeplinirii cu eficacitate a sarcinilor care le-au fost încredințate în temeiul prezentului regulament;

Amendamentul 692

Propunere de regulament

Articolul 84 – alineatul 3 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

nivelul elaborării standardelor armonizate și a specificațiilor comune pentru inteligența artificială;

Amendamentul 693

Propunere de regulament

Articolul 84 – alineatul 3 – litera bb (nouă)

Textul propus de Comisie

Amendamentul

 

(bb)

nivelurile de investiții în cercetarea, dezvoltarea și aplicarea de sisteme de IA în întreaga Uniune,

Amendamentul 694

Propunere de regulament

Articolul 84 – alineatul 3 – litera bc (nouă)

Textul propus de Comisie

Amendamentul

 

(bc)

competitivitatea sectorului de IA european agregat în comparație cu sectoarele de IA din țări terțe.

Amendamentul 695

Propunere de regulament

Articolul 84 – alineatul 3 – litera bd (nouă)

Textul propus de Comisie

Amendamentul

 

(bd)

impactul regulamentului în ceea ce privește utilizarea resurselor și a energiei, precum și producerea de deșeuri și alte efecte asupra mediului;

Amendamentul 696

Propunere de regulament

Articolul 84 – alineatul 3 – litera be (nouă)

Textul propus de Comisie

Amendamentul

 

(be)

aplicarea planului coordonat privind IA, ținând seama de nivelul diferit al progreselor înregistrate de statele membre și identificând barierele existente în calea inovării în domeniul IA;

Amendamentul 697

Propunere de regulament

Articolul 84 – alineatul 3 – litera bf (nouă)

Textul propus de Comisie

Amendamentul

 

(bf)

actualizarea cerințelor specifice privind sustenabilitatea sistemelor de IA și a modelelor de bază de IA, pe baza cerinței de raportare și documentare din anexa IV și de la articolul 28b;

Amendamentul 698

Propunere de regulament

Articolul 84 – alineatul 3 – litera bg (nouă)

Textul propus de Comisie

Amendamentul

 

(bg)

regimul juridic care reglementează modelele de bază;

Amendamentul 699

Propunere de regulament

Articolul 84 – alineatul 3 – litera bh (nouă)

Textul propus de Comisie

Amendamentul

 

(bh)

lista clauzelor contractuale abuzive prevăzută la articolul 28 a, ținând seama de noile practici comerciale, dacă este cazul;

Amendamentul 700

Propunere de regulament

Articolul 84 – alineatul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.     În termen de … [doi ani de la data intrării în vigoare a prezentului regulament menționată la articolul 85 alineatul (2)], Comisia evaluează funcționarea Oficiului pentru IA, dacă oficiul a primit suficiente atribuții și competențe pentru a-și îndeplini sarcinile și dacă ar fi relevant și necesar, pentru punerea în aplicare și asigurarea respectării corecte a prezentului regulament, să modernizeze oficiul și competențele sale de asigurare a respectării legii și să îi mărească resursele. Comisia transmite acest raport de evaluare Parlamentului European și Consiliului.

Amendamentul 701

Propunere de regulament

Articolul 84 – alineatul 4

Textul propus de Comisie

Amendamentul

4.   În termen de [ trei ani de la data aplicării prezentului regulament, menționată la articolul 85 alineatul (2)] și, ulterior, o dată la patru ani, Comisia evaluează impactul și eficacitatea codurilor de conduită pentru a încuraja aplicarea cerințelor prevăzute în titlul III capitolul 2 și, eventual, a altor cerințe suplimentare pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc.

4.   În termen de [ un an de la data aplicării prezentului regulament, menționată la articolul 85 alineatul (2)] și, ulterior, o dată la doi ani, Comisia evaluează impactul și eficacitatea codurilor de conduită pentru a încuraja aplicarea cerințelor prevăzute în titlul III capitolul 2 și, eventual, a altor cerințe suplimentare pentru sistemele de IA, altele decât sistemele de IA cu grad ridicat de risc.

Amendamentul 702

Propunere de regulament

Articolul 84 – alineatul 5

Textul propus de Comisie

Amendamentul

5.   În sensul alineatelor (1) – (4), comitetul, statele membre și autoritățile naționale competente furnizează Comisiei informații la cererea acesteia.

5.   În sensul alineatelor (1) – (4), Oficiul pentru IA , statele membre și autoritățile naționale competente furnizează Comisiei informații la cererea acesteia , fără întârzieri nejustificate .

Amendamentul 703

Propunere de regulament

Articolul 84 – alineatul 6

Textul propus de Comisie

Amendamentul

6.   La efectuarea evaluărilor și a revizuirilor menționate la alineatele (1) – (4), Comisia ține seama de pozițiile și constatările comitetului , ale Parlamentului European, ale Consiliului, precum și ale altor organisme sau surse relevante.

6.   La efectuarea evaluărilor și a revizuirilor menționate la alineatele (1) – (4), Comisia ține seama de pozițiile și constatările Oficiului pentru IA , ale Parlamentului European, ale Consiliului, precum și ale altor organisme sau surse relevante și se consultă cu părțile interesate relevante . Rezultatul acestei consultări se anexează la raport;

Amendamentul 704

Propunere de regulament

Articolul 84 – alineatul 7

Textul propus de Comisie

Amendamentul

7.   Comisia transmite, dacă este necesar, propuneri corespunzătoare de modificare a prezentului regulament, în special ținând seama de evoluțiile din domeniul tehnologiei și având în vedere progresele societății informaționale.

7.   Comisia transmite, dacă este necesar, propuneri corespunzătoare de modificare a prezentului regulament, în special ținând seama de evoluțiile din domeniul tehnologiei, de efectul sistemelor de IA asupra sănătății și siguranței, drepturilor fundamentale, mediului, egalității și accesibilității pentru persoanele cu dizabilități și având în vedere progresele societății informaționale.

Amendamentul 705

Propunere de regulament

Articolul 84 – alineatul 7 a (nou)

Textul propus de Comisie

Amendamentul

 

7a.     Pentru a ghida evaluările și revizuirile menționate la alineatele (1)-(4) din prezentul articol, Oficiul pentru IA elaborează o metodologie obiectivă și participativă pentru evaluarea nivelului de risc pe baza criteriilor subliniate la articolele relevante și includerea unor sisteme noi în: lista din anexa III, inclusiv extinderea rubricilor existente sau adăugarea unor noi rubrici în anexa respectivă; lista de practici interzise de la articolul 5; precum și în lista de sisteme de IA care necesită măsuri suplimentare de asigurare a transparenței în temeiul articolului 52.

Amendamentul 706

Propunere de regulament

Articolul 84 – alineatul 7 b (nou)

Textul propus de Comisie

Amendamentul

 

7b.     Orice modificare a prezentului regulament în temeiul alineatului (7) din prezentul articol sau orice act delegat ori de punere în aplicare viitor relevant, care vizează legislația sectorială enumerată în anexa II secțiunea B, ia în considerare particularitățile de reglementare ale fiecărui sector și mecanismele și autoritățile existente de guvernanță, de evaluare a conformității și de asigurare a respectării legii instituite în actul respectiv.

Amendamentul 707

Propunere de regulament

Articolul 84 – alineatul 7 c (nou)

Textul propus de Comisie

Amendamentul

 

7c.     În termen … [cinci ani de la data aplicării prezentului regulament], Comisia efectuează o evaluare a punerii în aplicare a prezentului regulament și prezintă un raport Parlamentului European, Consiliului și Comitetului Economic și Social European, ținând seama de primii ani de aplicare a regulamentului. Pe baza constatărilor, raportul este însoțit, după caz, de o propunere de modificare a prezentului regulament cu privire la structura aplicării și la necesitatea ca o agenție a Uniunii să soluționeze deficiențele identificate.

Amendamentul 708

Propunere de regulament

Anexa I

Textul propus de Comisie

Amendamentul

TEHNICILE ŞI ABORDĂRILE PRIVIND INTELIGENŢA ARTIFICIALĂ menționate la articolul 3 punctul (1)

eliminat

(a)

Abordări de învățare automată, inclusiv învățarea supervizată, nesupervizată și prin întărire, utilizând o gamă largă de metode, inclusiv învățarea profundă;

 

(b)

Abordări bazate pe logică și cunoaștere, inclusiv reprezentarea cunoștințelor, programare inductivă (logică), baze de cunoștințe, motoare inductive și deductive, sisteme de raționament (simbolic) și de expertiză;

 

(c)

Abordări statistice, estimări bayeziene, metode de căutare și de optimizare.

 

Amendamentul 709

Propunere de regulament

Anexa III – paragraful 1 – partea introductivă

Textul propus de Comisie

Amendamentul

Sistemele de IA cu grad ridicat de risc conform articolului 6 alineatul (2) sunt sistemele de IA enumerate în oricare dintre următoarele domenii:

Sistemele de IA menționate în mod specific la punctele 1-8a se referă la cazurile de utilizare critică și sunt considerate fiecare ca fiind sisteme de IA cu grad ridicat de risc în temeiul articolului 6 alineatul (2), cu condiția să îndeplinească criteriile prevăzute la articolul respectiv :

Amendamentul 710

Propunere de regulament

Anexa III – paragraful 1 – punctul 1 – partea introductivă

Textul propus de Comisie

Amendamentul

1.

identificarea biometrică și clasificarea persoanelor fizice:

1.

sisteme biometrice și sisteme bazate pe biometrie

Amendamentul 711

Propunere de regulament

Anexa III – paragraful 1 – punctul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor fizice „în timp real” și „ulterior”;

(a)

sistemele de IA destinate a fi utilizate pentru identificarea biometrică a persoanelor fizice , cu excepția celor menționate la articolul 5 ;

Amendamentul 712

Propunere de regulament

Anexa III – paragraful 1 – punctul 1 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

Sisteme de IA destinate a fi utilizate pentru a face concluzii cu privire la caracteristicile personale ale persoanelor fizice pe baza datelor biometrice sau bazate pe biometrie, inclusiv sisteme de recunoaștere a emoțiilor, cu excepția celor menționate la articolul 5;

 

Punctul 1 nu include sistemele de IA destinate a fi utilizate pentru verificarea biometrică, al căror unic scop este de a confirma că o anumită persoană fizică este persoana pe care susține că este.

Amendamentul 713

Propunere de regulament

Anexa III – paragraful 1 – punctul 2 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și operarea traficului rutier și în aprovizionarea cu apă, gaz, încălzire și energie electrică ;

(a)

sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și operarea traficului rutier, feroviar și aerian , cu excepția cazului în care acestea sunt reglementate în legislația de armonizare sau în reglementările sectoriale ;

Amendamentul 714

Propunere de regulament

Anexa III – paragraful 1 – punctul 2 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și operarea aprovizionării cu apă, gaz, încălzire, electricitate și energie electrică infrastructura digitală critică;

Amendamentul 715

Propunere de regulament

Anexa III – paragraful 1 – punctul 3 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate în scopul stabilirii accesului sau al repartizării persoanelor fizice la instituțiile de învățământ și de formare profesională;

(a)

sisteme de IA destinate a fi utilizate în scopul stabilirii accesului sau al influențării substanțiale a deciziei privind admiterea persoanelor fizice la instituțiile de învățământ și de formare profesională;

Amendamentul 716

Propunere de regulament

Anexa III – paragraful 1 – punctul 3 – litera b

Textul propus de Comisie

Amendamentul

(b)

sisteme de IA destinate a fi utilizate în scopul evaluării elevilor din instituțiile de învățământ și formare profesională și al evaluării participanților la testele necesare în mod normal pentru admiterea în instituțiile de învățământ ;

(b)

sisteme de IA destinate a fi utilizate în scopul evaluării elevilor din instituțiile de învățământ și formare profesională și al evaluării participanților la testele necesare în mod normal pentru admiterea în respectivele instituții;

Amendamentul 717

Propunere de regulament

Anexa III – paragraful 1 – punctul 3 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

sistemele de inteligență artificială destinate a fi utilizate în scopul de a evalua nivelul adecvat de educație pentru o persoană și de a influența în mod semnificativ nivelul de educație și de formare profesională pe care persoana respectivă îl va primi sau va putea să îl acceseze;

Amendamentul 718

Propunere de regulament

Anexa III – paragraful 1 – punctul 3 – litera bb (nouă)

Textul propus de Comisie

Amendamentul

 

(bb)

sisteme de IA destinate a fi utilizate pentru monitorizarea și detectarea comportamentului interzis al elevilor în timpul testelor în contextul sau în cadrul instituțiilor de educație și de pregătire profesională;

Amendamentul 719

Propunere de regulament

Anexa III – paragraful 1 – punctul 4 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru anunțarea posturilor vacante, examinarea sau filtrarea candidaturilor, evaluarea candidaților în cursul interviurilor sau al testelor;

(a)

sisteme de IA destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru plasarea de anunțuri de locuri de muncă specifice , examinarea sau filtrarea candidaturilor, evaluarea candidaților în cursul interviurilor sau al testelor;

Amendamentul 720

Propunere de regulament

Anexa III – paragraful 1 – punctul 4 – litera b

Textul propus de Comisie

Amendamentul

(b)

inteligență artificială destinată a fi utilizată pentru luarea deciziilor privind promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor și pentru monitorizarea și evaluarea performanței și a comportamentului persoanelor aflate în astfel de relații;

(b)

sisteme de inteligență artificială destinată pentru a face sau a influența considerabil luarea deciziilor care afectează inițierea, promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru monitorizarea și evaluarea performanței și a comportamentului persoanelor aflate în astfel de relații;

Amendamentul 721

Propunere de regulament

Anexa III – paragraful 1 – punctul 5 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate de autoritățile publice sau în numele autorităților publice pentru a evalua eligibilitatea persoanelor fizice pentru prestații și servicii de asistență publică, precum și pentru a acorda, a reduce, a revoca sau a recupera astfel de prestații și servicii;

(a)

sisteme de IA destinate a fi utilizate de autoritățile publice sau în numele autorităților publice pentru a evalua eligibilitatea persoanelor fizice pentru prestații și servicii de asistență publică, inclusiv serviciile de asistență medicală și serviciile esențiale, inclusiv, dar fără a se limita la locuință, electricitate, încălzire/răcire și internet, precum și pentru a acorda, a reduce, a crește, a revoca sau a recupera astfel de prestații și servicii;

Amendamentul 722

Propunere de regulament

Anexa III – paragraful 1 – punctul 5 – litera b

Textul propus de Comisie

Amendamentul

(b)

sisteme de IA destinate a fi utilizate pentru a evalua bonitatea persoanelor fizice sau pentru a stabili punctajul lor de credit, cu excepția sistemelor de IA puse în funcțiune de furnizori la scară mică pentru uz propriu ;

(b)

sisteme de IA destinate a fi utilizate pentru a evalua bonitatea persoanelor fizice sau pentru a stabili punctajul lor de credit, cu excepția sistemelor de IA folosite în scopul detectării fraudelor financiare ;

Amendamentul 723

Propunere de regulament

Anexa III – paragraful 1 – punctul 5 – litera ba (nouă)

Textul propus de Comisie

Amendamentul

 

(ba)

sisteme de IA destinate a fi utilizate pentru a lua decizii sau a ajuta la luarea deciziilor privind la eligibilitatea persoanelor fizice pentru asigurări de sănătate și de viață;

Amendamentul 724

Propunere de regulament

Anexa III – paragraful 1 – punctul 5 – litera c

Textul propus de Comisie

Amendamentul

(c)

sisteme de IA destinate a fi utilizate pentru dispecerizare sau pentru a stabili prioritatea în dispecerizarea serviciilor de primă intervenție de urgență, inclusiv de către pompieri și de asistență medicală;

(c)

Sistemele de IA destinate pentru a evalua și a clasifica apelurile de urgență efectuate de persoane fizice sau pentru a distribui ori pentru a stabili prioritatea în distribuirea serviciilor de primă intervenție de urgență, inclusiv de poliție și forțele de ordine, pompieri și asistență medicală, precum și sisteme de triaj de urgență pentru pacienți ;

Amendamentul 725

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru a efectua evaluări individuale ale persoanelor fizice în ceea ce privește riscul ca o persoană fizică să comită infracțiuni sau să recidiveze ori pentru a evalua riscurile pentru potențiale victime ale unor infracțiuni;

eliminat

Amendamentul 726

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera b

Textul propus de Comisie

Amendamentul

(b)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii drept poligrafe și instrumente similare sau pentru a detecta starea emoțională a unei persoane fizice;

(b)

Sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele acestora ori de agenții, oficii sau organisme ale Uniunii în sprijinul autorităților de aplicare a legii ca poligrafe și instrumente similare, în măsura în care utilizarea lor este permisă în temeiul dreptului relevant al Uniunii și al dreptului intern relevant;

Amendamentul 727

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera c

Textul propus de Comisie

Amendamentul

(c)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru a detecta deepfake-uri, astfel cum se menționează la articolul 52 alineatul (3);

eliminat

Amendamentul 728

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera d

Textul propus de Comisie

Amendamentul

(d)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru a evalua fiabilitatea probelor în cursul investigării sau al urmăririi penale a infracțiunilor;

(d)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele autorităților de aplicare a legii sau de agențiile, birourile sau organismele în pentru a sprijini fiabilitatea probelor în cursul investigării sau al urmăririi penale a infracțiunilor;

Amendamentul 729

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera e

Textul propus de Comisie

Amendamentul

(e)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru a prevedea apariția sau repetarea unei infracțiuni reale sau potențiale pe baza creării de profiluri ale persoanelor fizice, astfel cum se menționează la articolul 3 alineatul (4) din Directiva (UE) 2016/680, sau pentru a evalua trăsături și caracteristici de personalitate sau comportamentul infracțional anterior al unor persoane fizice sau grupuri;

eliminat

Amendamentul 730

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera f

Textul propus de Comisie

Amendamentul

(f)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii pentru crearea de profiluri ale persoanelor fizice, astfel cum se menționează la articolul 3 alineatul (4) din Directiva (UE) 2016/680, în cursul depistării, investigării sau al urmăririi penale a infracțiunilor;

(f)

sisteme de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele autorităților de aplicare a legii sau de agențiile, birourile sau organismele Uniunii în sprijinul autorităților de aplicare a legii pentru crearea de profiluri ale persoanelor fizice în cursul depistării, investigării sau al urmăririi penale a infracțiunilor, astfel cum se menționează la articolul 3 alineatul (4) din Directiva (UE) 2016/680 sau, în cazul agențiilor, birourile sau organismele Uniunii, astfel cum se menționează la articolul 3 alineatul (5) din Regulamentul (UE) 2018/1725;

Amendamentul 731

Propunere de regulament

Anexa III – paragraful 1 – punctul 6 – litera g

Textul propus de Comisie

Amendamentul

(g)

sisteme de IA destinate a fi utilizate pentru analiza infracționalității în ceea ce privește persoanele fizice, care permit autorităților de aplicare a legii să efectueze căutări în seturi de date complexe, de mari dimensiuni, conexe și neinterconectate, disponibile în diferite surse de date sau în formate de date diferite, pentru a identifica modele necunoscute sau pentru a descoperi relații ascunse în cadrul datelor;

(g)

sisteme de IA destinate a fi utilizate de către sau în numele autorităților de aplicare a legii sau de către agențiile, oficiile sau organismele din Uniune care sprijină autoritățile de aplicare a legii pentru analiza infracționalității în ceea ce privește persoanele fizice, care permit autorităților de aplicare a legii să efectueze căutări în seturi de date complexe, de mari dimensiuni, conexe și neinterconectate, disponibile în diferite surse de date sau în formate de date diferite, pentru a identifica modele necunoscute sau pentru a descoperi relații ascunse în cadrul datelor;

Amendamentul 732

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA destinate a fi utilizate de autoritățile publice competente drept poligrafe și instrumente similare sau pentru a detecta starea emoțională a unei persoane fizice ;

(a)

sistemele de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către agențiile, oficiile sau organismele Uniunii drept poligrafe și instrumente similare, în măsura în care utilizarea acestora este permisă în temeiul legislației naționale sau a Uniunii relevante;

Amendamentul 733

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera b

Textul propus de Comisie

Amendamentul

(b)

sisteme de IA destinate a fi utilizate de autoritățile publice competente pentru a evalua un risc, inclusiv un risc de securitate, un risc de imigrație clandestină sau un risc pentru sănătate din partea unei persoane fizice care intenționează să intre sau care a intrat pe teritoriul unui stat membru;

(b)

sisteme de IA destinate a fi utilizate de către sau în numele autorităților publice competente sau de către agențiile, oficiile sau organismele Uniunii pentru a evalua un risc, inclusiv un risc de securitate, un risc de imigrație clandestină sau un risc pentru sănătate din partea unei persoane fizice care intenționează să intre sau care a intrat pe teritoriul unui stat membru;

Amendamentul 734

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera c

Textul propus de Comisie

Amendamentul

(c)

sistemele de IA destinate a fi utilizate de autoritățile publice competente pentru verificarea autenticității documentelor de călătorie și a documentelor justificative ale persoanelor fizice și pentru detectarea documentelor neautentice prin verificarea elementelor de securitate ale acestora;

(c)

sistemele de IA destinate a fi utilizate de autoritățile publice competente sau în numele acestora sau de agențiile, birourile și organismele Uniunii pentru verificarea autenticității documentelor de călătorie și a documentelor justificative ale persoanelor fizice și pentru detectarea documentelor neautentice prin verificarea elementelor de securitate ale acestora;

Amendamentul 735

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera d

Textul propus de Comisie

Amendamentul

(d)

sisteme de IA destinate să ajute autoritățile publice competente în examinarea cererilor de azil, de viză și de permise de ședere și a plângerilor aferente cu privire la eligibilitatea persoanelor fizice care solicită un statut;

(d)

sisteme de IA destinate a fi utilizate de autoritățile publice competente sau în numele acestora sau de agențiile, birourile și organismele Uniunii în examinarea și evaluarea veridicității probelor în ceea ce privește cererile de azil, de viză și de permise de ședere și a plângerilor aferente cu privire la eligibilitatea persoanelor fizice care solicită un statut;

Amendamentul 736

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera da (nouă)

Textul propus de Comisie

Amendamentul

 

(da)

sisteme de IA destinate a fi utilizate de către autoritățile publice competente sau în numele acestora sau de către agențiile, birourile sau organismele Uniunii în gestionarea migrației, a azilului și a controlului la frontieră pentru a monitoriza, a supraveghea sau a prelucra date în contextul activităților de gestionare a frontierelor în scopul recunoașterii sau al detectării obiectelor și persoanelor fizice;

Amendamentul 737

Propunere de regulament

Anexa III – paragraful 1 – punctul 7 – litera db (nouă)

Textul propus de Comisie

Amendamentul

 

(db)

sisteme de IA destinate a fi utilizate de către autoritățile publice competente sau de către agențiile, birourile sau organismele Uniunii în gestionarea migrației, a azilului și a controlului la frontieră sau în numele acestora pentru a previziona sau a anticipa tendințele legate de migrație, circulație și trecerea frontierei;

Amendamentul 738

Propunere de regulament

Anexa III – paragraful 1 – punctul 8 – litera a

Textul propus de Comisie

Amendamentul

(a)

sisteme de IA menite să ajute o autoritate judiciară în cercetarea și interpretarea faptelor și a legii, precum și în aplicarea legii la un set concret de fapte.

(a)

sisteme de IA menite să fie utilizate de o autoritate judiciară sau de un organ administrativ, ori în numele acestora pentru a ajuta o autoritate judiciară ori o structură administrativă în cercetarea și interpretarea faptelor sau a legii, precum și în aplicarea legii la un set concret de fapte sau utilizate în mod similar în soluționarea alternativă a litigiilor.

Amendamentul 739

Propunere de regulament

Anexa III – paragraful 1 – punctul 8 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

sisteme de IA destinate a fi utilizate pentru a influența rezultatul unei alegeri sau al unui referendum sau comportamentul de vot al persoanelor fizice în exercitarea votului lor la alegeri sau referendumuri. Aceasta nu include sistemele de IA ale căror rezultate nu sunt expuse direct persoanelor fizice, cum ar fi instrumentele utilizate pentru organizarea, optimizarea și structurarea campaniilor politice din punct de vedere administrativ și logistic.

Amendamentul 740

Propunere de regulament

Anexa III – paragraful 1 – punctul 8 – litera ab (nouă)

Textul propus de Comisie

Amendamentul

 

(ab)

sisteme de IA destinate a fi utilizate de platformele de comunicare socială care au fost desemnate drept platforme online foarte mari în sensul articolului 33 din Regulamentul (UE) 2022/2065, în sistemele lor de recomandare, pentru a recomanda destinatarului conținutului generat de utilizatori al serviciului disponibil pe platformă.

Amendamentul 741

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera a

Textul propus de Comisie

Amendamentul

(a)

scopul preconizat, persoana/persoanele care dezvoltă sistemul, data și versiunea sistemului;

(a)

scopul preconizat, numele furnizorului și versiunea sistemului , reflectând, în cadrul revizuirilor succesive, legătura dintre acesta cu versiunile anterioare și, după caz, cu unele mai recente ;

Amendamentul 742

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera aa (nouă)

Textul propus de Comisie

Amendamentul

 

(aa)

natura datelor care pot fi prelucrate sau care urmează să fie prelucrate de sistem și, în cazul datelor cu caracter personal, categoriile de persoane fizice și grupuri susceptibile sau care urmează să fie afectate;

Amendamentul 743

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera b

Textul propus de Comisie

Amendamentul

(b)

modul în care sistemul de IA interacționează sau poate fi utilizat pentru a interacționa cu hardware-ul sau cu software-ul care nu face parte din sistemul de IA în sine, după caz;

(b)

modul în care sistemul de IA poate interacționa sau poate fi utilizat pentru a interacționa cu hardware-ul sau cu software-ul, inclusiv cu alte sisteme de IA care nu fac parte din sistemul de IA în sine, după caz;

Amendamentul 744

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera c

Textul propus de Comisie

Amendamentul

(c)

versiunile software-ului sau ale firmware-ului relevant și orice cerință legată de actualizarea versiunilor;

(c)

versiunile software-ului sau ale firmware-ului relevant și, dacă este cazul, informații pentru distribuitorul privind orice cerință legată de actualizarea versiunilor;

Amendamentul 745

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera d

Textul propus de Comisie

Amendamentul

(d)

descrierea tuturor formelor sub care sistemul de IA este introdus pe piață sau este pus în funcțiune;

(d)

descrierea diferitelor configurații și variante ale sistemului de AI care sunt destinate a fi introduse pe piață sau puse în funcțiune;

Amendamentul 746

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera fa (nouă)

Textul propus de Comisie

Amendamentul

 

(fa)

descrierea interfeței operatorului;

Amendamentul 747

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera g

Textul propus de Comisie

Amendamentul

(g)

instrucțiuni de utilizare pentru utilizator și, după caz, instrucțiuni de instalare;

(g)

instrucțiuni de utilizare pentru operator în conformitate cu articolul 13 alineatele (2) și (3), precum și cu articolul 14 alineatul (4) litera (e) și, după caz, instrucțiuni de instalare;

Amendamentul 748

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera ga (nouă)

Textul propus de Comisie

Amendamentul

 

(ga)

o descriere detaliată și ușor de înțeles a obiectivului sau obiectivelor principale de optimizare ale sistemului;

Amendamentul 749

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera gb (nouă)

Textul propus de Comisie

Amendamentul

 

(gb)

o descriere detaliată și ușor de înțeles a rezultatelor preconizate și a calității preconizate a rezultatelor sistemului de IA;

Amendamentul 750

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera gc (nouă)

Textul propus de Comisie

Amendamentul

 

(gc)

instrucțiuni detaliate și ușor de înțeles pentru interpretarea rezultatelor sistemului de IA;

Amendamentul 751

Propunere de regulament

Anexa IV – paragraful 1 – punctul 1 – litera gd (nouă)

Textul propus de Comisie

Amendamentul

 

(gd)

exemple de scenarii în care sistemul nu ar trebui utilizat.

Amendamentul 752

Propunere de regulament

Anexa IV – paragraful 1 – punctul 2 – litera b

Textul propus de Comisie

Amendamentul

(b)

specificațiile de proiectare ale sistemului, și anume logica generală a sistemului de IA și a algoritmilor , principalele opțiuni de proiectare, inclusiv justificarea și ipotezele asumate, inclusiv în ceea ce privește persoanele sau grupurile de persoane pentru care se intenționează să fie utilizat sistemul, principalele opțiuni de clasificare, pentru ce anume este proiectat să fie optimizat sistemul și relevanța diverșilor parametri, deciziile cu privire la orice posibil compromis făcut în ceea ce privește soluțiile tehnice adoptate în vederea conformării la cerințele prevăzute în capitolul 2 titlul III;

(b)

o descriere a arhitecturii, a specificațiilor de proiectare, a algoritmilor și a structurilor de date, inclusiv o descompunere a componentelor și interfețelor sale, a modului în care acestea se raportează între ele și a modului în care asigură prelucrarea generală sau logica sistemului de IA; principalele opțiuni de proiectare, inclusiv justificarea și ipotezele asumate, inclusiv în ceea ce privește persoanele sau grupurile de persoane pentru care se intenționează să fie utilizat sistemul, principalele opțiuni de clasificare, pentru ce anume este proiectat să fie optimizat sistemul și relevanța diverșilor parametri, deciziile cu privire la orice posibil compromis făcut în ceea ce privește soluțiile tehnice adoptate în vederea conformării la cerințele prevăzute în capitolul 2 titlul III;

Amendamentul 753

Propunere de regulament

Anexa IV – paragraful 1 – punctul 2 – litera c

Textul propus de Comisie

Amendamentul

(c)

descrierea arhitecturii sistemului, care explică modul în care componentele de software se bazează una pe alta sau se alimentează reciproc și se integrează în prelucrarea generală, precum și resursele de calcul utilizate pentru dezvoltarea, antrenarea, testarea și validarea sistemului de IA;

(c)

eliminat

Amendamentul 754

Propunere de regulament

Anexa IV – paragraful 1 – punctul 2 – litera e

Textul propus de Comisie

Amendamentul

(e)

evaluarea măsurilor de supraveghere umană necesare în conformitate cu articolul 14, inclusiv o evaluare a măsurilor tehnice necesare pentru a facilita interpretarea rezultatelor sistemelor de IA de către utilizatori, în conformitate cu articolul 13 alineatul (3) litera (d);

(e)

evaluarea măsurilor de supraveghere umană necesare în conformitate cu articolul 14, inclusiv o evaluare a măsurilor tehnice necesare pentru a facilita interpretarea rezultatelor sistemelor de IA de către operatori, în conformitate cu articolul 13 alineatul (3) litera (d);

Amendamentul 755

Propunere de regulament

Anexa IV – paragraful 1 – punctul 2 – litera g

Textul propus de Comisie

Amendamentul

(g)

procedurile de validare și testare utilizate, inclusiv informații cu privire la datele de validare și testare utilizate și la principalele caracteristici ale acestora, indicatorii utilizați pentru a măsura acuratețea, robustețea , securitatea cibernetică și conformitatea cu alte cerințe relevante prevăzute în capitolul 2 titlul III, precum și impactul potențial discriminatoriu, jurnale de testare și toate rapoartele de testare datate și semnate de persoanele responsabile, inclusiv în ceea ce privește modificările prestabilite menționate la litera (f);

(g)

procedurile de validare și testare utilizate, inclusiv informații cu privire la datele de validare și testare utilizate și la principalele caracteristici ale acestora, indicatorii utilizați pentru a măsura acuratețea, robustețea și conformitatea cu alte cerințe relevante prevăzute în capitolul 2 titlul III, precum și impactul potențial discriminatoriu, jurnale de testare și toate rapoartele de testare datate și semnate de persoanele responsabile, inclusiv în ceea ce privește modificările prestabilite menționate la litera (f);

Amendamentul 756

Propunere de regulament

Anexa IV – paragraful 1 – punctul 2 – litera ga (nouă)

Textul propus de Comisie

Amendamentul

 

(ga)

măsurile de securitate cibernetică instituite;

Amendamentul 757

Propunere de regulament

Anexa IV – paragraful 1 – punctul 3

Textul propus de Comisie

Amendamentul

3.

informații detaliate privind monitorizarea, funcționarea și controlul sistemului de IA, în special în ceea ce privește: capacitățile și limitările sale legate de performanță, inclusiv gradele de acuratețe pentru anumite persoane sau grupuri de persoane pentru care se intenționează să se utilizeze sistemul respectiv, precum și nivelul general preconizat de acuratețe în raport cu scopul preconizat, rezultatele neintenționate previzibile și sursele de riscuri pentru sănătate, siguranță, drepturile fundamentale și pentru discriminare, având în vedere scopul preconizat al sistemului de IA, măsurile de supraveghere umană necesare în conformitate cu articolul 14, inclusiv măsurile tehnice necesare pentru a facilita interpretarea rezultatelor sistemelor de IA de către utilizatori, specificații privind datele de intrare, după caz;

3.

informații detaliate privind monitorizarea, funcționarea și controlul sistemului de IA, în special în ceea ce privește: capacitățile și limitările sale legate de performanță, inclusiv gradele de acuratețe pentru anumite persoane sau grupuri de persoane pentru care se intenționează să se utilizeze sistemul respectiv, precum și nivelul general preconizat de acuratețe în raport cu scopul preconizat, rezultatele neintenționate previzibile și sursele de riscuri pentru sănătate, siguranță, drepturile fundamentale și pentru discriminare, având în vedere scopul preconizat al sistemului de IA, măsurile de supraveghere umană necesare în conformitate cu articolul 14, inclusiv măsurile tehnice necesare pentru a facilita interpretarea rezultatelor sistemelor de IA de către operatori , specificații privind datele de intrare, după caz;

Amendamentul 758

Propunere de regulament

Anexa IV – paragraful 1 – punctul 3 a (nou)

Textul propus de Comisie

Amendamentul

 

3a.

o descriere a gradului de adecvare a indicatorilor de performanță pentru sistemul de IA specific;

Amendamentul 759

Propunere de regulament

Anexa IV – paragraful 1 – punctul 3 b (nou)

Textul propus de Comisie

Amendamentul

 

3b.

informații privind consumul de energie al sistemului de IA în faza de dezvoltare și consumul de energie preconizat în timpul utilizării, ținând seama, după caz, de legislația relevantă a Uniunii și de legislația națională relevantă;

Amendamentul 760

Propunere de regulament

Anexa IV – paragraful 1 – punctul 5

Textul propus de Comisie

Amendamentul

5.

o descriere a oricărei modificări aduse sistemului de-a lungul ciclului său de viață;

5.

o descriere a oricărei modificări relevante aduse sistemului de către furnizori de-a lungul ciclului său de viață;

Amendamentul 761

Propunere de regulament

Anexa IV – paragraful 1 – punctul 6

Textul propus de Comisie

Amendamentul

6.

o listă a standardelor armonizate aplicate integral sau parțial, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene, iar în cazul în care nu au fost aplicate astfel de standarde armonizate, o descriere detaliată a soluțiilor adoptate pentru a se îndeplini cerințele prevăzute în capitolul 2 titlul III, inclusiv o listă a altor standarde și specificații tehnice relevante aplicate;

6.

o listă a standardelor armonizate aplicate integral sau parțial, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene, iar în cazul în care nu au fost aplicate astfel de standarde armonizate, o descriere detaliată a soluțiilor adoptate pentru a se îndeplini cerințele prevăzute în capitolul 2 titlul III, inclusiv o listă a altor standarde sau specificații comune relevante aplicate;

Amendamentul 762

Propunere de regulament

Anexa V – paragraful 1 – punctul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.

dacă un sistem de IA implică procesarea datelor personale, o declarație că sistemul de IA respectiv este conform cu Regulamentul (UE) 2016/679, Regulamentul (UE) 2018/1725 și Directiva 2016/680.

Amendamentul 763

Propunere de regulament

Anexa V – paragraful 1 – punctul 7

Textul propus de Comisie

Amendamentul

7.

locul și data emiterii declarației, numele și funcția persoanei care a semnat, precum și o indicație pentru cine și în numele cui semnează, semnătura.

7.

locul și data emiterii declarației, semnătura, numele și funcția persoanei care a semnat, precum și o indicație pentru cine și în numele cui semnează, semnătura.

Amendamentul 764

Propunere de regulament

Anexa VII – punctul 4 – punctul 4.5

Textul propus de Comisie

Amendamentul

4.5.

În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III și în urma unei cereri motivate, organismului notificat i se acordă, de asemenea, acces la codul sursă al sistemului de IA.

4.5.

În cazul în care este necesar pentru a evalua conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în capitolul 2 titlul III, după ce toate celelalte modalități rezonabile de verificare a conformității au fost epuizate ori s-au dovedit a fi insuficiente și în urma unei cereri motivate, organismului notificat i se acordă, de asemenea, acces la modelele de antrenament sau modelele antrenate de codul sursă al sistemului de IA, inclusiv parametrii relevanți . Acest acces face obiectul legislației existente la nivelul Uniunii privind protecția proprietății intelectuale și a secretelor comerciale. Ei vor adopta măsuri tehnice și organizaționale pentru a asigura protecția proprietății intelectuale și a secretelor comerciale.

Amendamentul 765

Propunere de regulament

Anexa VIII – paragraful 1

Textul propus de Comisie

Amendamentul

Se furnizează și, ulterior, se actualizează următoarele informații referitoare la sistemele de IA cu grad ridicat de risc care urmează să fie înregistrate în conformitate cu articolul 51.

Secțiunea A  – Se furnizează și, ulterior, se actualizează următoarele informații referitoare la sistemele de IA cu grad ridicat de risc care urmează să fie înregistrate în conformitate cu articolul 51 alineatul (1).

Amendamentul 766

Propunere de regulament

Anexa VIII – punctul 4 a (nou)

Textul propus de Comisie

Amendamentul

 

4a.

modelul de bază a sistemului de IA și orice referință suplimentară lipsită de ambiguitate care permite identificarea și trasabilitatea

Amendamentul 767

Propunere de regulament

Anexa VIII – punctul 5

Textul propus de Comisie

Amendamentul

5.

descrierea scopului preconizat al sistemului de IA;

5.

o descriere simplă și ușor de înțeles a

 

(a)

scopul preconizat al sistemului de IA;

 

(b)

componentelor și funcțiilor sprijinite prin intermediul IA;

 

(c)

o explicație de bază a logicii sistemului de IA

Amendamentul 768

Propunere de regulament

Anexa VIII – punctul 5 a (nou)

Textul propus de Comisie

Amendamentul

 

5a.

după caz, categoriile de date care pot fi prelucrate sau despre care se preconizează că vor fi prelucrate de sistemul de IA și natura acestora;

Amendamentul 769

Propunere de regulament

Anexa VIII – punctul 11

Textul propus de Comisie

Amendamentul

11.

instrucțiuni de utilizare electronice; aceste informații nu se furnizează pentru sistemele de IA cu grad ridicat de risc în domeniul asigurării respectării legii și al gestionării migrației, azilului și controlului la frontiere menționate în anexa III punctele 1, 6 și 7;

eliminat

Amendamentul 770

Propunere de regulament

Anexa VIII – secțiunea B (nouă)

Textul propus de Comisie

Amendamentul

 

SECȚIUNEA B – Se furnizează și, ulterior, se actualizează următoarele informații referitoare la sistemele de IA cu grad ridicat de risc care urmează să fie înregistrate în conformitate cu articolul 51 alineatul (1a) litera (a) și alineatul (1b).

 

1.

numele, adresa și datele de contact ale operatorului;

 

2.

numele, adresa și datele de contact ale oricărei persoane care transmite informații în numele operatorului;

 

3.

denumirea comercială a sistemului de IA cu grad ridicat de risc și orice altă referință lipsită de ambiguitate care permite identificarea și trasabilitatea sistemului de IA utilizat;

 

4.

(a) o descriere simplă și comprehensibilă a utilizării preconizate a sistemului de IA, inclusiv a rezultatelor specifice urmărite prin utilizarea sistemului, sfera geografică și temporală de aplicare;

 

(b)

după caz, categoriile de date care pot fi prelucrate de sistemul de IA și natura acestora;

 

(c)

modalități de supraveghere umană și de conducere

 

(d)

dacă este cazul, organismele sau persoanele fizice responsabile de deciziile luate sau sprijinite de sistemul de IA;

 

5.

un rezumat al constatărilor evaluării impactului asupra drepturilor fundamentale, efectuată în conformitate cu articolul 29a

 

6.

URL-ul introducerii sistemului de IA în baza de date a UE de către furnizorul său

 

7.

un rezumat al evaluării impactului asupra protecției datelor care a fost efectuată în conformitate cu articolul 35 din Regulamentul (UE) 2016/679 sau cu articolul 27 din Directiva (UE) 2016/680, astfel cum se specifică la articolul 29 alineatul (6) din prezentul regulament, după caz;

Amendamentul 771

Propunere de regulament

Anexa VIII – secțiunea C (nouă)

Textul propus de Comisie

Amendamentul

 

Secțiunea C – Se furnizează și, ulterior, se actualizează următoarele informații referitoare la modelele de bază care urmează să fie înregistrate în conformitate cu articolul 28b litera (e).

 

1.

numele, adresa și informațiile de contact ale furnizorului;

 

2.

în cazul în care transmiterea informațiilor este efectuată de o altă persoană în numele furnizorului, numele, adresa și datele de contact ale persoanei respective;

 

3.

numele, adresa și datele de contact ale reprezentantului autorizat, după caz;

 

4.

denumirea comercială și orice referință suplimentară care permite identificarea modelului de bază;

 

5.

descrierea surselor de date utilizate la elaborarea modelului de bază

 

6.

Descrierea capacităților și a limitărilor modelului de bază, inclusiv a riscurilor previzibile în mod rezonabil și a măsurilor care au fost luate pentru a le atenua, precum și a riscurilor rămase neatenuate, cu o explicație a motivului pentru care acestea nu pot fi atenuate

 

7.

Descrierea resurselor de formare utilizate de modelul de bază, inclusiv puterea de calcul necesară, timpul de pregătire și alte informații relevante legate de dimensiunea și puterea modelului 8. Descrierea performanței modelului, inclusiv în ceea ce privește indicii de referință publici sau indicii de referință de ultimă generație din sector

 

8.

Descrierea rezultatelor încercărilor interne și externe relevante și optimizarea modelului

 

9.

statele membre în care modelul de bază este sau a fost introdus pe piață, pus în funcțiune sau pus la dispoziție în Uniune;

 

10.

URL pentru informații suplimentare (opțional).

(1)  Chestiunea a fost retrimisă pentru negocieri interinstituționale comisiilor competente în temeiul articolului 59 alineatul (4) al patrulea paragraf din Regulamentul de procedură (A9-0188/2023).

(33)  Consiliul European, Reuniunea extraordinară a Consiliului European (1-2 octombrie 2020) – Concluzii, EUCO 13/20, 2020, p. 6.

(34)  Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe, 2020/2012 (INL).

(33)  Consiliul European, Reuniunea extraordinară a Consiliului European (1-2 octombrie 2020) – Concluzii, EUCO 13/20, 2020, p. 6.

(34)  Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe, 2020/2012 (INL).

(35)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

(36)   Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului din 23 octombrie 2018 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal de către instituțiile, organele, oficiile și agențiile Uniunii și privind libera circulație a acestor date și de abrogare a Regulamentului (CE) nr. 45/2001 și a Deciziei nr. 1247/2002/CE (JO L 295, 21.11.2018, p. 39).

(37)   Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului (Directiva privind protecția datelor în materie de asigurare a respectării legii) (JO L 119, 4.5.2016, p. 89).

(35)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

(38)   Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).

(39)  Regulamentul (CE) nr. 300/2008 al Parlamentului European și al Consiliului din 11 martie 2008 privind norme comune în domeniul securității aviației civile și de abrogare a Regulamentului (CE) nr. 2320/2002 (JO L 97, 9.4.2008, p. 72).

(40)  Regulamentul (UE) nr. 167/2013 al Parlamentului European și al Consiliului din 5 februarie 2013 privind omologarea și supravegherea pieței pentru vehiculele agricole și forestiere (JO L 60, 2.3.2013, p. 1).

(41)  Regulamentul (UE) nr. 168/2013 al Parlamentului European și al Consiliului din 15 ianuarie 2013 privind omologarea și supravegherea pieței pentru vehiculele cu două sau trei roți și pentru cvadricicluri (JO L 60, 2.3.2013, p. 52).

(42)  Directiva 2014/90/UE a Parlamentului European și a Consiliului din 23 iulie 2014 privind echipamentele maritime și de abrogare a Directivei 96/98/CE a Consiliului (JO L 257, 28.8.2014, p. 146).

(43)  Directiva (UE) 2016/797 a Parlamentului European și a Consiliului din 11 mai 2016 privind interoperabilitatea sistemului feroviar în Uniunea Europeană (JO L 138, 26.5.2016, p. 44).

(44)  Regulamentul (UE) 2018/858 al Parlamentului European și al Consiliului din 30 mai 2018 privind omologarea și supravegherea pieței autovehiculelor și remorcilor acestora, precum și ale sistemelor, componentelor și unităților tehnice separate destinate vehiculelor respective, de modificare a Regulamentelor (CE) nr. 715/2007 și (CE) nr. 595/2009 și de abrogare a Directivei 2007/46/CE (JO L 151, 14.6.2018, p. 1).

(45)  Regulamentul (UE) 2018/1139 al Parlamentului European și al Consiliului din 4 iulie 2018 privind normele comune în domeniul aviației civile și de înființare a Agenției Uniunii Europene pentru Siguranța Aviației, de modificare a Regulamentelor (CE) nr. 2111/2005, (CE) nr. 1008/2008, (UE) nr. 996/2010, (UE) nr. 376/2014 și a Directivelor 2014/30/UE și 2014/53/UE ale Parlamentului European și ale Consiliului, precum și de abrogare a Regulamentelor (CE) nr. 552/2004 și (CE) nr. 216/2008 ale Parlamentului European și ale Consiliului și a Regulamentului (CEE) nr. 3922/91 al Consiliului (JO L 212, 22.8.2018, p. 1).

(46)  Regulamentul (UE) 2019/2144 al Parlamentului European și al Consiliului din 27 noiembrie 2019 privind cerințele pentru omologarea de tip a autovehiculelor și remorcilor acestora, precum și a sistemelor, componentelor și unităților tehnice separate destinate unor astfel de vehicule, în ceea ce privește siguranța generală a acestora și protecția ocupanților vehiculului și a utilizatorilor vulnerabili ai drumurilor, de modificare a Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului și de abrogare a Regulamentelor (CE) nr. 78/2009, (CE) nr. 79/2009 și (CE) nr. 661/2009 ale Parlamentului European și ale Consiliului și a Regulamentelor (CE) nr. 631/2009, (UE) nr. 406/2010, (UE) nr. 672/2010, (UE) nr. 1003/2010, (UE) nr. 1005/2010, (UE) nr. 1008/2010, (UE) nr. 1009/2010, (UE) nr. 19/2011, (UE) nr. 109/2011, (UE) nr. 458/2011, (UE) nr. 65/2012, (UE) nr. 130/2012, (UE) nr. 347/2012, (UE) nr. 351/2012, (UE) nr. 1230/2012 și (UE) 2015/166 ale Comisie (JO L 325, 16.12.2019, p. 1).

(39)  Regulamentul (CE) nr. 300/2008 al Parlamentului European și al Consiliului din 11 martie 2008 privind norme comune în domeniul securității aviației civile și de abrogare a Regulamentului (CE) nr. 2320/2002 (JO L 97, 9.4.2008, p. 72).

(40)  Regulamentul (UE) nr. 167/2013 al Parlamentului European și al Consiliului din 5 februarie 2013 privind omologarea și supravegherea pieței pentru vehiculele agricole și forestiere (JO L 60, 2.3.2013, p. 1).

(41)  Regulamentul (UE) nr. 168/2013 al Parlamentului European și al Consiliului din 15 ianuarie 2013 privind omologarea și supravegherea pieței pentru vehiculele cu două sau trei roți și pentru cvadricicluri (JO L 60, 2.3.2013, p. 52).

(42)  Directiva 2014/90/UE a Parlamentului European și a Consiliului din 23 iulie 2014 privind echipamentele maritime și de abrogare a Directivei 96/98/CE a Consiliului (JO L 257, 28.8.2014, p. 146).

(43)  Directiva (UE) 2016/797 a Parlamentului European și a Consiliului din 11 mai 2016 privind interoperabilitatea sistemului feroviar în Uniunea Europeană (JO L 138, 26.5.2016, p. 44).

(44)  Regulamentul (UE) 2018/858 al Parlamentului European și al Consiliului din 30 mai 2018 privind omologarea și supravegherea pieței autovehiculelor și remorcilor acestora, precum și ale sistemelor, componentelor și unităților tehnice separate destinate vehiculelor respective, de modificare a Regulamentelor (CE) nr. 715/2007 și (CE) nr. 595/2009 și de abrogare a Directivei 2007/46/CE (JO L 151, 14.6.2018, p. 1).

(45)  Regulamentul (UE) 2018/1139 al Parlamentului European și al Consiliului din 4 iulie 2018 privind normele comune în domeniul aviației civile și de înființare a Agenției Uniunii Europene pentru Siguranța Aviației, de modificare a Regulamentelor (CE) nr. 2111/2005, (CE) nr. 1008/2008, (UE) nr. 996/2010, (UE) nr. 376/2014 și a Directivelor 2014/30/UE și 2014/53/UE ale Parlamentului European și ale Consiliului, precum și de abrogare a Regulamentelor (CE) nr. 552/2004 și (CE) nr. 216/2008 ale Parlamentului European și ale Consiliului și a Regulamentului (CEE) nr. 3922/91 al Consiliului (JO L 212, 22.8.2018, p. 1).

(46)  Regulamentul (UE) 2019/2144 al Parlamentului European și al Consiliului din 27 noiembrie 2019 privind cerințele pentru omologarea de tip a autovehiculelor și remorcilor acestora, precum și a sistemelor, componentelor și unităților tehnice separate destinate unor astfel de vehicule, în ceea ce privește siguranța generală a acestora și protecția ocupanților vehiculului și a utilizatorilor vulnerabili ai drumurilor, de modificare a Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului și de abrogare a Regulamentelor (CE) nr. 78/2009, (CE) nr. 79/2009 și (CE) nr. 661/2009 ale Parlamentului European și ale Consiliului și a Regulamentelor (CE) nr. 631/2009, (UE) nr. 406/2010, (UE) nr. 672/2010, (UE) nr. 1003/2010, (UE) nr. 1005/2010, (UE) nr. 1008/2010, (UE) nr. 1009/2010, (UE) nr. 19/2011, (UE) nr. 109/2011, (UE) nr. 458/2011, (UE) nr. 65/2012, (UE) nr. 130/2012, (UE) nr. 347/2012, (UE) nr. 351/2012, (UE) nr. 1230/2012 și (UE) 2015/166 ale Comisie (JO L 325, 16.12.2019, p. 1).

(47)  Regulamentul (UE) 2017/745 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale, de modificare a Directivei 2001/83/CE, a Regulamentului (CE) nr. 178/2002 și a Regulamentului (CE) nr. 1223/2009 și de abrogare a Directivelor 90/385/CEE și 93/42/CEE ale Consiliului (JO L 117, 5.5.2017, p. 1).

(48)  Regulamentul (UE) 2017/746 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale pentru diagnostic in vitro și de abrogare a Directivei 98/79/CE și a Deciziei 2010/227/UE a Comisiei (JO L 117, 5.5.2017, p. 176).

(47)  Regulamentul (UE) 2017/745 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale, de modificare a Directivei 2001/83/CE, a Regulamentului (CE) nr. 178/2002 și a Regulamentului (CE) nr. 1223/2009 și de abrogare a Directivelor 90/385/CEE și 93/42/CEE ale Consiliului (JO L 117, 5.5.2017, p. 1).

(48)  Regulamentul (UE) 2017/746 al Parlamentului European și al Consiliului din 5 aprilie 2017 privind dispozitivele medicale pentru diagnostic in vitro și de abrogare a Directivei 98/79/CE și a Deciziei 2010/227/UE a Comisiei (JO L 117, 5.5.2017, p. 176).

(49)  Directiva 2013/32/UE a Parlamentului European și a Consiliului din 26 iunie 2013 privind procedurile comune de acordare și retragere a protecției internaționale (JO L 180, 29.6.2013, p. 60).

(50)  Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului din 13 iulie 2009 privind instituirea unui Cod comunitar de vize (Codul de vize) (JO L 243, 15.9.2009, p. 1).

(49)  Directiva 2013/32/UE a Parlamentului European și a Consiliului din 26 iunie 2013 privind procedurile comune de acordare și retragere a protecției internaționale (JO L 180, 29.6.2013, p. 60).

(50)  Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului din 13 iulie 2009 privind instituirea unui Cod comunitar de vize (Codul de vize) (JO L 243, 15.9.2009, p. 1).

(54)  Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului din 25 octombrie 2012 privind standardizarea europeană, de modificare a Directivelor 89/686/CEE și 93/15/CEE ale Consiliului și a Directivelor 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE și 2009/105/CE ale Parlamentului European și ale Consiliului și de abrogare a Deciziei 87/95/CEE a Consiliului și a Deciziei nr. 1673/2006/CE a Parlamentului European și a Consiliului (JO L 316, 14.11.2012, p. 12).

(54)  Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului din 25 octombrie 2012 privind standardizarea europeană, de modificare a Directivelor 89/686/CEE și 93/15/CEE ale Consiliului și a Directivelor 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE și 2009/105/CE ale Parlamentului European și ale Consiliului și de abrogare a Deciziei 87/95/CEE a Consiliului și a Deciziei nr. 1673/2006/CE a Parlamentului European și a Consiliului (JO L 316, 14.11.2012, p. 12).

(55)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

(55)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

(56)  Directiva 2013/36/UE a Parlamentului European și a Consiliului din 26 iunie 2013 cu privire la accesul la activitatea instituțiilor de credit și supravegherea prudențială a instituțiilor de credit și a firmelor de investiții, de modificare a Directivei 2002/87/CE și de abrogare a Directivelor 2006/48/CE și 2006/49/CE (JO L 176, 27.6.2013, p. 338).

(56)  Directiva 2013/36/UE a Parlamentului European și a Consiliului din 26 iunie 2013 cu privire la accesul la activitatea instituțiilor de credit și supravegherea prudențială a instituțiilor de credit și a firmelor de investiții, de modificare a Directivei 2002/87/CE și de abrogare a Directivelor 2006/48/CE și 2006/49/CE (JO L 176, 27.6.2013, p. 338).

(57)  Directiva 2001/95/CE a Parlamentului European și a Consiliului din 3 decembrie 2001 privind siguranța generală a produselor (JO L 11, 15.1.2002, p. 4).

(57)  Directiva 2001/95/CE a Parlamentului European și a Consiliului din 3 decembrie 2001 privind siguranța generală a produselor (JO L 11, 15.1.2002, p. 4).

(58)   JO L 123, 12.5.2016, p. 1.

(58)   JO L 123, 12.5.2016, p. 1.

(61)   Recomandarea Comisiei din 6 mai 2003 privind definirea microîntreprinderilor și a întreprinderilor mici și mijlocii, (JO L 124, 20.5.2003, p. 36).

(62)   Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).

(1a)   Directiva (UE) 2020/1828 a Parlamentului European și a Consiliului din 25 noiembrie 2020 privind acțiunile în reprezentare pentru protecția intereselor colective ale consumatorilor și de abrogare a Directivei 2009/22/CE (JO L 409, 4.12.2020, p. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-1029 (electronic edition)