Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Avizul Comitetului European al Regiunilor: Abordarea europeană a inteligenței artificiale – Legea privind inteligența artificială (aviz revizuit)

    COR 2021/02682

    JO C 97, 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    RO

    Jurnalul Oficial al Uniunii Europene

    C 97/60


    Avizul Comitetului European al Regiunilor: Abordarea europeană a inteligenței artificiale – Legea privind inteligența artificială

    (aviz revizuit)

    (2022/C 97/12)

    Raportor:

    domnul Guido Rink (NL-PSE), membru al autorității executive a Consiliului Local Emmen

    Documente de referință:

    Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul European al Regiunilor – Promovarea unei abordări europene în domeniul inteligenței artificiale

    COM(2021) 205

    Propunerea de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) și de modificare a anumitor acte legislative ale Uniunii

    COM(2021) 206

    I.   RECOMANDĂRI DE AMENDAMENTE

    Amendamentul 1

    Considerentul 1

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea, comercializarea și utilizarea inteligenței artificiale, în conformitate cu valorile Uniunii. Prezentul regulament urmărește o serie de motive imperative de interes public major, cum ar fi un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale, și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.

    Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne și a garanta respectarea drepturilor fundamentale ale cetățenilor , prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea, comercializarea și utilizarea inteligenței artificiale, în conformitate cu valorile Uniunii. Prezentul regulament urmărește o serie de motive imperative de interes public major, cum ar fi un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale, și asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.

    Expunere de motive

    Prin referirea la drepturile fundamentale se dorește sublinierea legăturii cu Carta drepturilor fundamentale a UE.

    Amendamentul 2

    Nou considerent după considerentul 6

    Textul propus de Comisia Europeană

    Amendamentul CoR

     

    Definirea sistemelor de IA este un proces continuu, care ar trebui să țină seama de contextul în care funcționează IA și să țină pasul cu evoluțiile din societate în acest domeniu, fără să piardă din vedere legătura dintre ecosistemul de excelență și ecosistemul încrederii;

    Expunere de motive

    Evoluțiile din domeniul IA și al tehnologiei necesită o abordare adaptivă și evolutivă. Acest considerent dorește să sublinieze că definiția IA ar trebui să reflecte momentul și stadiul dezvoltării sistemelor și aplicațiilor IA.

    Amendamentul 3

    Considerentul 20

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Pentru a se asigura că aceste sisteme sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste trei situații enumerate în mod exhaustiv și strict definite, ar trebui luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unor limite de timp și spațiu adecvate , având în vedere, în special, dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre cele trei situații menționate mai sus.

    Pentru a se asigura că aceste sisteme sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste trei situații enumerate în mod exhaustiv și strict definite, ar trebui luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. Consultarea autorităților locale și regionale relevante ar trebui să aibă loc înainte de utilizarea excepțională a acestor sisteme. În plus, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unor limite de timp și spațiu stricte , având în vedere, în special, dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre cele trei situații menționate mai sus.

    Expunere de motive

    Sistemele de identificare biometrică la distanță „în timp real” nu ar trebui utilizate fără stabilirea unor condiții stricte.

    Amendamentul 4

    Considerentul 21

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru. O astfel de autorizație ar trebui , în principiu, să fie obținută înainte de utilizare, cu excepția situațiilor de urgență justificate în mod corespunzător, și anume situațiile în care necesitatea de a utiliza sistemele în cauză este de așa natură încât obținerea unei autorizații înainte de începerea utilizării este imposibilă din punctul de vedere al eficacității și în mod obiectiv. În astfel de situații de urgență , utilizarea ar trebui să fie limitată la ceea ce este minim și absolut necesar și să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern și specificate în contextul fiecărui caz individual de utilizare urgentă de către însăși autoritatea de aplicare a legii . În plus, în astfel de situații, autoritatea de aplicare a legii ar trebui să încerce să obțină o autorizație cât mai curând posibil, indicând motivele pentru care nu a fost în măsură să o solicite mai devreme.

    Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru. O astfel de autorizație ar trebui să fie obținută înainte de utilizare, cu excepția situațiilor de urgență justificate în mod corespunzător, și anume situațiile în care necesitatea de a utiliza sistemele în cauză este de așa natură încât obținerea unei autorizații înainte de începerea utilizării este imposibilă din punctul de vedere al eficacității și în mod obiectiv. În orice caz , utilizarea ar trebui să fie limitată la ceea ce este minim și absolut necesar și să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern. În plus, autoritatea de aplicare a legii ar trebui să informeze imediat autoritatea locală și regională și să încerce să obțină de la autoritățile competente o autorizație.

    Expunere de motive

    Responsabilitatea politică și administrativă pentru gestionarea și controlul spațiilor publice revine autorităților locale și regionale. Prin urmare, acestea ar trebui să fie implicate în mod corespunzător în implementarea unor astfel de sisteme în spațiile publice. În situații urgente, în care consultarea prealabilă nu poate fi așteptată în mod rezonabil, autoritatea locală sau regională în cauză ar trebui să fie informată imediat cu privire la introducerea sistemelor biometrice în spațiul public.

    Amendamentul 5

    Considerentul 39

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este oportun ca sistemele IA cu grad ridicat de risc destinate a fi utilizate de autoritățile publice competente însărcinate cu sarcini în domeniile migrației, azilului și gestionării controlului la frontiere să fie clasificate ca poligrafe și instrumente similare sau să detecteze starea emoțională a unei persoane fizice; pentru evaluarea anumitor riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil; pentru verificarea autenticității documentelor relevante ale persoanelor fizice; acordarea de asistență autorităților publice competente în ceea ce privește examinarea cererilor de azil, de vize și de permise de ședere și a plângerilor conexe cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului, de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului și de alte acte legislative relevante.

    Sistemele de IA utilizate în gestionarea migrației, a azilului și a controlului la frontieră afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecția internațională și buna administrare. Prin urmare, este necesar ca sistemele IA cu grad ridicat de risc destinate a fi utilizate de autoritățile publice competente însărcinate cu sarcini în domeniile migrației, azilului și gestionării controlului la frontiere să fie clasificate ca poligrafe și instrumente similare sau să detecteze starea emoțională a unei persoane fizice; Pentru evaluarea anumitor riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil; Pentru verificarea autenticității documentelor relevante ale persoanelor fizice; Acordarea de asistență autorităților publice competente în ceea ce privește examinarea cererilor de azil, de vize și de permise de ședere și a plângerilor conexe cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Directiva 2013/32/UE a Parlamentului European și a Consiliului, de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului și de alte acte legislative relevante.

    Expunere de motive

    Această adaptare exprimă necesitatea de a supune sistemele de IA în cauză regimului mai solid pentru sistemele de IA cu grad ridicat de risc.

    Amendamentul 6

    Considerentul 43

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către utilizatori, supravegherea umană, robustețea, acuratețea și securitatea cibernetică. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale, după caz, în funcție de scopul preconizat al sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului.

    Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește calitatea seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către utilizatori, supravegherea umană, robustețea, acuratețea și securitatea cibernetică. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță, siguranța datelor, drepturile consumatorilor și drepturile fundamentale, după caz, în funcție de scopul preconizat al sistemului, și nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, se evită astfel restricțiile nejustificate în calea comerțului. Persoanele fizice sau grupurile de persoane care utilizează sisteme IA cu grad ridicat de risc introduse pe piața Uniunii sau puse în funcțiune în alt mod ar trebui să poată găsi informații public disponibile într-un mod adecvat, ușor accesibil și inteligibil și să aibă acces la informații explicite, ușor accesibile și disponibile publicului, care să explice faptul că sunt supuse unor astfel de sisteme.

    Expunere de motive

    Cerințele în materie de transparență și informare aplicabile furnizorilor și utilizatorilor ar trebui extinse la persoanele sau grupurile de persoane potențial afectate de utilizarea sistemelor IA cu grad ridicat de risc, astfel cum sunt enumerate în anexa III la regulament. Prin „mod inteligibil” se înțelege, printre altele, „o limbă ușor de înțeles și accesibilă utilizatorului, inclusiv în limbaje oral-auditive și în cele manual-gestuale”.

    Amendamentul 7

    Nou considerent după considerentul 44

    Textul propus de Comisia Europeană

    Amendamentul CoR

     

    Furnizorii de sisteme de IA se abțin de la orice măsură care promovează discriminarea nejustificată pe criterii de sex, origine, religie sau convingeri, handicap, vârstă, orientare sexuală sau discriminare pe orice alt motiv în sistemul lor de management al calității.

    Expunere de motive

    Discriminarea ilegală își are originea în acțiunea umană. În cadrul sistemelor lor de calitate, furnizorii de sisteme de IA ar trebui să se abțină de la orice măsuri care ar putea promova discriminarea.

    Amendamentul 8

    Considerentul 47

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Pentru a aborda opacitatea care poate determina anumite sisteme de IA să fie imposibil de înțeles sau prea complexe pentru persoanele fizice, ar trebui să fie impus un anumit grad de transparență pentru sistemele de IA cu grad ridicat de risc. Utilizatorii ar trebui să poată interpreta rezultatele sistemului și să le poată utiliza în mod corespunzător. Prin urmare, sistemele de IA cu grad ridicat de risc ar trebui să fie însoțite de documentația relevantă și de instrucțiuni de utilizare și să includă informații concise și clare, inclusiv în ceea ce privește posibilele riscuri la adresa drepturilor fundamentale și în ceea ce privește discriminarea, după caz.

    Pentru a aborda opacitatea care poate determina anumite sisteme de IA să fie imposibil de înțeles sau prea complexe pentru persoanele fizice sau autoritățile publice de la toate nivelurile , ar trebui să fie impus un înalt grad de transparență pentru sistemele de IA cu grad ridicat de risc. Utilizatorii ar trebui să poată interpreta rezultatele sistemului și să le poată utiliza în mod corespunzător. Prin urmare, sistemele de IA cu grad ridicat de risc ar trebui să fie însoțite de documentația relevantă și de instrucțiuni de utilizare și să includă informații concise și clare, inclusiv în ceea ce privește posibilele riscuri la adresa drepturilor fundamentale și în ceea ce privește discriminarea, după caz.

    Expunere de motive

    Responsabilitatea celor care concep sisteme de IA cu grad ridicat de risc este slăbită prin utilizarea cuvintelor „un anumit nivel de transparență”.

    Amendamentul 9

    Considerentul 48

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Sistemele de IA cu grad ridicat de risc ar trebui să fie concepute și dezvoltate astfel încât persoanele fizice să poată supraveghea funcționarea lor. În acest scop, furnizorul sistemului ar trebui să identifice măsuri adecvate de supraveghere umană înainte de introducerea sa pe piață sau de punerea sa în funcțiune. În special, după caz, astfel de măsuri ar trebui să garanteze că sistemul este supus unor constrângeri operaționale integrate care nu pot fi dezactivate de sistem și care sunt receptive la operatorul uman și că persoanele fizice cărora le-a fost încredințată supravegherea umană au competența, pregătirea și autoritatea necesare pentru îndeplinirea acestui rol.

    Sistemele de IA cu grad ridicat de risc ar trebui să fie concepute și dezvoltate astfel încât persoanele fizice și autoritățile publice de la toate nivelurile de guvernare să poată supraveghea funcționarea lor. În acest scop, furnizorul sistemului ar trebui să identifice măsuri adecvate de supraveghere umană înainte de introducerea sa pe piață sau de punerea sa în funcțiune. În special, după caz, astfel de măsuri ar trebui să garanteze că sistemul este supus unor constrângeri operaționale integrate care nu pot fi dezactivate de sistem și care sunt receptive la operatorul uman și că persoanele fizice cărora le-a fost încredințată supravegherea umană au competența, pregătirea și autoritatea necesare pentru îndeplinirea acestui rol.

    Expunere de motive

    Motivele sunt evidente.

    Amendamentul 10

    Considerentul 67

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE.

    Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Statele membre ar trebui să nu genereze obstacole în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu risc ridicat care sunt conforme cu cerințele prevăzute de prezentul regulament și care poartă marcajul CE. Statele membre au competența de a reglementa practicile și sistemele IA cu grad ridicat de risc numai pe baza unor interese de securitate publică și națională imperative și justificate corespunzător.

    Expunere de motive

    Deși statele membre nu ar trebui să obstrucționeze aplicarea regulamentului, acestea ar trebui să își păstreze dreptul de a reglementa sistemele de IA cu grad ridicat de risc în cazul în care sunt în joc interese de securitate publică și națională.

    Amendamentul 11

    Considerentul 70

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Anumite sisteme de IA destinate să interacționeze cu persoane fizice sau să genereze conținut pot prezenta riscuri specifice de uzurpare a identității sau de înșelăciune, indiferent dacă acestea se califică drept sisteme cu risc ridicat sau nu. Prin urmare, în anumite circumstanțe, utilizarea acestor sisteme ar trebui să facă obiectul unor obligații specifice în materie de transparență, fără a aduce atingere cerințelor și obligațiilor pentru sistemele de IA cu grad ridicat de risc. În special, persoanele fizice ar trebui să fie informate că interacționează cu un sistem de IA , cu excepția cazului în care acest lucru este evident din circumstanțele și din contextul utilizării . În plus, persoanele fizice ar trebui notificate atunci când sunt expuse unui sistem de recunoaștere a emoțiilor sau unui sistem biometric de clasificare. Astfel de informații și notificări ar trebui să fie furnizate în formate accesibile pentru persoanele cu handicap. În plus, utilizatorii care utilizează un sistem de IA pentru a genera sau a manipula conținuturi de imagine, audio sau video care se aseamănă în mod apreciabil cu persoane, locuri sau evenimente existente și care par a fi autentice în mod fals, ar trebui să dezvăluie faptul că respectivul conținut a fost creat sau manipulat în mod artificial, prin etichetarea în consecință a rezultatului inteligenței artificiale și divulgarea originii sale artificiale.

    Anumite sisteme de IA destinate să interacționeze cu persoane fizice sau să genereze conținut pot prezenta riscuri specifice de uzurpare a identității sau de înșelăciune, indiferent dacă acestea se califică drept sisteme cu risc ridicat sau nu. Prin urmare, înainte de utilizarea acestor sisteme ar trebui să existe obligații specifice în materie de transparență, fără a aduce atingere cerințelor și obligațiilor pentru sistemele de IA cu grad ridicat de risc. În special, persoanele fizice ar trebui să fie informate în mod sistematic că interacționează cu un sistem de IA. În plus, persoanele fizice ar trebui notificate atunci când sunt expuse unui sistem de recunoaștere a emoțiilor sau unui sistem biometric de clasificare. Astfel de informații și notificări ar trebui să fie furnizate în formate accesibile pentru persoanele cu handicap. În plus, utilizatorii care utilizează un sistem de IA pentru a genera sau a manipula conținuturi de imagine, audio sau video care se aseamănă în mod apreciabil cu persoane, locuri sau evenimente existente și care par a fi autentice în mod fals, ar trebui să dezvăluie faptul că respectivul conținut a fost creat sau manipulat în mod artificial, prin etichetarea în consecință a rezultatului inteligenței artificiale și divulgarea originii sale artificiale.

    Expunere de motive

    Nu ar trebui să se facă nicio excepție de la obligația de transparență și de informare atunci când persoanele fizice interacționează cu sistemele IA.

    Amendamentul 12

    Considerentul 76

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Pentru a facilita o punere în aplicare armonioasă, eficace și armonizată a prezentului regulament, ar trebui instituit un Comitet european pentru inteligența artificială. Comitetul ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament, inclusiv cu privire la specificațiile tehnice sau standardele existente referitoare la cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere și asistență Comisiei cu privire la chestiuni specifice legate de inteligența artificială.

    Pentru a facilita o punere în aplicare armonioasă, eficace și armonizată a prezentului regulament, ar trebui instituit un Comitet european pentru inteligența artificială. Comitetul ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament, inclusiv cu privire la specificațiile tehnice sau standardele existente referitoare la cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere și asistență Comisiei cu privire la chestiuni specifice legate de inteligența artificială. Membrii Comitetului european pentru inteligența artificială ar trebui să reprezinte interesele societății europene. Componența Comitetului european pentru inteligența artificială ar trebui să fie echilibrată din punctul de vedere al genului.

    Expunere de motive

    Comitetul european pentru IA ar trebui să reprezinte o bună reflectare a intereselor largi ale societății europene. Printre acestea se numără aspecte precum drepturile omului, utilizarea eficientă din punct de vedere climatic și energetic a sistemelor de IA, siguranța, incluziunea socială, sănătatea etc. Echilibrul de gen este o condiție prealabilă pentru diversitate în consiliere, elaborarea de orientări etc.

    Amendamentul 13

    Considerentul 77

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Statele membre joacă un rol esențial în aplicarea și asigurarea respectării prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze una sau mai multe autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii, în fiecare stat membru, o autoritate națională ar trebui desemnată drept autoritate națională de supraveghere.

    Statele membre joacă un rol esențial în aplicarea și asigurarea respectării prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze una sau mai multe autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct oficial de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii, în fiecare stat membru, o autoritate națională ar trebui desemnată drept autoritate națională de supraveghere. Autorităților locale și regionale ar trebui să li se încredințeze sarcini de supraveghere sau de asigurare a respectării legii atunci când statele membre consideră necesar acest lucru.

    Expunere de motive

    Pentru a asigura caracterul executoriu al regulamentului și al cadrului său de monitorizare și executare, statul membru ar trebui să fie împuternicit să încredințeze autorităților locale și regionale, atunci când este necesar și acolo unde este posibil, sarcina de a îndeplini sarcini de monitorizare sau de asigurare a respectării legii.

    Amendamentul 14

    Considerentul 79

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament.

    Pentru a asigura o aplicare adecvată și eficace a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, sistemul de supraveghere a pieței și de conformitate a produselor instituit prin Regulamentul (UE) 2019/1020 ar trebui să se aplice în întregime. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale și, dacă este cazul, cele locale sau regionale , care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv organismele de promovare a egalității, ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament.

    Expunere de motive

    Prin acest amendament se ține seama de diferitele structuri de guvernanță din statele membre ale UE.

    Amendamentul 15

    Considerentul 83

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor.

    Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, regional și local, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor.

    Expunere de motive

    Prin acest amendament se ține seama de diferitele structuri de guvernanță din statele membre ale UE.

    Amendamentul 16

    TITLUL I, articolul 3, alineatul (1) – Definiții

    Textul propus de Comisia Europeană

    Amendamentul CoR

    „sistem de inteligență artificială” (sistem de IA) înseamnă un software care este dezvoltat prin una sau mai multe dintre tehnicile și abordările enumerate în anexa I și care, pentru un anumit set de obiective definite de om, poate genera rezultate precum conținuturi, previziuni, recomandări sau decizii care influențează mediile cu care interacționează;

    „sistem de inteligență artificială” (sistem de IA) înseamnă un software care este dezvoltat prin una sau mai multe dintre tehnicile și abordările enumerate în lista neexhaustivă din anexa I, combinate cu practici sociale și elemente de identitate și cultură și care, pentru un anumit set de obiective definite de om, prin observarea mediului înconjurător prin colectarea de date, interpretarea datelor structurate sau nestructurate colectate, gestionarea de cunoștințe sau prelucrarea informațiilor derivate din aceste date, poate genera rezultate precum conținuturi, previziuni, recomandări sau decizii care influențează mediile cu care interacționează;

    Expunere de motive

    Un sistem de IA constă dintr-o combinație de elemente tehnice ce corelează date, algoritmi și putere de calcul cu practici sociale, elemente specifice societății, identității și culturii. Ca atare, definiția acestui mecanism socio-tehnic dinamic ar trebui adaptată exigențelor viitorului și actualizată regulat, pentru a reflecta cu acuratețe impactul societal tot mai mare al IA, identificând totodată provocările și oportunitățile în schimbare rapidă din domeniul IA, inclusiv legătura dintre gestionarea cunoștințelor și IA. În acest context, un algoritm dezvoltat de un alt algoritm ar trebui, de asemenea, să facă obiectul regulamentului.

    Amendamentul 17

    Articolul 5 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Sunt interzise următoarele practici în domeniul inteligenței artificiale:

    Sunt interzise următoarele practici în domeniul inteligenței artificiale:

    (a)

    introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru, pentru a denatura în mod semnificativ comportamentul unei persoane într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;

    (a)

    introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale fără ca persoanele să fie conștiente de acest lucru, pentru a denatura în mod semnificativ comportamentul unei persoane într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane, încalcă sau este probabil să încalce drepturile fundamentale ale unei alte persoane sau ale unui grup de persoane, inclusiv sănătatea și siguranța fizică sau psihologică a acestora, are sau poate avea un efect negativ asupra consumatorilor, inclusiv pierderi monetare sau discriminare economică, subminează sau poate submina democrația și statul de drept ;

    (b)

    introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unui anumit grup de persoane din cauza vârstei, a unui handicap fizic sau mental, pentru a denatura în mod semnificativ comportamentul unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;

    (b)

    introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unui anumit grup de persoane din cauza vârstei, a unui handicap fizic sau mental, pentru a denatura în mod semnificativ comportamentul unei persoane care aparține grupului respectiv într-un mod care aduce sau poate aduce prejudicii fizice sau psihologice persoanei respective sau altei persoane;

    (c)

    introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA de către autoritățile publice sau în numele acestora pentru evaluarea sau clasificarea credibilității persoanelor fizice într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute sau preconizate , cu un punctaj privind comportamentul social care conduce la una dintre următoarele situații sau la ambele:

    (i)

    tratamentul prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de persoane în contexte sociale care nu au legătură cu contextele în care datele au fost generate sau colectate inițial;

    (ii)

    tratamentul prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de persoane care este nejustificat sau disproporționat în raport cu comportamentul social al acestora sau cu gravitatea acestuia;

    (c)

    introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA de către autoritățile publice sau în numele acestora pentru evaluarea sau clasificarea credibilității persoanelor fizice sau ale unui grup de persoane, într-o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute sau preconizate , care să ducă la evaluarea comportamentului social prin intermediul sistemelor de IA în scopuri generale ;

    (d)

    utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:

    (i)

    căutarea specifică a potențialelor victime ale infracționalității, inclusiv a copiilor dispăruți;

    (ii)

    prevenirea unei amenințări specifice, substanțiale și iminente la adresa vieții sau a siguranței fizice a persoanelor fizice sau a unui atac terorist;

    (iii)

    detectarea, localizarea, identificarea sau urmărirea penală a autorului unei infracțiuni sau a unei persoane suspectate de o infracțiune menționată la articolul 2 alineatul (2) din Decizia-cadru 2002/584/JAI ([62]) și pedepsită în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani, astfel cum este stabilit de legislația statului membru respectiv.

    (d)

    introducerea pe piață, punerea în funcțiune sau utilizarea sistemelor de IA de către autoritățile publice sau în numele acestora, aplicând evaluarea comportamentului social prin intermediul sistemelor de IA fără supraveghere umană în scopuri specifice, adică în contexte sociale care au legătură cu contextele în care datele au fost generate sau colectate inițial, pentru evaluarea sau clasificarea credibilității persoanelor fizice sau a unor grupuri de persoane de-a lungul unei anumite perioade de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute sau preconizate, cu un punctaj privind comportamentul social care duce la un tratament prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de persoane care este nejustificat sau disproporționat în raport cu comportamentul lor social sau cu gravitatea acestuia;

     

    (e)

    utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spații accesibile publicului în scopul asigurării respectării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:

    (i)

    căutarea specifică a potențialelor victime ale infracționalității, inclusiv a copiilor dispăruți;

    (ii)

    prevenirea unei amenințări specifice, substanțiale și iminente la adresa vieții sau a siguranței fizice a persoanelor fizice sau a unui atac terorist;

    (iii)

    detectarea, localizarea, identificarea sau urmărirea penală a autorului unei infracțiuni sau a unei persoane suspectate de o infracțiune menționată la articolul 2 alineatul (2) din Decizia-cadru 2002/584/JAI ([62]) și pedepsită în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin trei ani, astfel cum este stabilit de legislația statului membru respectiv.

    Expunere de motive

    Tehnicile subliminale în general pot submina libertatea, drepturile omului și, prin urmare, funcționarea statului de drept democratic. În același timp, inteligența artificială poate submina drepturile consumatorilor. Scopul adăugirilor este de a clarifica acest lucru.

    În ceea ce privește clasificarea socială de către autoritățile publice sau în numele acestora, aceasta ar trebui interzisă dacă este efectuată în scopuri generale, având în vedere pericolele care rezultă din astfel de practici, astfel cum se explică în considerentul 17. Generarea sau colectarea de date în scopuri specifice ar trebui permisă numai cu supraveghere umană și cu condiția să nu încalce dreptul la demnitate și nediscriminare și valorile egalității și justiției.

    Recomandare de amendament 18

    Articolul 5 alineatul (4)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, în limitele și condițiile enumerate la alineatul (1) litera (d) și la alineatele (2) și (3). Statul membru respectiv stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3). Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) litera (d), inclusiv pentru care dintre infracțiunile menționate la punctul (iii) din alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul asigurării respectării legii.

    Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul asigurării respectării legii, în limitele și condițiile enumerate la alineatul (1) litera (d) și la alineatele (2) și (3). Statul membru respectiv stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3). Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) litera (d), inclusiv pentru care dintre infracțiunile menționate la punctul (iii) din alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul asigurării respectării legii. Aceste norme stabilesc modalitățile de informare și consultare a autorităților locale și regionale în cauză. Consultarea ar trebui să aibă loc înainte de utilizarea excepțională a acestor sisteme în spațiul public. În situații urgente, în care consultarea prealabilă nu poate fi așteptată în mod rezonabil, autoritatea locală și regională relevantă este informată imediat cu privire la implementarea practicii IA relevante.

    Expunere de motive

    Responsabilitatea politică și administrativă pentru gestionarea și controlul spațiilor publice revine autorităților locale și regionale. Prin urmare, aceștia ar trebui să fie în măsură să furnizeze informații înainte de implementarea unor astfel de practici de IA și să fie informați în mod corespunzător cu privire la utilizarea excepțională a sistemelor IA în scopul asigurării respectării legii.

    În situații de urgență, în care consultarea prealabilă nu poate fi așteptată în mod rezonabil, autoritatea locală sau regională în cauză este informată imediat.

    Recomandare de amendament 19

    Articolul 13

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Articolul 13  – Transparența și furnizarea de informații utilizatorilor

    Articolul 13a  – Transparența și furnizarea de informații utilizatorilor

    1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite utilizatorilor să interpreteze rezultatele sistemului și să le utilizeze în mod corespunzător. Se asigură un tip și un grad adecvat de transparență, în vederea respectării obligațiilor relevante ale utilizatorului și ale furnizorului prevăzute în capitolul 3 din prezentul titlu.

    1.   Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite utilizatorilor să interpreteze rezultatele sistemului și să le utilizeze în mod corespunzător. Se asigură un tip și un grad adecvat de transparență și explicații inteligibile , în vederea respectării obligațiilor relevante ale utilizatorului și ale furnizorului prevăzute în capitolul 3 din prezentul titlu. Explicațiile se furnizează cel puțin în limba țării în care este utilizat sistemul IA.

    2.   Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare într-un format digital adecvat sau în alte moduri, care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru utilizatori.

    2.   Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare ușor de înțeles și accesibile pentru publicul larg, într-un format digital adecvat sau în alte moduri, care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru utilizatori.

    3.   Informațiile menționate la alineatul (2) precizează:

    3.   Informațiile menționate la alineatul (2) precizează:

    (a)

    identitatea și datele de contact ale furnizorului și, după caz, ale reprezentantului său autorizat;

    (a)

    identitatea și datele de contact ale furnizorului și, după caz, ale reprezentantului său autorizat;

    (b)

    caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv:

    (b)

    caracteristicile, capacitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv:

     

    (i)

    scopul său preconizat;

     

    (i)

    scopul său preconizat;

     

    (ii)

    nivelul de acuratețe, robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;

     

    (ii)

    nivelul de acuratețe (exprimat în indicatorii de modelare relevanți) , robustețe și securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;

     

    (iii)

    orice circumstanță cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale;

     

    (iii)

    orice circumstanță cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul preconizat sau în condiții de utilizare necorespunzătoare previzibile în mod rezonabil, care poate conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale;

     

    (iv)

    performanța sa în ceea ce privește persoanele sau grupurile de persoane în legătură cu care urmează să fie utilizat sistemul;

     

    (iv)

    performanța sa în ceea ce privește persoanele sau grupurile de persoane în legătură cu care urmează să fie utilizat sistemul;

     

    (v)

    după caz, specificațiile pentru datele de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA;

     

    (v)

    după caz, specificațiile pentru datele de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA;

    (vi)

    parametrii utilizați pentru ajustarea modelului și măsurile luate pentru a preveni supradimensionarea și subutilizarea;

    (c)

    modificările aduse sistemului de IA cu grad ridicat de risc și performanței acestuia care au fost predeterminate de către furnizor la momentul evaluării inițiale a conformității, dacă este cazul;

    (c)

    modificările aduse sistemului de IA cu grad ridicat de risc și performanței acestuia care au fost predeterminate de către furnizor la momentul evaluării inițiale a conformității, dacă este cazul;

    (d)

    măsurile de supraveghere umană menționate la articolul 14, inclusiv măsurile tehnice instituite pentru a facilita interpretarea rezultatelor sistemelor de IA de către utilizatori;

    (d)

    măsurile de supraveghere umană menționate la articolul 14, inclusiv măsurile tehnice instituite pentru a facilita interpretarea rezultatelor sistemelor de IA de către utilizatori;

    (e)

    durata de viață preconizată a sistemului de IA cu grad ridicat de risc și orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului.

    (e)

    durata de viață preconizată a sistemului de IA cu grad ridicat de risc și orice măsură de întreținere și de îngrijire necesară pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului.

     

    13b Transparența și furnizarea de informații utilizatorilor

    Persoanele sau grupurile de persoane în legătură cu care se intenționează utilizarea unui sistem IA cu grad ridicat de risc sunt informate într-un mod adecvat, ușor accesibil și inteligibil și au acces la informații explicite, ușor accesibile și accesibile publicului cu privire la o astfel de utilizare.

    Expunere de motive

    Pentru a consolida ecosistemul încrederii, instrucțiunile de utilizare a sistemelor IA cu grad ridicat de risc ar trebui puse la dispoziția publicului. Aceste instrucțiuni trebuie să fie redactate într-un limbaj accesibil, în limba țării în care este instalat sistemul IA.

    În contextul transparenței și al capacității de interpretare a algoritmilor, ar trebui să fie posibil să se explice cu ce parametri a fost ajustat modelul și ce măsuri au fost luate pentru a preveni supraechiparea și subutilizarea.

    Articolul 13 reglementează obligația de transparență și de informare a persoanelor care interacționează cu sistemele de IA sau care ar putea fi afectate de sistemul IA.

    Amendamentul 20

    Articolul 14 alineatul (4)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Măsurile menționate la alineatul (3) permit persoanelor cărora li se încredințează supravegherea umană următoarele acțiuni, în funcție de circumstanțe:

    Măsurile menționate la alineatul (3) permit persoanelor cărora li se încredințează supravegherea umană următoarele acțiuni, în funcție de circumstanțe:

    (a)

    să înțeleagă pe deplin capacitățile și limitările sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;

    (a)

    să înțeleagă pe deplin capacitățile și limitările sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, astfel încât semnele de anomalii, disfuncționalități și performanțe neașteptate să poată fi detectate și abordate cât mai curând posibil;

    (b)

    să rămână conștiente de posibila tendință de a se baza în mod automat sau excesiv pe rezultatele obținute de un sistem de IA cu grad ridicat de risc („părtinire legată de automatizare”), în special în cazul sistemelor de IA cu grad ridicat de risc utilizate pentru a furniza informații sau recomandări pentru decizii care urmează să fie luate de persoanele fizice;

    (b)

    să rămână conștiente de posibila tendință de a se baza în mod automat sau excesiv pe rezultatele obținute de un sistem de IA cu grad ridicat de risc („părtinire legată de automatizare”) sau pe orice altă formă de părtinire , în special în cazul sistemelor de IA cu grad ridicat de risc utilizate pentru a furniza informații sau recomandări pentru decizii care urmează să fie luate de persoanele fizice;

    (c)

    să poată interpreta în mod corect rezultatele sistemului de IA cu grad ridicat de risc, ținând seama în special de caracteristicile sistemului și de instrumentele și metodele de interpretare disponibile;

    (c)

    să poată interpreta în mod corect rezultatele sistemului de IA cu grad ridicat de risc, ținând seama în special de caracteristicile sistemului și de instrumentele și metodele de interpretare disponibile;

    (d)

    să poată să decidă, în orice situație specială, să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele sistemului de IA cu grad ridicat de risc;

    (d)

    să poată să decidă, în orice situație specială, să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele sistemului de IA cu grad ridicat de risc;

    (e)

    să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare.

    (e)

    să poată interveni în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare.

    Expunere de motive

    Există mai multe forme de părtinire care pot fi problematice. Printre exemple se numără prejudecățile proiectantului sau ale utilizatorului (prejudecăți sociale), părtinirea legată de măsura în care sistemul IA implementat reprezintă o soluție adecvată la această problemă (prejudecăți tehnologice) și formele statistice de părtinire.

    Amendamentul 21

    Articolul 14, alineat nou după alineatul (5)

    Textul propus de Comisia Europeană

    Amendamentul CoR

     

    Orice decizie luată de sistemele IA menționate în anexa III punctul (5) literele (a) și (b) face obiectul unei intervenții umane și se bazează pe un proces decizional riguros. Trebuie garantată intervenția factorului uman în legătură cu aceste decizii.

    Expunere de motive

    Articolul 14 se referă numai la supravegherea de către om a sistemelor de IA cu risc ridicat. În ceea ce privește deciziile guvernamentale, este important să se sublinieze faptul că trebuie garantată intervenția și contactul uman și respectarea garanțiilor procedurale.

    Amendamentul 22

    Articolul 17 alineatul (1), literă nouă după litera (m)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Furnizorii de sisteme de IA cu grad ridicat de risc instituie un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acest sistem este documentat în mod sistematic și ordonat sub formă de politici, proceduri și instrucțiuni scrise și include cel puțin următoarele aspecte:

    Furnizorii de sisteme de IA cu grad ridicat de risc instituie un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acest sistem este documentat în mod sistematic și ordonat sub formă de politici, proceduri și instrucțiuni scrise și include cel puțin următoarele aspecte:

    (a)

    o strategie pentru conformitatea cu reglementările, inclusiv conformitatea cu procedurile de evaluare a conformității și cu procedurile de gestionare a modificărilor aduse sistemului de IA cu grad ridicat de risc;

    (a)

    o strategie pentru conformitatea cu reglementările, inclusiv conformitatea cu procedurile de evaluare a conformității și cu procedurile de gestionare a modificărilor aduse sistemului de IA cu grad ridicat de risc;

    (b)

    tehnicile, procedurile și acțiunile sistematice care urmează să fie utilizate pentru proiectarea, controlul proiectării și verificarea proiectării sistemului de IA cu grad ridicat de risc;

    (b)

    tehnicile, procedurile și acțiunile sistematice care urmează să fie utilizate pentru proiectarea, controlul proiectării și verificarea proiectării sistemului de IA cu grad ridicat de risc;

    (c)

    tehnicile, procedurile și acțiunile sistematice care urmează să fie utilizate pentru dezvoltarea, controlul calității și asigurarea calității sistemului de IA cu grad ridicat de risc;

    (c)

    tehnicile, procedurile și acțiunile sistematice care urmează să fie utilizate pentru dezvoltarea, controlul calității și asigurarea calității sistemului de IA cu grad ridicat de risc;

    (d)

    procedurile de examinare, testare și validare care trebuie efectuate înainte, în timpul și după dezvoltarea sistemului de IA cu grad ridicat de risc, precum și frecvența cu care acestea trebuie efectuate;

    (d)

    procedurile de examinare, testare și validare care trebuie efectuate înainte, în timpul și după dezvoltarea sistemului de IA cu grad ridicat de risc, precum și frecvența cu care acestea trebuie efectuate;

    (e)

    specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;

    (e)

    specificațiile tehnice, inclusiv standardele, care urmează să fie aplicate și, în cazul în care normele armonizate relevante nu sunt aplicate integral, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în capitolul 2 din prezentul titlu;

    (f)

    sisteme și proceduri pentru gestionarea datelor, inclusiv colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;

    (f)

    sisteme și proceduri pentru gestionarea datelor, inclusiv colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;

    (g)

    sistemul de gestionare a riscurilor menționat la articolul 9;

    (g)

    sistemul de gestionare a riscurilor menționat la articolul 9;

    (h)

    înființarea, implementarea și întreținerea unui sistem de monitorizare ulterioară introducerii pe piață în conformitate cu articolul 61;

    (h)

    înființarea, implementarea și întreținerea unui sistem de monitorizare ulterioară introducerii pe piață în conformitate cu articolul 61;

    (i)

    procedurile legate de raportarea incidentelor grave și a funcționării defectuoase în conformitate cu articolul 62;

    (i)

    procedurile legate de raportarea incidentelor grave și a funcționării defectuoase în conformitate cu articolul 62;

    (j)

    gestionarea comunicării cu autoritățile naționale competente, cu autoritățile competente, inclusiv cu cele sectoriale, care furnizează sau sprijină accesul la date, cu organismele notificate, cu alți operatori, cu clienți sau cu alte părți interesate;

    (j)

    gestionarea comunicării cu autoritățile naționale competente, cu autoritățile competente, inclusiv cu cele sectoriale, care furnizează sau sprijină accesul la date, cu organismele notificate, cu alți operatori, cu clienți sau cu alte părți interesate;

    (k)

    sisteme și proceduri pentru păstrarea evidențelor tuturor documentelor și informațiilor relevante;

    (k)

    sisteme și proceduri pentru păstrarea evidențelor tuturor documentelor și informațiilor relevante;

    (l)

    gestionarea resurselor, inclusiv măsurile legate de securitatea aprovizionării;

    (l)

    gestionarea resurselor, inclusiv măsurile legate de securitatea aprovizionării;

    (m)

    un cadru de asigurare a răspunderii care stabilește responsabilitățile cadrelor de conducere și ale altor categorii de personal în ceea ce privește toate aspectele enumerate la prezentul alineat.

    (m)

    un cadru de asigurare a răspunderii care stabilește responsabilitățile cadrelor de conducere și ale altor categorii de personal în ceea ce privește toate aspectele enumerate la prezentul alineat;

     

    (n)

    măsuri de prevenire a discriminării nejustificate pe criterii de sex, origine etnică, religie sau convingeri, handicap, vârstă, orientare sexuală sau pe orice motiv;

    (o)

    o explicație a modului în care au fost luate în considerare aspectele etice la proiectarea sistemului IA cu risc ridicat.

    Expunere de motive

    Adăugirea subliniază că incluziunea și combaterea discriminării nejustificate ar trebui să fie elemente importante ale sistemului de calitate.

    Sistemul trebuie să respecte valorile etice pe care un utilizator al sistemului IA dorește să le stabilească sau în privința cărora furnizorul se poate aștepta în mod rezonabil să fie asociate cu un sistem IA cu risc ridicat. Furnizorul ar trebui să poată explica modul în care a ținut seama de acest lucru.

    Amendamentul 23

    Articolul 19 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Furnizorii de sisteme de IA cu grad ridicat de risc se asigură că sistemele lor sunt supuse procedurii relevante de evaluare a conformității potrivit articolului 43, înainte de introducerea lor pe piață sau de punerea lor în funcțiune. În cazul în care conformitatea sistemelor de IA cu cerințele prevăzute în capitolul 2 din prezentul titlu a fost demonstrată în urma respectivei evaluări a conformității, furnizorii întocmesc o declarație de conformitate UE potrivit articolului 48 și aplică marcajul CE de conformitate potrivit articolului 49.

    Furnizorii de sisteme de IA cu grad ridicat de risc se asigură că sistemele lor sunt supuse procedurii relevante de evaluare a conformității potrivit articolului 43, înainte de introducerea lor pe piață sau de punerea lor în funcțiune. În cazul în care conformitatea sistemelor de IA cu cerințele prevăzute în capitolul 2 din prezentul titlu a fost demonstrată în urma respectivei evaluări a conformității, furnizorii întocmesc o declarație de conformitate UE potrivit articolului 48 și aplică marcajul CE de conformitate potrivit articolului 49. Furnizorul de sisteme IA cu grad ridicat de risc publică declarația de conformitate UE și un rezumat al evaluării conformității într-un loc accesibil publicului.

    Expunere de motive

    Pentru a consolida ecosistemul încrederii în sistemele IA, sistemele de IA cu risc ridicat ar trebui să fie deschise. Prin urmare, publicul ar trebui să poată verifica dacă evaluarea conformității a fost stabilită în mod corespunzător, în conformitate cu normele regulamentului.

    Amendamentul 24

    Articolul 29, alineat nou după alineatul (6)

    Textul propus de Comisia Europeană

    Amendamentul CoR

     

    Utilizatorii sistemelor de IA cu risc ridicat trebuie să efectueze o evaluare etică înainte de utilizarea sistemului. Ei trebuie să fie în măsură să explice posibilul impact al utilizării tehnologiei asupra oamenilor și societății. Ei specifică scopul urmărit cu implementarea sistemului IA, valorile generale și modul în care au fost ponderate valorile respective și dacă au fost sau nu puse în aplicare în sistem. Utilizatorii sistemelor de IA evaluează impactul real al acestora asupra oamenilor și societății pe parcursul întregului ciclu de viață al sistemului IA.

    Expunere de motive

    Etica este un concept larg. Există multe modalități în care poate fi transpusă în practică etica în domeniul tehnologiei, atât în ceea ce privește justificările teoretice, cât și metodologiile, instrumentele și valorile de proiectare concrete. Valorile sunt elemente considerate importante de către anumite persoane sau grupuri de persoane; ele pot fi mai concrete sau mai conceptuale. Este important să existe o abordare deschisă în ce privește punerea în aplicare a gamei de valori morale existente și să se evalueze în permanență ciclul de viață al sistemului IA.

    Amendamentul 25

    Articolul 52 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât persoanele fizice să fie informate că interacționează cu un sistem de IA , cu excepția cazului în care acest lucru este evident din circumstanțele și contextul de utilizare . Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune.

    Furnizorii se asigură că sistemele de IA destinate să interacționeze cu persoane fizice sunt proiectate și dezvoltate astfel încât persoanele fizice să fie informate că interacționează cu un sistem de IA. Această obligație nu se aplică sistemelor de IA autorizate prin lege pentru a detecta, a preveni, a investiga și a urmări penal infracțiunile, cu excepția cazului în care aceste sisteme sunt disponibile publicului pentru a denunța o infracțiune. Sfera opțiunilor și statutul juridic al persoanelor fizice care interacționează cu sistemele IA nu ar trebui să fie restricționate de această interacțiune.

    Expunere de motive

    În cazul în care artefactele tehnologice sunt utilizate ca mediu pentru interacțiunea cu persoane fizice, poate exista riscul de a limita alegerile făcute de persoanele fizice care interacționează cu aceste artefacte. Persoanele fizice ar trebui să fie întotdeauna informate în mod corespunzător ori de câte ori se confruntă cu sisteme de IA, iar acest lucru nu ar trebui să facă obiectul interpretării unei situații date. Drepturile lor ar trebui să fie garantate în orice moment în interacțiunile lor cu sistemele de IA.

    Amendamentul 26

    Articolul 57 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Comitetul este alcătuit din autoritățile naționale de supraveghere, care sunt reprezentate de șeful autorității respective sau de un înalt funcționar echivalent al acesteia, precum și din Autoritatea Europeană pentru Protecția Datelor. La reuniuni pot fi invitate și alte autorități naționale în cazul în care chestiunile discutate le privesc.

    Comitetul este alcătuit din autoritățile naționale de supraveghere, care sunt reprezentate de șeful autorității respective sau de un înalt funcționar echivalent al acesteia, precum și din Autoritatea Europeană pentru Protecția Datelor. La reuniuni pot fi invitate și alte autorități naționale , regionale și locale în cazul în care chestiunile discutate le privesc.

    Expunere de motive

    Autoritățile locale și regionale ar trebui, de asemenea, să poată participa la supravegherea sistemelor de IA și să prezinte rapoarte cu privire la punerea lor în aplicare pe teren.

    Amendamentul 27

    Articolul (58)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Atunci când oferă consiliere și asistență Comisiei în contextul articolului 56 alineatul (2), comitetul, în special:

    Atunci când oferă consiliere și asistență Comisiei în contextul articolului 56 alineatul (2), comitetul, în special:

    (a)

    asigură colectarea și schimbul de expertiză și de bune practici între statele membre;

    (a)

    asigură colectarea și schimbul de expertiză și de bune practici între statele membre , autorități regionale și locale ;

    (b)

    contribuie la practici administrative uniforme în statele membre, inclusiv pentru funcționarea spațiilor de testare în materie de reglementare menționate la articolul 53;

    (b)

    contribuie la practici administrative uniforme în statele membre, inclusiv pentru funcționarea spațiilor de testare în materie de reglementare menționate la articolul 53;

    (c)

    emite avize, recomandări sau contribuții scrise cu privire la aspecte legate de punerea în aplicare a prezentului regulament, în special:

    (c)

    emite avize, recomandări sau contribuții scrise cu privire la aspecte legate de punerea în aplicare a prezentului regulament, în special:

     

    (i)

    privind specificațiile tehnice sau standardele existente referitoare la cerințele prevăzute în titlul III capitolul 2;

    (ii)

    privind utilizarea normelor armonizate sau a specificațiilor comune menționate la articolele 40 și 41;

    (iii)

    privind pregătirea documentelor de orientare, inclusiv a orientărilor referitoare la stabilirea amenzilor administrative menționate la articolul 71.

     

    (i)

    privind specificațiile tehnice sau standardele existente referitoare la cerințele prevăzute în titlul III capitolul 2;

    (ii)

    privind utilizarea normelor armonizate sau a specificațiilor comune menționate la articolele 40 și 41;

    (iii)

    privind pregătirea documentelor de orientare, inclusiv a orientărilor referitoare la stabilirea amenzilor administrative menționate la articolul 71.

    Expunere de motive

    Autoritățile locale și regionale sunt cele mai apropiate de locuitorii și economiile locale. Ele ar trebui să fie în mod explicit bine poziționate în ceea ce privește schimbul de cunoștințe.

    Amendamentul 28

    Articolul 59 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Fiecare stat membru instituie sau desemnează autorități naționale competente cu scopul de a asigura aplicarea și punerea în aplicare a prezentului regulament. Autoritățile naționale competente sunt organizate astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor lor.

    Fiecare stat membru instituie sau desemnează autorități naționale competente cu scopul de a asigura aplicarea și punerea în aplicare a prezentului regulament. Autoritățile naționale competente sunt organizate astfel încât să garanteze obiectivitatea și imparțialitatea activităților și sarcinilor lor. Autoritățile locale și regionale ar trebui împuternicite să îndeplinească sarcini de supraveghere sau de asigurare a respectării legii atunci când statele membre consideră necesar acest lucru.

    Expunere de motive

    Pentru a asigura caracterul executoriu al regulamentului și al cadrului de monitorizare și executare dat, statul membru ar trebui să fie capabil să încredințeze autorităților locale și regionale, atunci când este necesar și acolo unde este posibil, îndeplinirea sarcinii de monitorizare sau de asigurare a respectării normelor. În acest context, autoritățile locale și regionale trebuie să beneficieze de sprijin și formare pentru a fi pe deplin împuternicite să îndeplinească sarcini de supraveghere sau de punere în aplicare.

    Amendamentul 29

    Articolul 69 alineatul (3)

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Codurile de conduită pot fi elaborate de furnizori individuali de sisteme de IA sau de organizații care îi reprezintă sau de ambele, inclusiv cu implicarea utilizatorilor și a oricăror părți interesate și a organizațiilor lor reprezentative. Codurile de conduită pot acoperi unul sau mai multe sisteme de IA, ținând seama de similaritatea scopului preconizat al sistemelor relevante.

    Codurile de conduită pot fi elaborate de autorități naționale, locale sau regionale, de furnizori individuali de sisteme de IA sau de organizații care îi reprezintă sau de ambele, inclusiv cu implicarea utilizatorilor și a oricăror părți interesate și a organizațiilor lor reprezentative. Codurile de conduită pot acoperi unul sau mai multe sisteme de IA, ținând seama de similaritatea scopului preconizat al sistemelor relevante.

    Expunere de motive

    Autoritățile naționale, locale și regionale ar trebui să aibă competența juridică de a elabora coduri de conduită pentru sistemele de IA pe care le dezvoltă sau le utilizează.

    Amendamentul 30

    ANEXA I – Tehnici și abordări în materie de inteligență artificială menționate la articolul 3 alineatul (1)

    Textul propus de Comisia Europeană

    Amendamentul CoR

     

    Având în vedere stadiul actual al științei, IA include următoarele tehnici și metode:

    (a)

    Abordări de învățare automată, inclusiv învățarea supervizată, nesupervizată și prin întărire, utilizând o gamă largă de metode, inclusiv învățarea profundă;

    (a)

    Abordări de învățare automată, inclusiv învățarea supervizată, nesupervizată și prin întărire, utilizând o gamă largă de metode, inclusiv învățarea profundă;

    (b)

    Abordări bazate pe logică și cunoaștere, inclusiv reprezentarea cunoștințelor, programare inductivă (logică), baze de cunoștințe, motoare inductive și deductive, sisteme de raționament (simbolic) și de expertiză;

    (b)

    Abordări bazate pe logică și cunoaștere, inclusiv reprezentarea cunoștințelor, programare inductivă (logică), baze de cunoștințe, motoare inductive și deductive, sisteme de raționament (simbolic) și de expertiză;

    (c)

    Abordări statistice, estimări bayeziene, metode de căutare și de optimizare.

    (c)

    Abordări statistice, estimări bayeziene, metode de căutare și de optimizare.

    Expunere de motive

    Definiția și lista tehnicilor IA ar trebui să fie adaptate exigențelor viitorului. Lista tehnicilor și abordărilor specifice utilizate pentru dezvoltarea sistemelor de IA nu ar trebui să fie o listă exhaustivă și trebuie să fie clar că se bazează pe situația științifică actuală.

    Amendamentul 31

    Anexa III, 1-5

    Textul propus de Comisia Europeană

    Amendamentul CoR

    Sistemele de IA cu grad ridicat de risc conform articolului 6 alineatul (2) sunt sistemele de IA enumerate în oricare dintre următoarele domenii:

    Sistemele de IA cu grad ridicat de risc conform articolului 6 alineatul (2) sunt sistemele de IA enumerate în oricare dintre următoarele domenii:

    1.

    identificarea biometrică și clasificarea persoanelor fizice:

    1.

    identificarea biometrică și clasificarea persoanelor fizice:

    (a)

    sisteme de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor fizice „în timp real” și „ulterior”;

    (a)

    sisteme de IA destinate a fi utilizate pentru identificarea biometrică la distanță a persoanelor fizice „în timp real” și „ulterior”;

    2.

    gestionarea și exploatarea infrastructurilor critice:

    2.

    gestionarea și exploatarea infrastructurilor critice:

    (a)

    sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și operarea traficului rutier și în aprovizionarea cu apă, gaz, încălzire și energie electrică;

    (a)

    sisteme de IA destinate a fi utilizate drept componente de siguranță în gestionarea și operarea traficului rutier și în aprovizionarea cu apă, gaz, încălzire și energie electrică și infrastructura de telecomunicații, apă și internet ;

    3.

    educație și formare profesională:

    3.

    educație și formare profesională:

    (a)

    sisteme de IA destinate a fi utilizate în scopul stabilirii accesului sau al repartizării persoanelor fizice la instituțiile de învățământ și de formare profesională;

    (a)

    sisteme de IA destinate a fi utilizate în scopul stabilirii accesului sau al repartizării persoanelor fizice la instituțiile de învățământ și de formare profesională;

    (b)

    sisteme de IA destinate a fi utilizate în scopul evaluării elevilor din instituțiile de învățământ și formare profesională și al evaluării participanților la testele necesare în mod normal pentru admiterea în instituțiile de învățământ;

    (b)

    sisteme de IA destinate a fi utilizate în scopul evaluării elevilor din instituțiile de învățământ și formare profesională și al evaluării participanților la testele necesare în mod normal pentru admiterea în instituțiile de învățământ;

    4.

    ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente:

    4.

    ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente:

    (a)

    sisteme de IA destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru anunțarea posturilor vacante, examinarea sau filtrarea candidaturilor, evaluarea candidaților în cursul interviurilor sau al testelor;

    (a)

    sisteme de IA destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru anunțarea posturilor vacante, examinarea sau filtrarea candidaturilor, evaluarea candidaților în cursul interviurilor sau al testelor;

    (b)

    inteligență artificială destinată a fi utilizată pentru luarea deciziilor privind promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor și pentru monitorizarea și evaluarea performanței și a comportamentului persoanelor aflate în astfel de relații;

    (b)

    inteligență artificială destinată a fi utilizată pentru luarea deciziilor privind promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor și pentru monitorizarea și evaluarea performanței și a comportamentului persoanelor aflate în astfel de relații;

    5.

    accesul la servicii esențiale private și la serviciile și beneficiile publice, precum și posibilitatea de a beneficia de acestea:

    5.

    accesul la servicii esențiale private și la serviciile și beneficiile publice, precum și posibilitatea de a beneficia de acestea:

    (a)

    sisteme de IA destinate a fi utilizate de autoritățile publice sau în numele autorităților publice pentru a evalua eligibilitatea persoanelor fizice pentru prestații și servicii de asistență publică, precum și pentru a acorda, a reduce, a revoca sau a recupera astfel de prestații și servicii;

    (a)

    sisteme de IA destinate a fi utilizate de autoritățile publice sau în numele autorităților publice pentru a evalua și decide cu privire la eligibilitatea persoanelor fizice pentru prestații și servicii de asistență publică, precum și pentru a acorda, a reduce, a revoca sau a recupera astfel de prestații și servicii;

    (b)

    sisteme de IA destinate a fi utilizate pentru a evalua bonitatea persoanelor fizice sau pentru a stabili punctajul lor de credit, cu excepția sistemelor de IA puse în funcțiune de furnizori la scară mică pentru uz propriu;

    (b)

    sisteme de IA destinate a fi utilizate pentru a defini bonitatea persoanelor fizice sau punctajul lor de credit, cu excepția sistemelor de IA puse în funcțiune de furnizori la scară mică pentru uz propriu;

    (c)

    sisteme de IA destinate a fi utilizate pentru dispecerizare sau pentru a stabili prioritatea în dispecerizarea serviciilor de primă intervenție de urgență, inclusiv de către pompieri și de asistență medicală;

    (c)

    sisteme de IA destinate a fi utilizate pentru dispecerizare sau pentru a stabili prioritatea în dispecerizarea serviciilor de primă intervenție de urgență, inclusiv de către pompieri și de asistență medicală;

    Expunere de motive

    Telecomunicațiile, infrastructura de apă și de internet fac parte integrantă din infrastructura critică.

    Problema calificării sistemelor cu risc ridicat este dacă astfel de sisteme ar putea prezenta un risc real pentru cetățeni. Simpla evaluare analitică și teoretică a creanțelor rezidenților față de serviciile publice nu implică un risc ridicat. Completarea cuvântului „evaluează” cu „decide” subliniază că acest risc se reflectă efectiv în procesul decizional, în special pentru rezidenți.

    II.   RECOMANDĂRI POLITICE

    COMITETUL EUROPEAN AL REGIUNILOR

    Un ecosistem de excelență

    1.

    subliniază că ambiția Comisiei de a transforma UE într-un lider mondial în dezvoltarea responsabilă și centrată pe oameni a IA poate fi realizată numai dacă autoritățile locale și regionale ocupă o poziție puternică. Autoritățile locale și regionale sunt cele mai în măsură să contribuie la crearea unui mediu favorabil creșterii investițiilor în IA în următorii ani și la stimularea încrederii în IA;

    2.

    subliniază că, pe lângă implicarea lor, este important ca autoritățile locale și regionale să beneficieze de sprijin și formare pentru a-și consolida competențele în domeniu, în special în măsura în care este posibil ca ele să asume sarcini de supraveghere și de aplicare a legii;

    3.

    observă că finanțarea UE va deveni disponibilă pentru dezvoltarea IA, dar atrage atenția asupra abordării fragmentate a dezvoltării IA din cauza diversității programelor, care sporește riscul de fragmentare și de suprapunere;

    4.

    invită, prin urmare, Comisia să dezvolte și să interconecteze spații comune de date („common data spaces”) puternice și multiforme, în care cazurile de utilizare societală pot fi soluționate prin utilizarea datelor publice și private. Acest lucru necesită, de asemenea, alinierea la inițiativele legislative din cadrul Strategiei europene privind datele.

    Un ecosistem al încrederii

    5.

    regretă că propunerea de regulament nu menționează autoritățile locale și regionale, deși cadrul juridic se va aplica atât actorilor publici, cât și celor privați;

    6.

    observă, în acest sens, că sistemele de IA pot juca un rol important în interacțiunea autorităților locale și regionale cu cetățenii și în furnizarea de servicii. În plus, sistemele de IA au potențialul, printre altele, de a îmbunătăți eficiența sectorului public și de a ajuta autoritățile locale și regionale să răspundă ajustărilor care trebuie efectuate la nivel local și regional în contextul tranzițiilor verzi și digitale. Prin urmare, este important ca experiența dobândită de autoritățile locale și regionale să fie utilizată în mod activ în revizuirea în curs a regulamentului;

    7.

    solicită clarificări suplimentare cu privire la definițiile termenilor „furnizor” și „utilizator”, în special în situațiile în care întreprinderile, instituțiile de cercetare, autoritățile publice și cetățenii dezvoltă și testează în comun sistemele IA în „laboratoare vii”. De asemenea, ar trebui să se acorde atenția cuvenită cetățenilor sau consumatorilor afectați de deciziile bazate pe IA ale sistemelor utilizate de utilizatorii profesioniști;

    8.

    subliniază necesitatea consultării prealabile a autorităților locale și regionale relevante în cazul utilizării sistemelor de IA pentru identificarea biometrică în timp real a persoanelor fizice la distanță în zonele accesibile publicului, în scopul aplicării legii;

    9.

    salută consultarea publică organizată de Comisia Europeană cu privire la adaptarea normelor privind răspunderea civilă în contextul provocărilor specifice erei digitale și inteligenței artificiale (1) și se așteaptă ca rezultatul acestei consultări să fie un cadru actualizat, care să asigure despăgubirea consumatorilor pentru prejudiciile cauzate de aplicațiile IA;

    10.

    se întreabă de ce sistemele de IA utilizate în procesele democratice, cum ar fi alegerile, nu se află pe lista sistemelor de IA cu risc ridicat;

    11.

    solicită ca sistemele de IA cu grad ridicat de risc să fie supuse acelorași cerințe de transparență și de informare pentru persoanele fizice la care sunt supuși în prezent utilizatorii;

    12.

    subliniază riscurile și implicațiile majore în materie de drepturi ale omului asociate cu utilizarea clasificărilor sociale;

    13.

    în acest context, este foarte sceptic în legătură cu cele două motive prevăzute în regulament (2) pentru a stabili dacă o clasificare socială conduce la un tratament prejudiciabil sau nefavorabil al unor persoane sau grupuri de persoane, deoarece este extrem de dificil să se stabilească existența unor astfel de motive. În acest context, Comitetul îndeamnă la formularea clară a unor garanții solide pentru a se asigura că interzicerea practicilor de clasificare socială nu este eludată;

    14.

    observă că considerentele regulamentului abordează riscurile la care sunt expuse persoanele ca urmare a interacțiunii lor cu sistemele de IA cu grad ridicat de risc în contextul, printre altele, al educației, formării, ocupării forței de muncă, gestionării resurselor umane, al accesului la activități independente sau al accesului la anumite servicii publice și private esențiale și al exercitării acestora;

    15.

    invită Comisia să examineze mai aprofundat calificarea pentru risc ridicat a sistemelor de IA destinate utilizării de către autoritățile publice (3);

    16.

    solicită ca o autoritate să ofere consiliere ex ante aprofundată cu privire la interpretarea dispozițiilor din regulament și în legătură cu Regulamentul general privind protecția datelor. Acest lucru va spori securitatea juridică și va reduce costurile de proiectare și implementare a sistemelor de IA;

    17.

    subliniază, în acest sens, importanța clarității în formularea regulamentului, care este esențială pentru construirea unui ecosistem de încredere și pentru eliminarea incertitudinii juridice legate de dezvoltarea și utilizarea sistemelor de IA. Acest lucru ar evita interpretările greșite ale cerințelor propuse și ar reduce la minimum riscurile de gestionare defectuoasă ulterioară a aplicațiilor IA, maximizând astfel eficacitatea și credibilitatea sancțiunilor prevăzute de regulament. În același timp, și în conformitate cu agenda Comisiei Europene privind o mai bună reglementare, detectarea timpurie și eliminarea potențialelor suprapuneri și/sau conflicte cu normele existente sunt de o importanță majoră;

    18.

    constată că multe autorități locale și regionale utilizează aceleași sisteme de IA pentru sarcini similare. Sistemele sunt concepute, în marea majoritate a cazurilor, de întreprinderi private;

    19.

    constată că propunerea de regulament nu trebuie privită ca fiind de sine stătătoare din punctul de vedere al garantării drepturilor cetățenilor – ea trebuie privită în contextul legislației existente. Prin urmare, statele membre sunt încurajate să se asigure că iau în permanență măsurile administrative necesare pentru a putea face față oportunităților și riscurilor pe care le prezintă utilizarea IA în sectorul public;

    20.

    observă că acest lucru înseamnă că, în evaluarea conformității, normele europene și naționale sunt interpretate de întreprinderi și de organismele notificate și, prin urmare, această interpretare influențează practica autorităților locale și regionale care utilizează aceste sisteme de IA. Acest lucru face dificilă determinarea măsurii în care politica locală și regională poate fi luată în considerare în aceste sisteme de IA. Prin urmare, Comitetul acordă atenție nevoilor specifice ale autorităților locale și regionale și faptului că o abordare universală poate submina eficacitatea sistemelor de IA în ceea ce privește satisfacerea acestor nevoi. În plus, Comitetul sugerează că statele membre ar trebui să aibă competența de a reglementa sistemele de IA cu grad ridicat de risc în eventualitatea unor motive imperative și justificate de interes public;

    21.

    solicită, în acest sens, ca evaluările conformității să fie transparente și accesibile publicului. În plus, autoritățile locale și regionale ar trebui, de asemenea, să poată participa la monitorizarea sistemelor de IA, să raporteze cu privire la punerea lor în aplicare pe teren și să contribuie în mod oficial la evaluarea de către Comisia Europeană a aplicării regulamentului;

    22.

    subliniază că recurgerea la un spațiu de testare în materie de reglementare („regulatory sandbox”) presupune stabilirea unor condiții juridice, metodologice și etice adecvate pentru a permite dezvoltarea tehnologiei, elaborarea legislației și evaluarea acesteia din urmă. Ar trebui stabilite și criterii clare pentru admiterea antreprenorilor în spațiul de testare în materie de reglementare; Pentru a se garanta că organizațiile de consumatori pot pune în aplicare dispozițiile Legii privind inteligența artificială, aceasta trebuie inclusă în anexa I la Directiva privind acțiunile în reprezentare pentru protecția intereselor colective ale consumatorilor [(UE) 2020/1828].

    Campanii de informare

    23.

    subliniază importanța campaniilor publice, astfel încât publicul larg să fie informat și familiarizat cu existența și utilitatea sistemelor de IA, precum și cu posibilele riscuri. Subliniază, de asemenea, nevoia urgentă de informații cuprinzătoare pentru consumatori în domeniul inteligenței artificiale/al proceselor decizionale bazate pe calculator. Solicită, în acest sens, Comisiei Europene să furnizeze finanțare pentru astfel de campanii;

    Sarcini administrative

    24.

    își exprimă îngrijorarea cu privire la sarcina administrativă pe care ar putea să o implice regulamentul propus. Sarcina administrativă poate împiedica întreprinderile mici și mijlocii, autoritățile locale și regionale să promoveze inovarea și să implementeze sisteme de IA (4).

    Proporționalitate și subsidiaritate

    25.

    consideră că proiectul de regulament respectă cerințele principiilor proporționalității și subsidiarității. Valoarea adăugată a acțiunii UE în acest domeniu și caracterul adecvat al temeiurilor juridice alese de Comisie sunt evidente și coerente. Evaluarea impactului a inclus o secțiune distinctă privind subsidiaritatea. În plus, până la termenul stabilit, 2 septembrie 2021, niciun parlament național nu a emis un aviz motivat privind nerespectarea principiului subsidiarității.

    Bruxelles, 2 decembrie 2021.

    Președintele Comitetului European al Regiunilor

    Apostolos TZITZIKOSTAS


    ([62])  Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).

    ([62])  Decizia-cadru 2002/584/JAI a Consiliului din 13 iunie 2002 privind mandatul european de arestare și procedurile de predare între statele membre (JO L 190, 18.7.2002, p. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_ro

    (2)  Articolul 5 alineatul (1) litera (c).

    (3)  Anexa III alineatul (5) litera (a).

    (4)  Un studiu recent (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, p. 12), susținut de Comisia Europeană, a estimat că, pe baza unor ipoteze rezonabile, obținerea certificării pentru un sistem de IA ar putea costa, în medie, între 16 800 și 23 000 EUR, echivalentul a aproximativ 10-14 % din costurile de dezvoltare.


    Top