Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020IP0275

Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe (2020/2012(INL))

JO C 404, 6.10.2021, p. 63–106 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

RO

Jurnalul Oficial al Uniunii Europene

C 404/63


P9_TA(2020)0275

Cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe

Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind cadrul de aspecte etice asociate cu inteligența artificială, robotica și tehnologiile conexe (2020/2012(INL))

(2021/C 404/04)

Parlamentul European,

având în vedere articolul 225 din Tratatul privind funcționarea Uniunii Europene,

având în vedere articolul 114 din Tratatul privind funcționarea Uniunii Europene,

având în vedere Carta drepturilor fundamentale a Uniunii Europene,

având în vedere Regulamentul (UE) 2018/1488 al Consiliului din 28 septembrie 2018 privind instituirea întreprinderii comune pentru calculul european de înaltă performanță (1),

având în vedere Directiva 2000/43/CE a Consiliului din 29 iunie 2000 de punere în aplicare a principiului egalității de tratament între persoane, fără deosebire de rasă sau origine etnică (2) (Directiva privind egalitatea rasială),

având în vedere Directiva 2000/78/CE a Consiliului din 27 noiembrie 2000 de creare a unui cadru general în favoarea egalității de tratament în ceea ce privește încadrarea în muncă și ocuparea forței de muncă (3) (Directiva privind egalitatea de tratament în ceea ce privește încadrarea în muncă și ocuparea forței de muncă),

având în vedere Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (4) (RGPD) și Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului (5),

având în vedere Acordul interinstituțional din 13 aprilie 2016 privind o mai bună legiferare (6),

având în vedere propunerea de regulament al Parlamentului European și al Consiliului din 6 iunie 2018 de instituire a programului Europa digitală pentru perioada 2021-2027 (COM(2018)0434),

având în vedere Comunicarea Comisiei din 11 decembrie 2019 către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor privind Pactul verde european (COM(2019)0640),

având în vedere Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor din 19 februarie 2020 intitulată „Inteligența artificială – O abordare europeană axată pe excelență și încredere” (COM(2020)0065),

având în vedere Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor din 19 februarie 2020 intitulată „O strategie europeană privind datele” (COM(2020)0066),

având în vedere Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor din 19 februarie 2020 intitulată „Conturarea viitorului digital al Europei” (COM(2020)0067),

având în vedere concluziile Consiliului Uniunii Europene privind conturarea viitorului digital al Europei din iunie 2020,

având în vedere Rezoluția sa din 16 februarie 2017 conținând recomandări adresate Comisiei referitoare la normele de drept civil privind robotica (7),

având în vedere Rezoluția sa din 1 iunie 2017 referitoare la digitalizarea industriei europene (8),

având în vedere Rezoluția sa din 12 septembrie 2018 referitoare la sistemele de arme autonome (9),

având în vedere Rezoluția sa din 11 septembrie 2018 referitoare la egalitatea limbilor în epoca digitală (10),

având în vedere Rezoluția sa din 12 februarie 2019 referitoare la o politică industrială europeană cuprinzătoare în domeniul inteligenței artificiale și al roboticii (11),

având în vedere raportul din 8 aprilie 2019 al Grupului de experți la nivel înalt privind inteligența artificială creat de Comisie, intitulat „Ethics Guidelines for Trustworthy AI” („Îndrumar etic pentru o inteligență artificială fiabilă”),

având în vedere studiul privind valoarea adăugată europeană realizat de Serviciul de Cercetare al Parlamentului European, intitulat „European framework on ethical aspects of artificial intelligence, robotics and related technologies” (12) („Cadrul european privind aspectele etice asociate cu inteligența artificială, robotică și tehnologii conexe: valoarea adăugată europeană”),

având în vedere informările și studiile pregătite la cererea Comitetului pentru viitorul științei și tehnologiei (STOA), gestionat de Unitatea de prospectivă științifică din cadrul Serviciului de cercetare al Parlamentului European intitulate „What if algorithms could abide by ethical principles?” („Ce-ar fi dacă algoritmii ar respecta principii etice?”), „Artificial Intelligence ante portas: Legal & ethical reflections” („Inteligența artificială ante portas: reflecții etice și juridice”), „A governance framework for algorithmic accountability and transparency” („Un cadru de guvernanță pentru responsabilitatea și transparența algoritmilor”), „Should we fear artificial intelligence?” („Ar trebui să ne temem de inteligența artificială?”) și „The ethics of artificial intelligence: Issues and initiatives” („Etica inteligenței artificiale: probleme și inițiative”),

având în vedere Convenția-cadru a Consiliului Europei pentru protecția minorităților naționale, Protocolul nr. 12 la Convenția pentru apărarea drepturilor omului și a libertăților fundamentale și Carta europeană a limbilor regionale sau minoritare,

având în vedere Recomandarea Consiliului OCDE referitoare la inteligența artificială, adoptată la 22 mai 2019,

având în vedere articolele 47 și 54 din Regulamentul său de procedură,

având în vedere avizele Comisiei pentru afaceri externe, Comisiei pentru piața internă și protecția consumatorilor, Comisiei pentru transport și turism, Comisiei pentru libertăți civile, justiție și afaceri interne, Comisiei pentru ocuparea forței de muncă și afaceri sociale, Comisiei pentru mediu, sănătate publică și siguranță alimentară și Comisiei pentru cultură și educație,

având în vedere raportul Comisiei pentru afaceri juridice (A9-0186/2020),

Introducere

A.

întrucât dezvoltarea, implementarea și utilizarea inteligenței artificiale („IA”), a roboticii și a tehnologiilor conexe sunt efectuate de oameni, iar alegerile lor determină potențialul acestor tehnologii de a aduce beneficii societății;

B.

întrucât acum se promovează și se dezvoltă rapid inteligența artificială, robotica și tehnologiile conexe care au potențialul de a genera oportunități pentru întreprinderi și beneficii pentru cetățeni și care pot avea un impact direct asupra tuturor aspectelor societăților noastre, inclusiv asupra drepturilor fundamentale și a principiilor și valorilor sociale și economice, și care au o influență de durată asupra tuturor domeniilor de activitate;

C.

întrucât inteligența artificială, robotica și tehnologiile conexe vor aduce, de asemenea, schimbări substanțiale pe piața muncii și la locul de muncă; întrucât ele ar putea înlocui lucrătorii care fac activități repetitive, ar putea facilita sistemele de lucru bazate pe colaborarea dintre oameni și mașini, ar putea îmbunătăți competitivitatea și prosperitatea și ar putea crea noi oportunități de muncă pentru lucrătorii calificați, dar, în același timp, ar pune probleme mari de reorganizare a forței de muncă;

D.

întrucât dezvoltarea inteligenței artificiale, a roboticii și a tehnologiilor conexe pot contribui și la realizarea obiectivelor de sustenabilitate ale Pactului verde european în multe sectoare diferite; întrucât tehnologiile digitale pot amplifica impactul politicilor în ceea ce privește protecția mediului; întrucât ele mai pot contribui și la reducerea congestionării traficului și a emisiilor de gaze cu efect de seră și a poluanților atmosferici;

E.

întrucât, în sectoare precum transportul public, sistemele de transport inteligente pe bază de IA pot fi utilizate pentru a reduce la minimum statul la rând, pentru a optimiza traseul, a le permite persoanelor cu dizabilități să fie mai independente, și a mări eficiența energetică, potențând astfel eforturile de decarbonizare și reducând amprenta ecologică;

F.

întrucât aceste tehnologii aduc cu ele noi oportunități de afaceri care pot contribui la redresarea industriei Uniunii după actuala criză economică și sanitară, dacă vor fi folosite mai mult, de exemplu, în sectorul transporturilor; întrucât astfel de oportunități pot crea noi locuri de muncă, deoarece adoptarea acestor tehnologii are potențialul de a crește nivelurile de productivitate ale întreprinderilor și de a contribui la mărirea eficienței; întrucât programele de inovare din acest domeniu pot permite clusterelor regionale să prospere;

G.

întrucât Uniunea și statele sale membre au o responsabilitate deosebită de a exploata, a promova și a mări valoarea adăugată a inteligenței artificiale și de a se asigura că tehnologiile IA sunt sigure și contribuie la bunăstarea și interesul general al cetățenilor lor, întrucât pot aduce o contribuție imensă la realizarea obiectivului comun de a îmbunătăți viața cetățenilor și de a promova prosperitatea în Uniune, contribuind la dezvoltarea unor strategii și a unei inovări mai bune într-o serie de domenii și sectoare; întrucât, pentru a exploata întregul potențial al inteligenței artificiale și a-i face pe utilizatori conștienți de avantajele și provocările pe care la aduc tehnologiile IA, este necesar să se includă AI sau alfabetizarea digitală în educație și formare, inclusiv în ceea ce privește promovarea incluziunii digitale, și să se desfășoare campanii de informare la nivelul Uniunii care să prezinte în mod fidel toate aspectele dezvoltării IA;

H.

întrucât un cadru comun de reglementare al Uniunii pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe (un „cadru de reglementare pentru IA”) ar trebui să le dea cetățenilor posibilitatea de a împărți beneficiile obținute din potențialul lor, protejându-i totodată de potențialele riscuri ale acestor tehnologii și încurajând fiabilitatea lor în Uniune și în lume; întrucât cadrul respectiv ar trebui să se bazeze pe legile și valorile Uniunii și să se ghideze după principiile transparenței, explicabilității, echității, răspunderii și responsabilității;

I.

întrucât acest cadru de reglementare are o importanță esențială în evitarea fragmentării pieței unice, determinată de legislațiile naționale diferite și va contribui la stimularea unor investiții foarte necesare, la dezvoltarea infrastructurii de date și la sprijinirea cercetării; întrucât aceasta ar trebui să constea în obligații juridice și principii etice comune, astfel cum se prevede în propunerea de regulament solicitată în anexa la prezenta rezoluție; întrucât cadrul ar trebui să fie stabilit în conformitate cu principiul unei mai bune legiferări;

J.

întrucât Uniunea a instituit un cadru juridic strict pentru a asigura, printre altele, protejarea datelor cu caracter personal și a vieții private și nediscriminarea, pentru a promova egalitatea de gen, protecția mediului și drepturile consumatorilor; întrucât un astfel de cadru juridic ce constă într-un corpus atât de extins de legislație orizontală și sectorială, inclusiv normele existente privind siguranța produselor și răspunderea, va continua să se aplice în legătură cu inteligența artificială, robotica și tehnologiile conexe, deși pot fi necesare unele ajustări ale unor instrumente juridice specifice pentru a reflecta transformarea digitală și a aborda noile provocări create de utilizarea inteligenței artificiale;

K.

întrucât există preocupări potrivit cărora cadrul juridic actual al UE, inclusiv legislația privind consumatorii și acquis-ul UE în domeniul social și al ocupării forței de muncă, legislația privind protecția datelor, siguranța produselor și supravegherea pieței, precum și antidiscriminarea, s-ar putea să nu mai fie adecvat scopului de a combate cu eficacitate riscurile create de inteligența artificială, de robotică și de tehnologiile conexe;

L.

întrucât, pe lângă ajustările legislației existente, chestiunile juridice și etice legate de tehnologiile IA ar trebui abordate printr-un cadru de legislație a Uniunii eficace, cuprinzător și adaptat exigențelor viitorului, care să reflecte principiile și valorile Uniunii consacrate în tratate și în Carta drepturilor fundamentale a Uniunii Europene (denumită în continuare „Carta”), care ar trebui să nu suprareglementeze, umplând numai lacunele legislative existente, și să crească securitatea juridică atât pentru agenții economici, cât și pentru cetățeni, mai ales prin prevederea unor măsuri obligatorii de prevenire a practicilor care vor submina fără îndoială drepturile fundamentale;

M.

întrucât orice nou cadru de reglementare trebuie să țină seama de toate interesele implicate; întrucât o examinare atentă a consecințelor oricărui nou cadru de reglementare asupra tuturor actorilor în cadrul unei evaluări a impactului ar trebui să fie o condiție prealabilă obligatorie pentru următoarele etape legislative; întrucât rolul crucial al întreprinderilor mici și mijlocii (IMM-uri) și al întreprinderilor nou-înființate, în special în economia europeană, justifică o abordare strict proporțională, pentru a le permite acestora să se dezvolte și să inoveze;

N.

întrucât inteligența artificială, robotica și tehnologiile conexe pot avea implicații grave pentru integritatea materială și imaterială a persoanelor, grupurilor și societății în ansamblu, iar acest eventual prejudiciu individual și colectiv trebuie să se reflecte în răspunsurile legislative;

O.

întrucât, pentru a respecta cadrul de reglementare al Uniunii în domeniul IA, ar putea fi nevoie să se adopte norme specifice pentru sectorul transporturilor din Uniune;

P.

întrucât tehnologiile IA sunt de importanță strategică pentru sectorul transporturilor, și datorită faptului că măresc siguranța și accesibilitatea tuturor modurilor de transport și creează noi oportunități de angajare și modele de afaceri mai sustenabile; întrucât o de abordare de către Uniune a dezvoltării IA, a roboticii și a tehnologiilor conexe din domeniul transporturilor are potențialul de a crește competitivitatea globală și autonomia strategică a economiei Uniunii;

Q.

întrucât eroarea umană este unul dintre factorii care intervin în aproximativ 95 % din totalul accidentelor rutiere din Uniune; întrucât Uniunea și-a propus să reducă numărul anual de accidente rutiere mortale pe teritoriul său cu 50 % până în 2020 față de 2010, dar, având în vedere rezultatele stagnante, și-a reînnoit eforturile în noul său cadru de politică privind siguranța rutieră 2021-2030 – Etapele următoare către „viziunea zero”; întrucât, în acest sens, IA, automatizarea și alte noi tehnologii au un potențial enorm și o importanță vitală pentru creșterea siguranței rutiere, reducând posibilitatea apariției erorilor umane,

R.

întrucât cadrul de reglementare al Uniunii în domeniul IA ar trebui să reflecte, de asemenea, necesitatea de a asigura respectarea drepturilor lucrătorilor; întrucât ar trebui să se aibă în vedere Acordul-cadru al partenerilor sociali europeni privind digitalizarea din iunie 2020;

S.

întrucât anvergura cadrului de reglementare al Uniunii în domeniul IA ar trebui să fie adecvată, proporțională și evaluată în detaliu; întrucât, deși acesta ar trebui să vizeze o gamă largă de tehnologii și de componente ale acestora, inclusiv algoritmi, programe informatice și date utilizate sau produse de acestea, o abordare specifică bazată pe risc este necesară pentru evitarea piedicilor în calea viitoarelor inovații și a creării unor sarcini inutile, în special pentru IMM-uri; întrucât diversitatea aplicațiilor care au la bază inteligența artificială, robotica și tehnologiile conexe complică găsirea unei soluții unice care să fie adecvate pentru întregul spectru al riscurilor;

T.

întrucât analiza datelor și IA au un impact din ce în ce mai mare asupra informațiilor puse la dispoziția cetățenilor; întrucât aceste tehnologii, dacă sunt utilizate în mod abuziv, pot pune în pericol drepturile fundamentale la libertatea de exprimare și la informare, precum și libertatea și pluralismul mass-mediei;

U.

întrucât domeniul de aplicare geografic al cadrului de reglementare al Uniunii în domeniul IA ar trebui să acopere toate componentele inteligenței artificiale, ale roboticii și ale tehnologiilor conexe dezvoltate, implementate sau utilizate în Uniune, inclusiv în cazurile în care o parte a tehnologiilor s-ar putea afla în afara Uniunii sau nu au un loc anume;

V.

întrucât cadrul de reglementare al Uniunii în domeniul IA ar trebui să cuprindă toate etapele relevante, și anume dezvoltarea, implementarea și utilizarea tehnologiilor relevante și a componentelor lor, care reclamă luarea în considerare în mod cuvenit a obligațiilor juridice și a principiilor etice, și ar trebui să stabilească condițiile necesare care să asigure faptul că dezvoltatorii, operatorii și utilizatorii acestor tehnologii respectă în totalitate aceste obligații și principii;

W.

întrucât o abordare armonizată a principiilor etice referitoare la inteligența artificială, la robotică și la tehnologiile conexe face necesară o înțelegere comună la nivelul Uniunii a acestor concepte și a unor concepte precum algoritmi, programe informatice, date sau recunoașterea biometrică;

X.

întrucât acțiunea la nivelul Uniunii este justificată de nevoia de a evita fragmentarea legislativă sau simpla înșiruire de reglementări naționale fără un numitor comun, precum și de nevoia de a asigura o aplicare uniformă a principiilor etice comune consacrate în lege atunci când se dezvoltă, se implementează și utilizează inteligența artificială, robotica și tehnologiile conexe; întrucât sunt necesare norme clare în cazul în care riscurile sunt semnificative;

Y.

întrucât principiile etice comune sunt eficiente doar dacă sunt consacrate și în lege și dacă sunt identificate persoanele responsabile de asigurarea, evaluarea și monitorizarea conformității;

Z.

întrucât orientările în materie de etică, precum principiile adoptate de Grupul de experți la nivel înalt privind inteligența artificială, oferă un bun punct de plecare, dar pot asigura faptul că dezvoltatorii, operatorii și utilizatorii adoptă o conduită loială și garantează protecția eficace a persoanelor; întrucât aceste orientări sunt cu atât mai relevante în cazul tehnologiilor inteligenței artificiale, roboticii și tehnologiilor conexe cu grad ridicat de risc;

AA.

întrucât fiecare stat membru ar trebui să desemneze o autoritate națională de supraveghere responsabilă de asigurarea, evaluarea și monitorizarea conformității cu cadrul de reglementare al Uniunii în domeniul AI a dezvoltării, implementării și utilizării inteligenței artificiale, a roboticii și a tehnologiilor conexe, precum și de asigurarea cadrului de desfășurare a discuțiilor și a schimburilor de opinii, în strânsă cooperare cu părțile interesate relevantă și cu societatea civilă; întrucât autoritățile naționale de cooperare ar trebui să coopereze între ele;

AB.

întrucât, pentru a asigura o abordare armonizată în întreaga Uniune și funcționarea optimă a pieței unice digitale, ar trebui să se evalueze coordonarea la nivelul Uniunii de către Comisie și/sau instituțiile, organele, oficiile și agențiile relevante ale Uniunii care pot fi desemnate în acest context, în ceea ce privește noile perspective și probleme, în special cele de natură transfrontalieră, care decurg din evoluțiile tehnologice actuale, întrucât, în acest sens, Comisia ar trebui să fie însărcinată cu găsirea unei soluții adecvate pentru a structura această coordonare la nivelul Uniunii,

Inteligența artificială centrată pe factorul uman și creată de om

1.

consideră că, fără a aduce atingere legislației sectoriale, este nevoie de un cadru de reglementare eficace și armonizat, bazat pe dreptul Uniunii, pe Cartă și pe dreptul internațional al drepturilor omului, care să se aplice, în special, tehnologiilor cu risc ridicat, pentru a stabili standarde egale în întreaga Uniune și pentru a proteja cu eficacitate valorile Uniunii;

2.

consideră că orice cadru de reglementare nou în domeniul IA care constă în obligații juridice și principii etice pentru dezvoltarea, implementarea și utilizarea IA, a roboticii și a tehnologiilor conexe ar trebui să respecte pe deplin Carta și, prin urmare, să respecte demnitatea umană, autonomia și autodeterminarea persoanelor, să prevină daunele, să promoveze echitatea, incluziunea și transparența, să elimine părtinirile și discriminarea, inclusiv față de grupurile minoritare, și să respecte principiul de limitare a externalităților negative ale tehnologiei utilizate, principiul asigurării explicabilității tehnologiilor și principiul garantării faptului că tehnologiile există pentru a servi oamenii, și nu pentru a-i înlocui sau a decide în locul lor, scopul final fiind de a crește bunăstarea pentru toți oamenii;

3.

subliniază asimetria dintre cei care utilizează tehnologiile IA și cei care interacționează cu acestea și fac obiectul lor; subliniază, în acest context, că încrederea cetățenilor în IA poate fi obținută doar dacă se asigură un cadru de reglementare „de etică implicită și de la momentul conceperii”, care să garanteze că orice IA dată în folosință respectă pe deplin tratatele, Carta drepturilor fundamentale și dreptul secundar al Uniunii; consideră că o astfel de abordare ar trebui să fie în conformitate cu principiul precauției, care ghidează legislația Uniunii, și ar trebui să se afle în centrul oricărui cadru de reglementare pentru IA; solicită, în acest sens, un model de guvernanță clar și coerent, care să le permită întreprinderilor și inovatorilor să dezvolte în continuare inteligența artificială, robotica și tehnologiile conexe;

4.

consideră că orice acțiune legislativă legată de inteligența artificială, robotică și tehnologiile conexe ar trebui să fie în concordanță cu principiile necesității și proporționalității;

5.

consideră că o astfel de abordare va permite firmelor să introducă produse inovatoare pe piață și să creeze noi oportunități, asigurând totodată protecția valorilor europene prin determinarea dezvoltării unor sisteme de IA care să încorporeze, de la stadiul conceperii, principiile de etică europene; consideră că un astfel de cadru de reglementare întemeiat pe valorile europene ar reprezenta o valoare adăugată, deoarece ar oferi Uniunii un avantaj competitiv unic și ar contribui în mod semnificativ la bunăstarea și prosperitatea cetățenilor Uniunii și a întreprinderilor din Uniune prin faptul că ar impulsiona piața internă; subliniază că un astfel de cadru de reglementare pentru IA reprezintă și o valoare adăugată în ceea ce privește promovarea inovării pe piața internă; consideră că, de exemplu, în sectorul transporturilor, această abordare le oferă întreprinderilor din Uniune posibilitatea de a deveni lideri mondiali în acest domeniu;

6.

observă că cadrul juridic al Uniunii ar trebui să se aplice inteligenței artificiale, roboticii și tehnologiilor conexe, inclusiv programelor informatice, algoritmilor și datelor utilizate sau produse de astfel de tehnologii;

7.

observă că oportunitățile bazate pe IA, robotică și tehnologii conexe se bazează pe volume mari de date, fiind necesară o masă critică de date ce sunt utilizate în scop de antrenament al algoritmilor și pentru a obține rezultate mai exacte; salută, în acest sens, propunerea Comisiei privind crearea unui spațiu comun al datelor în Uniune, pentru a consolida schimburile de date și a sprijini cercetarea, cu respectarea deplină a normelor europene privind protecția datelor;

8.

consideră că actualul cadru juridic al Uniunii, în special cel privind protecția vieții private și a datelor cu caracter personal, va trebui să se aplice pe deplin în domeniul IA, al roboticii și al tehnologiilor conexe și trebuie revizuit și controlat în mod regulat și, atunci când este cazul, actualizat, pentru a combate eficient riscurile create de aceste tehnologii și, în acest sens, consideră că ar fi util ca acest cadru juridic să fie completat cu principii etice orientative solide; subliniază că, în cazurile în care este prematur să se adopte acte juridice, trebuie folosit un cadru juridic neobligatoriu;

9.

se așteaptă ca, ca urmare a Cărții albe privind inteligența artificială, Comisia să integreze un cadru etic solid în propunerea legislativă cerută în anexa la prezenta rezoluție, inclusiv în ceea ce privește siguranța, răspunderea și drepturile fundamentale, care să maximizeze oportunitățile și să minimizeze riscurile tehnologiilor IA; se așteaptă ca propunere legislativă solicitată să includă soluții de politică la riscurile majore recunoscute ale inteligenței artificiale, inclusiv, printre altele, în ceea ce privește colectarea și utilizarea etică a volumelor mari de date, transparența algoritmică și părtinirea algoritmică; invită Comisia să elaboreze criterii și indicatori de etichetare a tehnologiei IA pentru a promova transparența, explicabilitatea și responsabilitatea și pentru a stimula adoptarea unor măsuri de precauție suplimentare din partea dezvoltatorilor; subliniază necesitatea de a investi în integrarea unor discipline netehnice în studiile și cercetările privind IA care să ia în considerare contextul social;

10.

consideră că inteligența artificială, robotica și tehnologiile conexe trebuie adaptate la nevoile umane, în conformitate cu principiul conform căruia dezvoltarea, implementarea și utilizarea lor ar trebui să fie întotdeauna în serviciul ființelor umane, și nu invers, și ar trebui să urmărească creșterea bunăstării și a libertății individuale, precum și menținerea păcii, prevenirea conflictelor și consolidarea securității internaționale, maximizând totodată beneficiile oferite și prevenind și reducând riscurile;

11.

declară că dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe cu grad ridicat de risc, inclusiv, dar nu exclusiv de către ființe umane, ar trebui mereu să aibă la bază principii etice și să fie concepute astfel încât să permită intervenția umană și supravegherea democratică, precum și exercitarea controlului uman atunci când este necesar prin aplicarea unor măsuri de control adecvate;

Evaluarea riscurilor

12.

subliniază că toate viitoarele regulamente trebuie să urmeze o abordare diferențiată, bazată pe riscuri și orientată spre viitor pentru reglementarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, care să conțină standarde neutre din punct de vedere tehnologic în toate sectoarele și, atunci când este cazul, standarde specifice fiecărui sector; constată că, pentru a asigura aplicarea uniformă a sistemului de evaluare a riscurilor și respectarea obligațiilor juridice conexe de a asigura condiții de concurență echitabile între statele membre și de a preveni fragmentarea pieței interne, este necesară o listă exhaustivă și cumulativă a sectoarelor cu risc ridicat și a utilizărilor sau scopurilor cu risc ridicat; subliniază că o astfel de listă trebuie să fie periodic reevaluată și observă că, având în vedere caracterul evolutiv al acestor tehnologii, ar putea fi necesară reevaluarea în viitor a modului în care se realizează analiza riscurilor;

13.

consideră că faptul că inteligența artificială, robotica și tehnologiile conexe ar trebui sau nu ar trebui considerate ca prezentând un grad ridicat de risc și, prin urmare, ar trebui sau nu supuse obligației de respectare a obligațiilor juridice și a principiilor etice stabilite în cadrul de reglementare pentru IA ar trebui să rezulte întotdeauna din o evaluare ex ante imparțială, reglementată și externă, bazată pe criterii concrete și definite;

14.

consideră că, în acest sens, ar trebui să fie considerate tehnologii cu grad ridicat de risc inteligența artificială, robotica și tehnologiile aferente atunci când dezvoltarea, implementarea și utilizarea lor atrage un risc semnificativ de a provoca daune sau prejudicii persoanelor sau societății prin încălcarea drepturilor fundamentale și a normelor de siguranță, astfel cum sunt prevăzute de dreptul Uniunii; consideră că, pentru a aprecia dacă tehnologiile IA prezintă un astfel de risc sau nu, ar trebui luate în considerare sectorul în care acestea sunt dezvoltate, implementate sau utilizate, utilizarea lor specifică sau scopul lor și gravitatea daunei sau a prejudiciului care ar putea să se producă; primul și al doilea criteriu, și anume sectorul și utilizarea sau scopul specific, ar trebui să fie considerate cumulativ;

15.

evidențiază că evaluarea riscurilor acestor tehnologii ar trebui să se facă pe baza unei liste exhaustive și cumulative a sectoarelor cu risc ridicat și a utilizărilor și scopurilor care prezintă un risc ridicat; ar trebui să existe o coerență în cadrul Uniunii în ceea ce privește evaluarea riscurilor acestor tehnologii, în special în cazul în care acestea sunt evaluate atât din perspectiva conformității lor cu cadrul de reglementare pentru IA și prezentului regulament, cât și în conformitate cu orice alt act legislativ sectorial aplicabilă;

16.

consideră că această abordare bazată pe risc ar trebui să fie elaborată într-un mod care să limiteze sarcina administrativă pentru firme și, în special, pentru IMM-uri, în măsura posibilului, prin utilizarea instrumentelor existente; aceste instrumente includ, dar nu se limitează la lista aferentă evaluării impactului asupra protecției datelor prevăzută în Regulamentul (UE) 2016/679;

Aspectele legate de siguranță, transparență și responsabilitate

17.

reamintește că dreptul la informare al consumatorilor este consacrat ca principiu esențial în legislația Uniunii și subliniază că acesta ar trebui, prin urmare, să fie pe deplin implementat în legătură cu inteligența artificială, robotica și tehnologiile conexe; este de părere că acesta ar trebui să prevadă în special transparența interacțiunii cu sistemele de inteligență artificială, inclusiv prelucrarea automată a datelor, și transparența modului lor de funcționare, capacitățile, de exemplu, modul în care informațiile sunt filtrate și prezentate, precizia și limitările; consideră că aceste informații ar trebui transmise autorităților naționale de supraveghere și autorităților naționale de protecție a consumatorilor;

18.

subliniază că încrederea consumatorilor este esențială pentru dezvoltarea și introducerea acestor tehnologii, care pot implica riscuri inerente atunci când se bazează pe algoritmi opaci și seturi de date părtinitoare; consideră că consumatorii ar trebui să aibă dreptul de a fi informați corespunzător, în timp util și într-un mod ușor de înțeles, standardizat, corect și accesibil cu privire la existența, raționamentul și posibilele rezultate și efecte pentru consumatori ale sistemelor algoritmice, cu privire la modalitățile de a contacta un om cu putere de decizie și cu privire la modalitățile de a verifica, contesta în mod eficace și corecta deciziile sistemelor; subliniază, în acest sens, necesitatea de a lua în considerare și de a respecta principiile informării și divulgării informațiilor, pe baza cărora s-a construit acquis-ul în domeniul protecției consumatorilor; consideră necesară o informare în detaliu a utilizatorilor finali legată de funcționarea sistemelor de transport și a vehiculelor asistate de IA;

19.

constată că este esențial ca algoritmii și seturile de date utilizate sau produse de inteligența artificială, de robotică și de tehnologiile conexe să fie explicabile și, atunci când este strict necesar și cu respectarea deplină a legislației Uniunii privind protecția datelor, viața privată, drepturile de proprietate intelectuală și secretele comerciale, să fie accesibile autorităților publice, cum ar fi autoritățile naționale de supraveghere și autoritățile de supraveghere a pieței; mai remarcă, totodată, că, în conformitate cu cele mai înalte standarde industriale, aceste documente ar trebui să fie stocate de cei care sunt implicați în diferitele stadii de dezvoltare a tehnologiilor cu risc ridicat; remarcă posibilitatea ca autoritățile de supraveghere a pieței să dispună de prerogative suplimentare în acest sens; subliniază, în această privință, rolul ingineriei inverse legale; consideră că ar putea fi necesară o examinare a legislației actuale privind supravegherea pieței pentru a se asigura că aceasta răspunde din punct de vedere etic la emergența inteligenței artificiale, a roboticii și a tehnologiilor conexe;

20.

solicită să se introducă o cerință ca dezvoltatorii și operatorii tehnologiilor cu grad ridicat de risc, dacă se estimează că există acest risc, să pună la dispoziția autorităților publice documentația relevantă privind utilizarea și instrucțiunile de proiectare și siguranță, inclusiv, atunci când este strict necesar și cu respectarea deplină a legislației Uniunii privind protecția datelor, viața privată, drepturile de proprietate intelectuală și secretele comerciale, codul sursă, instrumentele de dezvoltare și datele utilizate de sistem; notează faptul că o astfel de obligație ar permite evaluarea conformității lor cu legislația Uniunii și cu principiile etice și remarcă, în acest sens, exemplul oferit de depozitul legal de publicații al unei biblioteci naționale; constată că este important să se facă distincția între transparența algoritmilor și transparența utilizării algoritmilor;

21.

remarcă, totodată, că, pentru a respecta demnitatea umană, autonomia și siguranța, ar trebui să se acorde atenția cuvenită dispozitivelor medicale vitale și avansate și că este necesar ca autorități independente de încredere să păstreze mijloacele necesare pentru a furniza servicii persoanelor care transportă aceste aparate, dacă dezvoltatorul inițial sau operatorul inițial nu mai le oferă; de exemplu, astfel de servicii ar include întreținerea, reparațiile și îmbunătățirile, inclusiv actualizări de software care remediază disfuncțiile și vulnerabilitățile;

22.

consideră că inteligența artificială, robotica și tehnologiile conexe cu riscuri ridicate, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, indiferent de domeniul în care sunt dezvoltate, implementate sau folosite, ar trebui dezvoltate prin proiectare într-un mod sigur, trasabil, robust din punct de vedere tehnic, fiabil, etic și obligatoriu din punct de vedere juridic și să fie supuse controlului și supravegherii independente; consideră, în special, că toți actorii din lanțurile de dezvoltare și aprovizionare aferente produselor și serviciilor bazate pe inteligența artificială ar trebui să fie responsabili din punct de vedere juridic și subliniază necesitatea unor mecanisme care să asigure răspunderea și responsabilitatea;

23.

subliniază faptul că reglementarea și orientările privind explicabilitatea, posibilitatea auditării, trasabilitatea și transparența, precum și atunci când acest lucru este cerut în urma unei evaluări a riscurilor și strict necesar, respectând pe deplin legislația Uniunii, cum ar fi cea referitoare la protecția datelor, viața privată, drepturile de proprietate intelectuală și secretele comerciale, accesul autorităților publice la tehnologia, datele și sistemele informatice care stau la baza acestor tehnologii este esențial pentru a asigura încrederea cetățenilor în aceste tehnologii, chiar dacă gradul de explicabilitate depinde de complexitatea tehnologiilor; atrage atenția asupra faptului că nu întotdeauna poate fi explicat de ce un model a generat un anumit rezultat sau o anumită decizie, de exemplu, în cazul algoritmilor de tip „blackbox”; consideră, deci, că respectarea acestor principii este o condiție prealabilă obligatorie pentru garantarea răspunderii;

24.

consideră că cetățenii, inclusiv consumatorii, ar trebui să fie informați, atunci când interacționează cu un sistem care folosește inteligență artificială în special pentru a personaliza un produs sau serviciu pentru utilizatorii săi, dacă pot elimina sau restrânge personalizarea;

25.

precizează, în acest sens, că, pentru a fi de încredere, inteligența artificială, robotica și tehnologiile conexe trebuie să fie solide și precise din punct de vedere tehnic;

26.

subliniază că protecția rețelelor de IA și robotică interconectate este importantă și că trebuie luate măsuri ferme pentru a preveni încălcări ale securității, scurgeri de date, otrăviri ale datelor („data poisoning”), atacuri cibernetice și folosirea în mod abuziv a datelor cu caracter personal și că acest lucru va necesita ca agențiile, organele și instituțiile competente, atât de la nivelul Uniunii, cât și de la nivel național, să lucreze împreună și în cooperare cu utilizatorii finali ai acestor tehnologii; invită Comisia și statele membre să se asigure că valorile Uniunii și drepturile fundamentale sunt respectate în permanență atunci când se dezvoltă și se implementează tehnologiile IA, pentru a asigura securitatea și reziliența infrastructurii digitale a Uniunii;

Imparțialitatea și nediscriminarea

27.

reamintește că inteligența artificială, în funcție de modul în care este dezvoltată și folosită, are potențialul de a crea și consolida părtiniri, inclusiv prin părtiniri inerente în seturile de date subiacente și, prin urmare, de a crea diferite forme de discriminare automatizată, inclusiv discriminarea indirectă, în ceea ce privește, în special, grupurile de persoane cu caracteristici similare; invită Comisia și statele membre să ia toate măsurile posibile pentru a evita astfel de părtiniri și pentru a asigura protecția deplină a drepturilor fundamentale;

28.

este preocupat de riscurile de părtinire și de discriminare în dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe cu grad ridicat de risc, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii; reamintește că în toate situațiile ar trebui să respecte legislația Uniunii, precum și drepturile omului și demnitatea umană, autonomia și autodeterminarea persoanelor și să asigure un tratament egal și nediscriminarea pentru toți;

29.

afirmă că tehnologiile IA ar trebui dezvoltate într-o manieră care să respecte, să deservească și să protejeze valorile Uniunii, integritatea fizică și psihică a oamenilor, să promoveze diversitatea culturală și lingvistică a Uniunii și să ajute la satisfacerea nevoilor esențiale; este de părere că trebuie evitat orice act care poate conduce la constrângerea nelegitimă în mod direct sau indirect, la amenințări la adresa autonomiei psihice și a sănătății mintale sau la supravegheri nejustificate, inducere în eroare sau manipulare inacceptabilă;

30.

este ferm convins că drepturile fundamentale ale omului consacrate în Cartă ar trebui respectate cu strictețe pentru a se asigura că aceste tehnologii emergente nu creează diferențe în ceea ce privește protecția;

31.

afirmă că posibilele părtiniri ale programelor informatice, ale algoritmilor și datelor și posibila funcționare discriminatorie a acestora pot aduce prejudicii manifeste persoanelor și societății, prin urmare, acestea ar trebui soluționate prin încurajarea elaborării și partajării de strategii de combatere a acestora, de exemplu, prin eliminarea părtinirilor din seturile de date la nivelul cercetării și dezvoltării și prin elaborarea de reguli de prelucrare a datelor; consideră că această abordare are potențialul de a transforma programele informatice, algoritmii și datele într-un avantaj în combaterea prejudecăților și a discriminării în anumite situații și într-o forță pentru obținerea egalității de drepturi și a unei schimbări sociale pozitive;

32.

afirmă că valorile etice ale echității, corectitudinii, confidențialității și transparenței ar trebui să stea la baza acestor tehnologii, ceea ce presupune, în acest context, că operațiunile lor ar trebui să fie de așa natură încât să nu genereze rezultate părtinitoare;

33.

subliniază importanța calității seturilor de date folosite pentru inteligența artificială, robotică și tehnologiile conexe în funcție de contextul lor, îndeosebi în ceea ce privește reprezentativitatea datelor de antrenament, de eliminarea părtinirilor din seturile de date, de algoritmii utilizați și de standardele privind datele și agregarea; subliniază că respectivele seturi de date ar trebui să poată fi auditate de autoritățile de supraveghere naționale ori de câte ori li se solicită acestora din urmă să asigure conformitatea lor cu principiile menționate anterior;

34.

subliniază că, în contextul amplului război de dezinformare, dus în special de actori din afara Europei, tehnologiile IA ar putea avea efecte negative din punct de vedere etic, exploatând părtinirea datelor și algoritmilor sau prin modificarea datelor de antrenament de către o țară terță, și ar putea fi, de asemenea, expuse altor forme de manipulare periculoasă și rău-intenționată, în moduri imprevizibile și cu consecințe incalculabile; prin urmare, este din ce în ce mai necesar ca Uniunea să continue să investească în cercetare, analiză, inovare și transferuri de cunoștințe transfrontaliere și transsectoriale, pentru a dezvolta tehnologii de IA în care în mod clar nu ar exista nicio creare de profiluri, părtinire și discriminare și care ar putea contribui în mod eficient la combaterea știrilor false și a dezinformării, respectând, în același timp, confidențialitatea datelor și cadrul juridic al Uniunii;

35.

reamintește că este important să se asigure căi de atac efective pentru cetățeni și invită statele membre să stabilească proceduri și mecanisme de revizuire accesibile, la un preț rezonabil, independente și eficiente, pentru a garanta examinarea imparțială de către o ființă umană a tuturor reclamațiilor de încălcare a drepturilor cetățenilor, cum, ar fi drepturile consumatorilor sau drepturile civile, prin folosirea sistemelor algoritmice de către actori din sectorul public sau din cel privat; subliniază importanța proiectului de directivă a Parlamentului European și a Consiliului privind acțiunile de reprezentare pentru protecția intereselor colective ale consumatorilor și de abrogare a Directivei 2009/22/CE, pentru care s-a ajuns la un acord politic la 22 iunie 2020, în ceea ce privește viitoarele cazuri care pun în discuție introducerea sau continuarea folosirii unui sistem de IA care implică un risc de încălcare a drepturilor consumatorilor sau care caută remedii la o încălcare a drepturilor; cere Comisiei și statelor membre să se asigure că organizațiile naționale și europene ale consumatorilor dispun de fonduri suficiente pentru a ajuta consumatorii să își exercite dreptul la o cale de atac în cazurile în care le-au fost încălcate drepturile;

36.

consideră, deci, că orice persoană fizică sau juridică ar trebui să poată avea acces la o cale de atac ca urmare a unei decizii luate în detrimentul său de o tehnologie bazată pe inteligența artificială, robotică sau o tehnologie conexă, cu încălcarea legislației Uniunii sau a celei naționale;

37.

consideră că, în calitate de prim punct de contact în cazurile în care există suspiciuni de încălcare a cadrului de reglementare al Uniunii în acest context, autoritățile naționale de supraveghere ar putea fi, de asemenea, abordate de către consumatori cu cereri de despăgubire pentru a asigura respectarea efectivă a cadrului menționat anterior;

Responsabilitatea socială și echilibrul de gen

38.

subliniază că inteligența artificială, robotica și tehnologiile conexe responsabile din punct de vedere social au un rol de jucat în găsirea unor soluții care să protejeze și să promoveze drepturile și valorile fundamentale ale societății noastre, precum democrația, statul de drept, diversitatea și independența mass-mediei și obiectivitatea și gratuitatea informațiilor, sănătatea și prosperitatea economică, egalitatea de șanse, drepturile lucrătorilor și drepturile sociale, educația de calitate, protecția copiilor, diversitatea culturală și lingvistică, egalitatea de gen, alfabetizarea digitală, inovarea și creativitatea; reamintește că este nevoie ca interesele tuturor cetățenilor, inclusiv ale celor marginalizați sau în situații vulnerabile, cum ar fi persoanele cu dizabilități, să fie luate în considerare în mod corespunzător și reprezentate;

39.

subliniază importanța unui nivel ridicat și general de competențe digitale, precum și a formării unor profesioniști cu înalte calificări în acest domeniu și a recunoașterii reciproce a calificărilor respective în întreaga Uniune; subliniază că sunt necesare echipe variate de dezvoltatori și ingineri care să lucreze alături de principalii actori societali pentru a împiedica includerea accidentală a unor părtiniri culturale și de gen în algoritmii, sistemele și aplicațiile IA; sprijină crearea unor programe de învățământ și a unor activități de conștientizare a publicului cu privire la impactul societal, juridic și etic al inteligenței artificiale;

40.

subliniază că este extrem de important să se garanteze libertatea de gândire și de exprimare, asigurându-se astfel că aceste tehnologii nu promovează discursuri de incitare la ură sau violența; prin urmare, consideră că împiedicarea sau restricționarea libertății de exprimare, exercitată în plan digital este ilegală în conformitate cu principiile fundamentale ale Uniunii, cu excepția cazului în care exercitarea acestui drept fundamental dă naștere la acte ilegale;

41.

subliniază că inteligența artificială, robotica și tehnologiile conexe pot contribui la reducerea inegalităților sociale și afirmă că modelul european de dezvoltare a acestora trebuie să se bazeze pe încrederea cetățenilor și o mai mare coeziune socială;

42.

subliniază că implementarea oricărui sistem de inteligență artificială nu ar trebui să restricționeze în mod nejustificat accesul utilizatorilor la serviciile publice, cum ar fi securitatea socială; invită, prin urmare, Comisia să evalueze modul în care acest obiectiv poate fi realizat;

43.

subliniază importanța unei cercetări și dezvoltări responsabile, destinate maximizării întregului potențial pe care îl au inteligența artificială, robotica și tehnologiile conexe, pentru cetățeni și binele public; solicită mobilizarea de resurse de către Uniune și statele sale membre pentru a dezvolta și a sprijini inovarea responsabilă;

44.

subliniază că expertiza tehnologică va fi din ce în ce mai importantă și, prin urmare, va fi necesară actualizarea continuă a cursurilor de formare, în special pentru noile generații, precum și încurajarea recalificării profesionale a persoanelor care sunt deja pe piața forței în muncă; susține, în acest sens, că trebuie promovate inovarea și formarea nu numai în sectorul privat, ci și în sectorul public;

45.

insistă că dezvoltarea, implementarea și utilizarea acestor tehnologii nu ar trebui să cauzeze niciun fel de prejudicii persoanelor, societății sau mediului și că, în consecință, dezvoltatorii, operatorii și utilizatorii acestor tehnologii ar trebui să fie trași la răspundere pentru astfel de prejudicii sau daune, în conformitate cu normele Uniunii și cu normele naționale aplicabile în materie de răspundere;

46.

invită statele membre să analizeze dacă pierderile de locuri de muncă rezultate din utilizarea acestor tehnologii ar trebui să conducă la politici publice adecvate, cum ar fi reducerea programului de lucru;

47.

susține că este foarte necesară o abordare în materie de proiectare bazată pe valorile și principiile etice ale Uniunii, pentru a crea condițiile pentru o acceptare socială generalizată a inteligenței artificiale, a roboticii și a tehnologiilor conexe; consideră că această abordare, menită să dezvolte o inteligență artificială fiabilă, responsabilă din punct de vedere etic și solidă din punct de vedere tehnic reprezintă un factor important pentru o mobilitate sustenabilă și inteligentă, sigură și accesibilă;

48.

atrage atenția asupra valorii adăugate ridicate a vehiculelor autonome pentru persoanele cu mobilitate redusă, având în vedere că ele permit acestor persoane o participare mai activă la transportul rutier individual, facilitându-le astfel viața de zi cu zi; subliniază importanța accesibilității, mai ales la proiectarea sistemelor MaaS (mobilitatea ca serviciu);

49.

invită Comisia să sprijine mai mult dezvoltarea unor sisteme de IA fiabile, pentru ca transportul să devină mai sigur, mai eficient, mai accesibil, mai ieftin și mai incluziv, inclusiv pentru persoanele cu mobilitate redusă, în special persoanele cu dizabilități, ținând seama de Directiva (UE) 2019/882 a Parlamentului European și a Consiliului (13) și de dreptul Uniunii privind drepturile călătorilor;

50.

consideră că IA poate contribui la o mai bună utilizare a competențelor persoanelor cu dizabilități și că utilizarea IA la locul de muncă poate contribui la caracterul incluziv al piețelor forței de muncă și la creșterea ocupării forței de muncă în rândul persoanelor cu dizabilități;

Mediu și sustenabilitate

51.

susține că guvernele și întreprinderile ar trebui să utilizeze inteligența artificială, robotica și tehnologiile conexe pentru a aduce beneficii cetățenilor și planetei, pentru a contribui la realizarea dezvoltării durabile, la conservarea mediului, la neutralitatea climatică și la economia circulară; dezvoltarea, implementarea și utilizarea acestor tehnologii ar trebui să contribuie la tranziția verde, să conserve mediul și să reducă la minimum orice daune cauzate mediului pe durata ciclului lor de viață și de-a lungul întregului lor lanț de aprovizionare, conform dreptului Uniunii;

52.

ținând cont de impactul lor semnificativ asupra mediului, în sensul alineatului anterior, impactul asupra mediului al dezvoltării, implementării și utilizării inteligenței artificiale, a roboticii și a tehnologiilor conexe ar putea, acolo unde este cazul, să fie evaluat pe toată durata lor de către autoritățile sectoriale specifice; o astfel de evaluare ar putea include o estimare a impactului extracției materialelor necesare, a consumului de energie și a emisiilor de gaze cu efect de seră cauzate, prin dezvoltarea, aplicarea și utilizarea lor;

53.

propune ca, în scopul elaborării de soluții responsabile de inteligență artificială de ultimă generație, potențialul pe care îl au inteligența artificială, robotica și tehnologiile conexe ar trebui analizat, stimulat și extins la maximum prin cercetare și dezvoltare responsabilă, care necesită mobilizarea de resurse de către Uniune și statele sale membre;

54.

subliniază că dezvoltarea, implementarea și utilizarea acestor tehnologii oferă șanse de promovare a obiectivelor de dezvoltare durabilă stabilite de Organizația Națiunilor Unite, a tranziției energetice și decarbonizării globale;

55.

consideră că obiectivele responsabilității sociale, egalității de gen, protecției mediului și sustenabilității ar trebui să nu aducă atingere obligațiilor generale și sectoriale existente în aceste domenii; consideră că ar trebui stabilite orientări fără caracter obligatoriu de implementare pentru dezvoltatori, operatori și utilizatori, mai ales pentru cei ai tehnologiilor cu risc ridicat, în ceea ce privește metodologia de evaluare a conformității acestora cu prezentul regulament și îndeplinirea obiectivelor respective;

56.

invită Uniunea să promoveze și să finanțeze dezvoltarea inteligenței artificiale, a roboticii și a tehnologiilor conexe centrate pe factorul uman care abordează provocările la adresa mediului și a climei și care asigură respectul drepturilor fundamentale prin folosirea impozitării, a achizițiilor publice sau a altor stimulente;

57.

subliniază că, în pofida actualului nivel ridicat al emisiilor de carbon generat de dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a deciziilor automatizate și a învățării automate, aceste tehnologii pot contribui la reducerea amprentei de mediu actuale a sectorului TIC; subliniază că aceste tehnologii și alte tehnologii conexe reglementate corespunzător ar trebui să contribuie în mod considerabil la realizarea obiectivelor prevăzute în Pactul verde, a obiectivelor de dezvoltare durabilă ale ONU și a obiectivelor Acordului de la Paris în multe sectoare diferite și ar trebui să potențeze impactul politicilor de protecție a mediului, de exemplu, prin politicile de reducere a deșeurilor și a degradării mediului;

58.

invită Comisia să realizeze un studiu privind impactul amprentei de carbon a tehnologiei bazate pe IA și privind impactul pozitiv și cel negativ al tranziției către utilizarea de către consumatori a tehnologiei bazate pe IA;

59.

remarcă faptul că, deoarece aplicațiile de IA se dezvoltă din ce în ce mai mult, necesitând resurse de calcul, de stocare și de energie, impactul sistemelor de IA asupra mediului ar trebui evaluat de-a lungul ciclului lor de viață;

60.

consideră că, în domenii precum sănătatea, răspunderea trebuie să aparțină, în ultimă instanță, unei persoane fizice sau juridice; subliniază că este necesar să existe date trasabile și disponibile public pentru antrenarea algoritmilor;

61.

sprijină ferm propunerea Comisiei de a crea un spațiu european al datelor medicale, exprimată în comunicarea sa privind o strategie europeană privind datele, care vizează promovarea schimbului de date medicale și sprijinirea cercetării, cu respectarea deplină a protecției datelor, inclusiv atunci când datele sunt prelucrate utilizând tehnologie IA, și care consolidează și extinde utilizarea și reutilizarea datelor medicale; încurajează intensificarea schimbului transfrontalier de date medicale, conectarea și utilizarea acestor date prin intermediul unor registre interconectate securizate, a unor informații specifice privind sănătatea, cum ar fi dosarele medicale europene, a informațiilor genomice și a unor imagini medicale digitale, pentru a facilita crearea de registre și baze de date interoperabile la nivelul Uniunii în domenii precum cercetarea, știința și sănătatea;

62.

subliniază beneficiile IA pentru prevenirea, tratarea și controlul bolilor, exemplificate de faptul că IA a prezis epidemia de COVID-19 înaintea OMS; îndeamnă Comisia să doteze corespunzător ECDC în mod cu un cadru juridic de reglementare și cu resurse pentru colectarea în timp real a datelor globale anonimizate necesare privind sănătatea, în mod independent, în colaborare cu statele membre, astfel încât, printre alte scopuri, să poată soluționa problemele evidențiate de criza provocată de pandemia COVID-19;

Protecția vieții private și recunoașterea biometrică

63.

observă că producerea și utilizarea datelor, inclusiv a datelor cu caracter personal, cum ar fi datele biometrice, care rezultă din dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe sunt în creștere rapidă, ceea ce evidențiază necesitatea de a respecta drepturile cetățenilor la viață privată și la protecția datelor cu caracter personal, în conformitate cu dreptul Uniunii, și de a asigura aplicarea acestor drepturi;

64.

subliniază că posibilitatea oferită de aceste tehnologii de a utiliza datele cu și fără caracter personal pentru a împărți indivizii pe categorii și a le adresa conținut individualizat, de a identifica vulnerabilitățile indivizilor sau de a exploata cunoștințe predictive precise trebuie să fie contrabalansată de principiile privind protecția datelor și a vieții private puse efectiv în aplicare, precum reducerea la minimum a datelor, dreptul de a obiecta la crearea de profiluri și de a controla datele proprii, dreptul de a obține o explicație cu privire la o decizie bazată pe prelucrarea automată și dreptul la protejarea vieții private din faza de proiectare, precum și de principiile proporționalității, necesității și limitării pe baza scopurilor strict definite, în conformitate cu RGPD;

65.

subliniază că, atunci când autoritățile publice folosesc tehnologiile de recunoaștere la distanță, precum recunoașterea caracteristicilor biometrice, îndeosebi recunoașterea facială, în scopuri de interes public major, utilizarea lor ar trebui să fie întotdeauna divulgată, proporțională, specifică și limitată la obiective specifice și limitată în timp în conformitate cu legislația Uniunii și ar trebui să acorde atenția cuvenită demnității umane și autonomiei, precum și drepturilor fundamentale stabilite în Cartă; criteriile și limitele pentru această utilizare ar trebui să facă obiectul controlului jurisdicțional și al controlului democratic și să țină seama de impactul său psihologic și sociocultural asupra societății civile;

66.

subliniază că, deși utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în cadrul deciziilor autorităților publice aduce beneficii, poate duce la utilizări abuzive grave, precum supravegherea în masă, activități polițienești predictive și încălcări ale garanțiilor procedurale;

67.

consideră că tehnologiile care pot genera decizii automatizate, înlocuind astfel deciziile luate de autoritățile publice, ar trebui tratate cu cea mai mare precauție, în special în domeniul justiției și asigurării respectării legii;

68.

consideră că statele membre ar trebui să recurgă la aceste tehnologii numai dacă există dovezi temeinice ale fiabilității lor și dacă sunt posibile sau au loc sistematic intervenții și revizuiri de substanță de către om în cazurile în care sunt în joc libertățile fundamentale; subliniază importanța efectuării, de către autoritățile naționale, a unor evaluări stricte ale impactului asupra drepturilor fundamentale pentru sistemele de inteligență artificială folosite în aceste cazuri, mai ales în urma evaluării acestor tehnologii ca având un risc ridicat;

69.

este de părere că orice decizie luată de inteligența artificială, robotică sau tehnologiile conexe în cadrul prerogativelor autorităților publice ar trebui să facă obiectul unei intervenții umane de substanță și al garanțiilor procedurale, mai ales în urma evaluării acestor tehnologii ca având un risc ridicat;

70.

consideră că progresele tehnologice nu ar trebui să ducă la utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe pentru luarea, în sectorul public, a unor decizii automatizate care au impact direct și semnificativ asupra drepturilor și obligațiilor cetățenilor;

71.

observă că IA, robotica și tehnologiile conexe din domeniul asigurării respectării legii și al controlului la frontiere ar putea consolida siguranța și securitatea publică, dar necesită și un control public amplu și riguros și cel mai înalt nivel posibil de transparență, în ceea ce privește atât evaluarea riscurilor aplicațiilor individuale, cât și modul general de utilizare a IA, a roboticii și a tehnologiilor conexe în domeniul asigurării respectării legii și al controlului la frontiere; consideră că aceste tehnologii prezintă riscuri etice semnificative de care trebuie să se țină seama în mod corespunzător, având în vedere posibilele efecte negative asupra persoanelor, în special în ceea ce privește drepturile lor la viață privată, la protecția datelor și la nediscriminare; subliniază că utilizarea lor abuzivă poate deveni o amenințare directă la adresa democrației și că implementarea și folosirea lor trebuie să respecte principiile proporționalității și necesității, Carta drepturilor fundamentale și legislația secundară relevantă a Uniunii, cum ar fi normele privind protecția datelor; subliniază că IA nu ar trebui să înlocuiască niciodată oamenii în pronunțarea hotărârilor judecătorești; consideră că deciziile pronunțate în instanță, cum ar fi acordarea unei cauțiuni sau a unei perioade de probă, sau deciziile bazate exclusiv pe prelucrarea automată care produc efecte juridice asupra persoanelor sau care le afectează semnificativ trebuie să implice întotdeauna o evaluare și o apreciere umană de substanță;

Buna guvernanță

72.

subliniază că guvernanța adecvată a dezvoltării, implementării și utilizării inteligenței artificiale, a roboticii și a tehnologiilor conexe, în special a tehnologiilor cu risc ridicat, prin instituirea de măsuri ce urmăresc asumarea răspunderii și eliminarea riscului potențial de părtinire și discriminare, poate spori siguranța cetățenilor și încrederea în aceste tehnologii;

73.

consideră că un cadru comun pentru guvernanța acestor tehnologii, coordonat de Comisia Europeană și/sau de orice altă instituție, organ, oficiu sau agenție relevantă a Uniunii ce ar putea fi desemnată pentru această sarcină în acest context, care să fie pus în aplicare de autoritățile naționale de supraveghere din fiecare stat membru, ar asigura o abordare a Uniunii coerentă și ar preveni fragmentarea pieței unice;

74.

observă că în dezvoltarea inteligenței artificiale, a roboticii și a tehnologiilor conexe sunt utilizate volume mari de date și că prelucrarea acestor date, schimbul lor, accesul la ele și utilizarea lor trebuie să fie reglementate în conformitate cu legislația și cu cerințele de calitate, integritate, interoperabilitate, transparență, securitate, confidențialitate și control stabilite de aceasta;

75.

reamintește că accesul la date este o componentă esențială a creșterii economiei digitale; indică, în această privință, că interoperabilitatea datelor, prin limitarea efectelor de blocare, joacă un rol esențial în asigurarea unor condiții echitabile pe piață și în promovarea unor condiții de concurență echitabile pe piața unică digitală;

76.

subliniază că este nevoie să se asigure protecția adecvată a datelor cu caracter personal, în special a datelor privind grupurile vulnerabile, cum ar fi persoanele cu dizabilități, pacienții, copiii, persoanele în vârstă, minoritățile, migranții și alte grupuri care se confruntă cu riscul de excluziune sau a datelor care provin de la aceste grupuri;

77.

constată că dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe de către autoritățile publice sunt adesea externalizate către entități private; consideră că acest lucru nu ar trebui să compromită protecția valorilor publice și a drepturilor fundamentale în niciun fel; consideră că termenii și condițiile achizițiilor publice ar trebui să reflecte standardele etice impuse autorităților publice, după caz;

Consumatorii și piața internă

78.

subliniază că este important să existe un cadru de reglementare pentru AI, care să se aplice atunci când consumatorii din Uniune sunt utilizatori ai unui sistem algoritmic, subiecți sau ținte ale acestuia sau sunt direcționați către el, indiferent de sediul entităților care dezvoltă, vând sau utilizează sistemul; în plus, consideră că, în interesul securității juridice, normele stabilite de un astfel de cadru ar trebui să se aplice tuturor dezvoltatorilor și întregului lanț valoric, și anume dezvoltării, implementării și utilizării tehnologiilor relevante și a componentelor acestora, și ar trebui să garanteze un nivel ridicat de protecție a consumatorilor;

79.

observă legătura intrinsecă dintre inteligența artificială, robotică și tehnologiile conexe, inclusiv software, algoritmi și datele utilizate sau produse de aceste tehnologii, și domenii precum internetul obiectelor, învățarea automată, sistemele bazate pe reguli sau procesele decizionale automatizate și asistate; observă, de asemenea, că ar putea fi create pictograme standardizate pentru a contribui la explicarea acestor sisteme pentru consumatori ori de câte ori ele au un caracter complex sau pot lua decizii care au un impact semnificativ asupra vieților consumatorilor;

80.

reamintește că Comisia ar trebui să examineze cadrul juridic existent și aplicarea sa, inclusiv acquis-ul în domeniul dreptului consumatorilor, legislația privind răspunderea pentru produse, legislația privind siguranța produselor și legislația privind supravegherea pieței, pentru a identifica lacunele juridice, precum și obligațiile de reglementare existente; consideră că acest lucru este necesar pentru a se stabili dacă acest cadru poate răspunde noilor provocări pe care le implică apariția IA, a roboticii și a tehnologiilor conexe și poate asigura un nivel ridicat de protecție a consumatorilor;

81.

accentuează necesitatea de a răspunde eficient provocărilor create de inteligența artificială, robotică și tehnologiile conexe și de a garanta că consumatorii sunt capacitați și protejați cum se cuvine; subliniază necesitatea de a privi dincolo de principiile tradiționale ale informării și divulgării informațiilor pe care a fost întemeiat acquis-ul în domeniul protecției consumatorilor, întrucât, pentru a asigura faptul că astfel de tehnologii contribuie la îmbunătățirea vieții consumatorilor și evoluează astfel încât să respecte drepturile fundamentale, drepturile consumatorilor și valorile Uniunii, vor fi necesare drepturi consolidate pentru consumatori și limitări clare cu privire la dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe;

82.

subliniază că cadrul legislativ introdus prin Decizia nr. 768/2008/CE (14) prevede o listă armonizată de obligații pentru producători, importatori și distribuitori, încurajează utilizarea standardelor și prevede mai multe niveluri de control în funcție de gradul de periculozitate al produsului; consideră că acest cadru ar trebui să se aplice și în cazul produselor cu IA integrată;

83.

observă că, în scopul analizării impactului inteligenței artificiale, al roboticii și al tehnologiilor conexe asupra consumatorilor, accesul la date ar putea fi extins și acordat autorităților naționale competente, dacă se respectă pe deplin dreptul Uniunii, cum ar fi legislația privind protecția datelor, viața privată și secretele comerciale; reamintește importanța de a educa consumatorii pentru ca aceștia să fie mai bine informați și pregătiți când au de-a face cu inteligența artificială, robotica și tehnologiile conexe, astfel încât să fie protejați împotriva riscurilor potențiale și să li se garanteze drepturile;

84.

invită Comisia să propună măsuri de trasabilitate a datelor, ținând seama atât de legalitatea obținerii datelor, cât și de protecția drepturilor consumatorilor și a drepturilor fundamentale, și totodată respectând pe deplin legislația Uniunii, cum ar fi cea referitoare la protecția datelor, viața privată, drepturile de proprietate intelectuală și secretele comerciale;

85.

observă că aceste tehnologii ar trebui să se axeze pe utilizator și să fie concepute astfel încât orice persoană să poată folosi produse sau servicii de IA, indiferent de vârsta, genul, aptitudinile sau caracteristicile sale; observă că accesibilitatea lor pentru persoanele cu dizabilități este deosebit de importantă; observă că nu ar trebui să se aplice o abordare unică și ar trebui să se aibă în vedere principii de proiectare universală care se adresează unei game cât mai largi de utilizatori și respectă standardele de accesibilitate relevante; subliniază că acest lucru le va permite persoanelor fizice să aibă un acces echitabil și să participe activ la activitățile umane mediate de informatică și la tehnologiile asistive existente și emergente.

86.

subliniază că, atunci când la dezvoltarea, implementarea sau utilizarea inteligenței artificiale, roboticii și tehnologiilor conexe contribuie în mod semnificativ bani proveniți din surse publice, ar putea să se ia în calcul, pe lângă standardele deschise de achiziții publice și de contractare, posibilitatea ca codul, datele generate – în măsura în care nu sunt personale – și modelul format să fie făcute publice automat, cu acordul dezvoltatorului, pentru a garanta transparența, a consolida securitatea cibernetică și a permite reutilizarea lor, promovându-se, astfel, inovarea; subliniază că, în acest mod, se poate valorifica întregul potențial al pieței unice, evitându-se fragmentarea pieței;

87.

consideră că IA, robotica și tehnologiile conexe au un potențial imens de a oferi oportunități consumatorilor, astfel încât aceștia să aibă acces la o serie de facilități în multe aspecte ale vieții lor, pe lângă produse și servicii mai bune, precum și să beneficieze de o mai bună supraveghere a pieței, atât timp cât toate principiile, condițiile, inclusiv transparența și posibilitatea auditării, și reglementările aplicabile se aplică în continuare;

Securitate și apărare

88.

subliniază că politicile de securitate și apărare ale Uniunii Europene și ale statelor sale membre se ghidează după principiile consacrate în Cartă și cele ale Cartei Organizației Națiunilor Unite și după înțelegerea comună a valorilor universale de respectare a drepturilor inviolabile și inalienabile ale ființei umane, de demnitate umană, libertate, democrație, egalitate și stat de drept; evidențiază că toate eforturile în materie de apărare din cadrul Uniunii trebuie să respecte aceste valori universale, promovând în același timp pacea, securitatea și progresul în Europa și în lume;

89.

salută avizarea, de către Adunarea din 2019 a înaltelor părți contractante la Convenția Organizației Națiunilor Unite privind interzicerea anumitor tipuri de arme convenționale (CCW), a 11 principii directoare pentru dezvoltarea și utilizarea sistemelor de arme autonome; regretă însă că nu s-a ajuns la un acord cu privire la un instrument obligatoriu din punct de vedere juridic care să reglementeze armele autonome letale (LAWS), cu un mecanism eficace de asigurare a respectării dispozițiilor; salută și sprijină raportul intitulat „Orientările în materie de etică pentru o inteligență artificială (IA) fiabilă” ale Grupului de experți la nivel înalt privind inteligența artificială al Comisiei, publicat la 9 aprilie 2019, și poziția sa privind sistemele de arme autonome letale (LAWS); îndeamnă statele membre să elaboreze strategii naționale pentru definirea și statutul armelor autonome letale (LAWS) în vederea unei strategii cuprinzătoare la nivelul Uniunii și să promoveze, împreună cu Înaltul Reprezentant al Uniunii/Vicepreședintele Comisiei („ÎR/VP”) și Consiliul, discuțiile privind LAWS în cadrul Convenției ONU privind armele convenționale (CCW) și în alte foruri pertinente, precum și stabilirea de norme internaționale privind parametrii etici și juridici pentru elaborarea și utilizarea de sisteme de arme letale complet autonome, semiautonome și comandate de la distanță; reamintește, în acest sens, rezoluția referitoare la sistemele de arme autonome din 12 septembrie 2018 și solicită din nou elaborarea și adoptarea de urgență a unei poziții comune privind sistemele de arme autonome letale, interzicerea la nivel internațional a dezvoltării, producției și utilizării de sisteme de arme autonome letale care permit desfășurarea unor atacuri fără control uman de substanță și fără respectarea principiului „human-in-the-loop” (necesitatea factorului uman), în concordanță cu declarația celor mai cunoscuți cercetători din domeniul IA la nivel mondial, cuprinsă în scrisoarea deschisă a acestora din 2015; salută acordul Consiliului și al Parlamentului de a exclude armele autonome letale „fără posibilitatea unui control uman semnificativ asupra deciziilor de selectare și de atac atunci când se efectuează atacuri” din acțiunile finanțate din Fondul european de apărare; consideră că nu trebuie trecute cu vederea aspectele etice ale altor aplicații ale IA în domeniul apărării, cum ar fi informațiile, supravegherea și recunoașterea (ISR) sau operațiunile cibernetice, și că trebuie să se acorde o atenție specială dezvoltării și trimiterii dronelor în operațiunile militare;

90.

subliniază că tehnologiile emergente din domeniul apărării și securității care nu sunt reglementate de dreptul internațional ar trebui evaluate ținându-se seama de principiul umanității și de imperativele conștiinței publice;

91.

recomandă ca orice cadru european care reglementează utilizarea sistemelor bazate pe IA în domeniul apărării, atât în situații de luptă, cât și în altfel de situații, să respecte toate regimurile juridice aplicabile, în special dreptul internațional umanitar și dreptul internațional al drepturilor omului, și să respecte legislația, principiile și valorile Uniunii, ținând seama de disparitățile din cadrul Uniunii în ceea ce privește infrastructura tehnică și de securitate;

92.

recunoaște că, spre deosebire de bazele industriale de apărare, inovațiile esențiale în materie de IA ar putea să provină din statele membre mici și, deci, o abordare standardizată a PSAC ar trebui să asigure faptul că statele membre mai mici și IMM-urile nu sunt excluse; subliniază că o serie de capacități comune de AI ale UE, corelate cu conceptele operaționale ale statelor membre, pot să elimine decalajele tehnice care ar putea să ducă la excluderea statelor care nu dispun de tehnologia relevantă, de cunoștințe de specialitate industriale sau de capacitatea de a implementa sisteme IA în cadrul ministerelor lor ale apărării;

93.

consideră că activitățile curente și viitoare din domeniul securității și apărării din cadrul Uniunii vor recurge la IA, la robotică și la autonomie, precum și la tehnologii conexe și că o IA fiabilă, solidă și de încredere ar putea contribui la o putere militară modernă și eficace; prin urmare, Uniunea trebuie să își asume un rol de lider în cercetarea și dezvoltarea sistemelor de IA în domeniul securității și al apărării; consideră că utilizarea aplicațiilor bazate pe IA în domeniul securității și apărării ar putea oferi mai multe avantaje directe comandantului operațiunii, cum ar fi o mai bună calitate a datelor colectate, o mai bună conștientizare a situației, o luare mai rapidă a deciziilor, reducerea riscului de daune colaterale grație unei mai bune cablări, protejarea forțelor pe teren, precum și o mai mare fiabilitate a echipamentelor militare și, așadar, reducerea riscurilor pentru oameni și a numărului victimelor umane; subliniază că dezvoltarea unei IA de încredere în domeniul apărării este indispensabilă pentru asigurarea autonomiei strategice europene în domeniul capacităților și în cel operațional; reamintește că sistemele de IA devin factori esențiali și în combaterea amenințărilor nou-apărute la adresa securității, cum ar fi războiul cibernetic și războiul hibrid, atât în mediul online, cât și în cel offline; subliniază, în același timp, toate riscurile și provocările pe care le implică utilizarea nereglementată a IA; observă că IA ar putea fi expusă manipulărilor, erorilor și inexactităților;

94.

subliniază că tehnologiile de IA au, în esență, o dublă utilizare, iar schimburile dintre tehnologiile militare și cele civile aduc beneficii dezvoltării IA în activitățile din domeniul apărării; evidențiază că IA în activitățile din domeniul apărării este o tehnologie disruptivă transversală, iar dezvoltarea sa poate oferi oportunități pentru competitivitatea și autonomia strategică a Uniunii;

95.

recunoaște, în contextul de astăzi al războiului hibrid și avansat, că volumul și viteza informațiilor în fazele timpurii ale unei crize ar putea fi copleșitoare pentru analiștii umani și că un sistem de IA ar putea să prelucreze informațiile pentru a asigura faptul că factorii de decizie umani urmăresc întregul spectru de informații într-un interval de timp adecvat pentru un răspuns rapid;

96.

evidențiază importanța investirii în dezvoltarea capitalului uman pentru inteligența artificială, promovând competențele și instruirea necesare în domeniul tehnologiilor IA din securitate și apărare, cu accent deosebit pe etica sistemelor operaționale semiautonome și autonome bazate pe răspunderea umană într-o lume bazată pe IA; atenționează, în special, că este important să se asigure că persoanele responsabile de etică de pe teren au competențe adecvate și sunt instruite în mod corespunzător; invită Comisia să își prezinte cât mai curând posibil „Agenda pentru consolidarea competențelor”, anunțată în Cartea albă privind inteligența artificială la 19 februarie 2020;

97.

subliniază că informatica cuantică ar putea să reprezinte cea mai revoluționară schimbare din istoria conflictelor de la apariția armelor nucleare și, așadar, îndeamnă ca dezvoltarea în viitor a tehnologiilor bazate pe informatica cuantică să fie o prioritate pentru Uniune și statele membre; recunoaște că actele de agresiune, inclusiv atacurile asupra infrastructurii critice cu ajutorul informaticii cuantice, vor crea un mediu de conflict în care timpul disponibil pentru luarea deciziilor va fi comprimat dramatic de la zile și ore la minute și secunde, forțând statele membre să dezvolte capacități pentru a se proteja și să își formeze atât factorii de decizie, cât și personalul militar pentru a răspunde eficient în aceste intervale de timp;

98.

solicită mai multe investiții în IA europeană destinată apărării și în infrastructura critică care o susține;

99.

reamintește că majoritatea puterilor militare actuale la nivel mondial s-au implicat deja în eforturi semnificative de C-D legate de dimensiunea militară a inteligenței artificiale; consideră că Uniunea trebuie să se asigure că nu rămâne în urmă în această privință;

100.

invită Comisia să integreze consolidarea capacităților în materie de securitate cibernetică în politica sa industrială pentru a asigura dezvoltarea și implementarea unor sisteme robotice și bazate pe IA sigure, reziliente și robuste; invită Comisia să exploreze utilizarea aplicațiilor și a protocoalelor de securitate cibernetică bazate pe tehnologia blockchain, pentru a îmbunătăți reziliența, încrederea și robustețea infrastructurilor de IA prin modele de criptare a datelor fără intermediere; încurajează părțile interesate europene să cerceteze și să proiecteze caracteristici avansate care ar facilita detectarea sistemelor robotice și bazate pe IA corupte și rău-intenționate care ar putea submina securitatea Uniunii și a cetățenilor;

101.

atrage atenția că toate sistemele de IA din domeniul apărării trebuie să aibă un cadru concret și bine definit al misiunii, prin care omul păstrează capacitatea de a detecta și a decupla sau a dezactiva sistemele desfășurate dacă acestea depășesc cadrul misiunii, definit și atribuit prin comandă umană, sau dacă se implică în orice acțiune neintenționată sau care poate escalada; consideră că sistemele, produsele și tehnologia bazate pe IA și destinate uzului militar ar trebui să fie echipate cu o „cutie neagră” pentru înregistrarea fiecărei operațiuni cu date efectuate de mașină;

102.

subliniază că întreaga responsabilitate pentru decizia de a proiecta, a produce, a dezvolta, a implementa și a utiliza sisteme de IA trebuie să le revină operatorilor umani, deoarece trebuie să existe monitorizare și control uman de substanță asupra oricărui sistem de arme și o intenție umană în decizia de a utiliza forța în executarea oricărei decizii a unor sisteme de arme bazate pe IA care ar putea avea consecințe letale; subliniază că controlul uman ar trebui să rămână efectiv pentru comanda și controlul sistemelor bazate pe IA, ca urmare a principiilor „human-in-the loop”, „human-on-the loop” și „human-in-command” (participare, supraveghere și control uman) la nivelul conducerii militare; accentuează că sistemele bazate pe IA trebuie să permită conducerii militare a armatelor să își asume întreaga responsabilitate pentru utilizarea forței letale și să exercite nivelul de judecată necesar, care nu poate fi acordat mașinilor, deoarece trebuie să se bazeze pe diferențiere, proporționalitate și precauție, pentru a întreprinde acțiuni letale sau distructive la scară largă prin astfel de sisteme; subliniază necesitatea de a institui cadre clare și trasabile de autorizare și asumare a răspunderii pentru implementarea armelor inteligente și a altor sisteme bazate pe IA, utilizând caracteristici pentru utilizatori unici, cum ar fi specificațiile biometrice, pentru a permite implementarea exclusiv de către personal autorizat;

Transportul

103.

scoate în evidență potențialul folosirii inteligenței artificiale, a roboticii și a tehnologiilor conexe pentru toate mijloacele autonome rutiere, feroviare, navale și aeriene și pentru a stimula transferul modal și intermodalitatea, întrucât astfel de tehnologii pot contribui la identificarea combinației optime de moduri de transport pentru transportul de mărfuri și pasageri; subliniază, de asemenea, potențialul lor de a mări eficiența transporturilor, a logisticii și a fluxurilor de trafic și de a face ca toate modurile de transport să fie mai sigure, mai inteligente și mai ecologice; subliniază că o abordare etică a IA poate fi considerată și un sistem de avertizare timpurie, în special în ceea ce privește siguranța și eficiența transporturilor;

104.

subliniază că concurența globală între întreprinderi și regiuni economice înseamnă că Uniunea trebuie să promoveze investițiile și să consolideze competitivitatea internațională a întreprinderilor care operează în sectorul transporturilor, prin crearea unui mediu favorabil dezvoltării și aplicării soluțiilor de IA și a altor inovații, în care întreprinderile cu sediul în Uniune să poată deveni lideri mondiali în dezvoltarea tehnologiilor IA;

105.

accentuează că sectorul transporturilor din UE necesită o actualizare a cadrului de reglementare privind astfel de tehnologii emergente și utilizarea lor în sectorul transporturilor și un cadru etic clar pentru crearea unei IA fiabile, care să cuprindă aspecte legate de siguranță, securitate, respectarea autonomiei umane, supraveghere și răspundere, care va spori beneficiile comune tuturor și va fi esențial pentru stimularea investițiilor în cercetare și inovare, dezvoltarea competențelor și adoptarea IA de către serviciile publice, IMM-uri, întreprinderile nou-înființate și companii, asigurând, în același timp, protecția datelor și interoperabilitatea, fără a impune o sarcină administrativă inutilă întreprinderilor și consumatorilor;

106.

constată că dezvoltarea și implementarea IA în sectorul transporturilor nu va fi posibilă fără o infrastructură modernă, care reprezintă o componentă esențială a sistemelor inteligente de transport; subliniază că diferențele existente între nivelurile de dezvoltare din statele membre riscă să priveze regiunile cel mai puțin dezvoltate și pe locuitorii acestora de beneficiile dezvoltării mobilității autonome; solicită o finanțare adecvată pentru modernizarea infrastructurii de transport din UE, inclusiv integrarea sa în tehnologia 5G;

107.

recomandă dezvoltarea de standarde fiabile în materie de IA la nivelul Uniunii pentru toate modurile de transport, inclusiv pentru industria autovehiculelor, precum și pentru testarea vehiculelor asistate de IA și a produselor și serviciilor conexe;

108.

constată că sistemele de IA ar putea contribui la reducerea semnificativă a numărului de accidente rutiere mortale, de exemplu prin timpi de reacție mai buni și o mai bună respectare a regulilor; consideră însă că utilizarea vehiculelor autonome nu poate duce la eliminarea tuturor accidentelor și subliniază că, din acest motiv, explicabilitatea deciziilor IA devine din ce în ce mai importantă pentru justificarea deficiențelor și a consecințelor nedorite ale deciziilor IA;

Ocuparea forței de muncă, drepturile lucrătorilor, competențele digitale și locul de muncă

109.

observă că aplicarea inteligenței artificiale, a roboticii și a tehnologiilor conexe la locul de muncă poate contribui la îmbunătățirea gradului de incluziune al piețelor forței de muncă și la îmbunătățirea sănătății și siguranței în muncă, dar poate fi folosită și pentru a monitoriza, a evalua, a anticipa și a orienta performanța lucrătorilor, cu consecințe directe și indirecte pentru parcursul lor profesional; consideră că IA ar trebui să aibă un efect pozitiv asupra condițiilor de muncă și să se bazeze pe respectarea drepturilor omului, precum și pe drepturile și valorile fundamentale ale Uniunii; crede că IA ar trebui să aibă în centrul său omul, să îmbunătățească calitatea vieții oamenilor și a societății și să contribuie la o tranziție echitabilă și justă; consideră că astfel de tehnologii ar trebui deci să aibă un efect pozitiv asupra condițiilor de muncă și să se bazeze pe respectarea drepturilor omului, precum și pe drepturile și valorile fundamentale ale Uniunii;

110.

subliniază că trebuie dezvoltate competențele lucrătorilor și ale reprezentanților acestora prin formare și educare în ceea ce privește IA la locul de muncă, pentru ca aceștia să înțeleagă mai bine implicațiile soluțiilor bazate pe IA; atrage atenția că, atunci când se folosește IA în cursul procedurilor de recrutare și al altor procese decizionale privind resursele umane, candidații și lucrătorii ar trebui să fie informați în mod corespunzător în scris privind acest lucru, precum și privind modul în care poate fi solicitată, în acest caz, o evaluare umană pentru anularea unei decizii automatizate;

111.

subliniază că trebuie să se asigure faptul că o creștere a productivității datorată dezvoltării și utilizării IA și roboticii nu aduce beneficii doar proprietarilor întreprinderii și acționarilor, ci și întreprinderilor și forței de muncă, prin asigurarea unor condiții de muncă și de angajare mai bune, inclusiv în ceea ce privește salariile, creșterea economică și dezvoltarea, și aduce beneficii societății în ansamblu, mai ales dacă această creștere a productivității are loc în detrimentul locurilor de muncă; invită statele membre să analizeze cu atenție posibilul impact al IA asupra pieței forței de muncă și sistemelor de securitate socială și să elaboreze strategii pentru a asigura stabilitatea pe termen lung prin reformarea impozitelor și a contribuțiilor și prin alte măsuri în cazul în care veniturile publice sunt mai mici;

112.

subliniază importanța investițiilor de către întreprinderi în formarea profesională de tip formal și informal, precum și în învățarea pe tot parcursul vieții, pentru a sprijini tranziția justă către economia digitală; evidențiază, în acest context, că întreprinderile care implementează IA au responsabilitatea de a asigura recalificarea și perfecționarea profesională adecvată a tuturor angajaților vizați, pentru ca aceștia să învețe să folosească instrumentele digitale și să lucreze cu roboți colaborativi (co-bots) și cu alte tehnologii noi, adaptându-se astfel la nevoile în schimbare ale pieței forței de muncă și rămânând încadrați în muncă;

113.

consideră că ar trebui acordată o atenție deosebită noilor forme ale muncii, cum ar fi prestațiile ocazionale și lucrul pe platforme online, care rezultă din folosirea noilor tehnologii în acest context; atenționează că și reglementarea la nivelul Uniunii a condițiilor de muncă de la distanță și asigurarea unor condiții de muncă și de angajare decente în economia digitală trebuie să țină seama de impactul IA; invită Comisia să consulte în acest sens partenerii sociali, dezvoltatorii de IA, cercetătorii și alte părți interesate;

114.

subliniază că inteligența artificială, robotica și tehnologiile conexe nu trebuie să afecteze în niciun fel exercitarea drepturilor fundamentale, astfel cum sunt recunoscute în statele membre și la nivelul Uniunii, incluzând dreptul sau libertatea de a face grevă sau de a întreprinde alte acțiuni prevăzute de sistemele specifice de relații de muncă din statele membre, în conformitate cu legislația și/sau practicile naționale, și nu trebuie să aducă atingere nici dreptului de a negocia, de a încheia și de a pune în aplicare contracte colective de muncă sau de a desfășura acțiuni colective în conformitate cu legislația și/sau practicile naționale;

115.

reiterează importanța educației și a învățământului continuu pentru dobândirea calificărilor necesare în era digitală și pentru eliminarea excluziunii digitale; invită statele membre să investească în sisteme de învățământ, de formare profesională și de învățare pe tot parcursul vieții de înaltă calitate, receptive și incluzive, precum și în politici de recalificare și perfecționare profesională a lucrătorilor din sectoare care pot fi afectate puternic de IA; evidențiază trebuie să se asigure pentru forța de muncă actuală și viitoare competențele necesare în ceea ce privește alfabetizarea, cunoștințele numerice și cele digitale, precum și competențe în domeniile științei, tehnologiei, ingineriei și matematicii (STIM) și competențe non-tehnice transversale, cum ar fi gândirea critică, creativitatea și spiritul antreprenorial; subliniază că trebuie acordată o atenție deosebită includerii grupurilor dezavantajate în acest proces;

116.

reamintește că inteligența artificială, robotica și tehnologiile conexe folosite la locul de muncă trebuie să fie accesibile tuturor, conform principiului proiectării universale;

Educație și cultură

117.

subliniază că este nevoie să se elaboreze criterii pentru dezvoltarea, implementarea și folosirea IA, ținând seama de impactul asupra educației, mass-mediei, tineretului, cercetării, sportului și sectoarelor culturale și creative, stabilind etaloanele și definind principiile pentru utilizările responsabile din punct de vedere etic și acceptate ale tehnologiilor IA care pot fi aplicate cum se cuvine în aceste domenii, inclusiv un regim al răspunderii clar definit pentru produsele care rezultă din folosirea IA;

118.

constată că toți copiii au dreptul la educație publică de calitate la toate nivelurile; prin urmare, solicită dezvoltarea, implementarea și folosirea de sisteme de IA de calitate, care să faciliteze și să ofere instrumente educaționale de calitate pentru toți la toate nivelurile și subliniază că implementarea de noi sisteme de IA în școli nu ar trebui să mărească și mai mult decalajul digital în societate; recunoaște enorma contribuție pe care IA și robotica o pot aduce educației; observă că sistemele de învățare personalizate bazate pe IA nu ar trebui să înlocuiască relațiile educaționale cu profesorii și că formele tradiționale de educație nu ar trebui neglijate, subliniind totodată că trebuie să se ofere un sprijin financiar, tehnologic și educațional, inclusiv formare specializată în domeniul tehnologiei informației și comunicațiilor, cadrelor didactice care doresc să dobândească competențe adecvate pentru a se adapta la schimbările tehnologice, nu numai în scopul de a valorifica potențialul IA, ci și pentru a-i înțelege limitările; solicită dezvoltarea unei strategii la nivelul Uniunii cu scopul de a transforma și actualiza sistemele noastre de învățământ, de a pregăti instituțiile noastre educative de la toate nivelurile și de a oferi profesorilor și elevilor competențele și abilitățile necesare;

119.

subliniază că instituțiile de învățământ ar trebui să urmărească folosirea în scopuri educaționale a sistemelor de IA care au primit un certificat european de conformitate etică;

120.

subliniază că posibilitățile oferite de digitalizare și de noile tehnologii nu trebuie să conducă la o pierdere generală de locuri de muncă în sectoarele culturale și creative, la neglijarea conservării originalelor sau la reducerea accesului tradițional la patrimoniul cultural, care ar trebui, de asemenea, încurajat; constată că sistemele de IA dezvoltate, implementate și utilizate în Uniune ar trebui să reflecte diversitatea sa culturală și multilingvismul său;

121.

recunoaște potențialul în creștere al IA în domeniul informațiilor, al mass-mediei și al platformelor online, inclusiv ca instrument pentru combaterea dezinformării în conformitate cu dreptul Uniunii; atrage atenția că, dacă nu este reglementată, ar putea avea și efecte negative din punct de vedere etic, cum ar fi exploatarea părtinirii din date și algoritmi, care ar putea să ducă la diseminarea dezinformării, și la crearea de bule informaționale; scoate în evidență importanța transparenței și a asumării răspunderii în ceea ce privește algoritmii folosiți de platformele de partajare a materialelor video și de cele de streaming, pentru a asigura accesul la un conținut cât mai divers din punct de vedere cultural și lingvistic;

Autoritățile naționale de supraveghere

122.

remarcă valoarea adăugată a existenței unor autorități naționale de supraveghere desemnate în fiecare stat membru, însărcinate cu asigurarea, evaluarea și monitorizarea respectării obligațiilor legale și a principiilor etice în dezvoltarea, implementarea și utilizarea inteligenței artificiale, roboticii și tehnologiilor conexe cu grad ridicat de risc, contribuind astfel la asigurarea conformității legale și etice a acestor tehnologii;

123.

constată că acestor autorități trebuie să li se ceară, fără a li se dubla sarcinile, să coopereze cu autoritățile responsabile cu punerea în aplicare a legislației sectoriale în scopul identificării tehnologiilor care prezintă grad ridicat de risc din perspectivă etică și pentru a supraveghea punerea în aplicare a măsurilor necesare și adecvate atunci când sunt identificate astfel de tehnologii;

124.

indică faptul că aceste autorități ar trebui să colaboreze nu numai între ele, ci și cu Comisia Europeană și alte instituții, organe, oficii și agenții relevante ale Uniunii, pentru a garanta o acțiune transfrontalieră coerentă;

125.

sugerează ca, în contextul unei astfel de cooperări, să se conceapă criterii comune și un proces comun de depunere a cererilor pentru acordarea unui certificat european de conformitate etică, inclusiv în urma unei solicitări din partea oricărui dezvoltator, operator sau utilizator al tehnologiilor care nu sunt considerate a avea grad ridicat de risc care dorește să certifice evaluarea pozitivă a conformității efectuată de respectiva autoritate națională de supraveghere;

126.

solicită ca aceste autorități să fie însărcinate cu promovarea dialogului regulat cu societatea civilă și inovarea în cadrul Uniunii, oferind asistență cercetătorilor, dezvoltatorilor și altor părți interesate vizate, precum și companiilor mai puțin avansate din punct de vedere digital, în special întreprinderilor mici și mijlocii și start-up-urilor; Îndeosebi, în ceea ce privește eforturile de conștientizare acordarea de sprijin pentru dezvoltarea, implementarea, formarea și recrutarea de profesioniști pentru a se asigura un transfer tehnologic eficient și accesul la tehnologii, proiecte, rezultate și rețele;

127.

solicită o finanțare suficientă din partea fiecărui stat membru pentru autoritățile naționale de supraveghere desemnate și subliniază că este necesar ca autoritățile naționale de supraveghere a pieței să fie consolidate în ceea ce privește capacitatea, aptitudinile și competențele, precum și cunoștințele cu privire la riscurile specifice legate de inteligența artificială, de robotică și de tehnologiile conexe;

Coordonarea la nivelul Uniunii

128.

subliniază importanța coordonării la nivelul Uniunii, realizată de Comisie și/sau de orice instituții, organe, birouri și agenții relevante ale Uniunii care pot fi desemnate în acest context, pentru a evita fragmentarea, precum și a asigurării unei abordări armonizate în întreaga Uniune; consideră că coordonarea ar trebui să se axeze pe mandatele și acțiunile autorităților naționale de supraveghere din fiecare stat membru, după cum se menționează în subsecțiunea anterioară, precum și pe schimbul de bune practici între aceste autorități și să contribuie la cooperarea în domeniul cercetării și dezvoltării în întreaga Uniune; invită Comisia să evalueze și să găsească soluția cea mai potrivită pentru a structura această coordonare; menționează ca exemple de instituții, organe, oficii și agenții existente relevante ale Uniunii ENISA, AEPD și Ombudsmanul European;

129.

consideră că o astfel de coordonare, precum și certificarea europeană a conformității cu normele etice nu ar fi doar benefică pentru dezvoltarea industriei și a inovării din Uniune în acest context, ci i-ar și face pe cetățeni mai conștienți în legătură cu perspectivele oferite de aceste tehnologii și cu riscurile inerente lor;

130.

propune crearea unui centru de expertiză, care să reunească mediul academic, cercetarea, industria și experții individuali de la nivelul Uniunii, pentru a încuraja schimbul de cunoștințe și de competențe tehnice de specialitate și pentru a facilita colaborarea în întreaga Uniune și în afara acesteia; solicită, de asemenea, ca acest centru de expertiză să organizații ale părților interesate, cum ar fi organizațiile de protecție a consumatorilor, pentru a asigura o reprezentare largă a consumatorilor; consideră că, având în vedere impactul posibil disproporționat al sistemelor algoritmice asupra femeilor și minorităților, nivelurile de decizie ale unei astfel de structuri ar trebui să fie diversificate și să asigure echilibrul de gen; subliniază că statele membre trebuie să elaboreze strategii de gestionare a riscurilor pentru IA în contextul strategiilor lor naționale de supraveghere a pieței;

131.

Propune ca Comisia și/sau oricare instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest context să acorde autorităților naționale de supraveghere toată asistență necesară în ceea ce privește rolul lor de prim punct de contact acolo unde există suspiciuni de încălcare a obligațiilor legale și a principiilor etice prevăzute în cadrul de reglementare al Uniunii pentru IA, inclusiv pentru principiul nediscriminării; remarcă, totodată că ar trebui, de asemenea, să ofere orice asistență necesară autorităților naționale de supraveghere în cazurile în care acestea fac evaluări ale conformității pentru a susține dreptul cetățenilor de a contesta și de a exercita căi de atac, și anume prin sprijinirea, dacă este cazul, a consultării altor autorități competente din Uniune, în special a Rețelei de cooperare pentru protecția consumatorilor și a organismelor naționale de protecție a consumatorilor, a organizațiilor societății civile și a partenerilor sociali situați în alte state membre;

132.

recunoaște realizările importante ale grupului de experți la nivel înalt pentru inteligența artificială, compus din reprezentanți ai mediului academic, ai societății civile și ai industriei, precum și ale Alianței europene pentru IA, în special „Ghid etic pentru o inteligență artificială de încredere” și sugerează că acesta ar putea furniza expertiză Comisiei și/sau oricăror instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest context;

133.

remarcă includerea proiectelor din domeniul IA în Programul european de dezvoltare industrială în domeniul apărării (EDIDP); consideră că viitorul Fond european de apărare (FED) și cooperarea structurată permanentă (PESCO) pot oferi, de asemenea, cadre pentru viitoarele proiecte în domeniul IA, care ar putea contribui la o mai bună raționalizare a eforturilor Uniunii în acest domeniu și la promovarea, în același timp, a obiectivului UE de a întări drepturile omului, dreptul internațional și soluțiile multilaterale; subliniază că proiectele bazate pe IA ar trebui să fie sincronizate cu programe civile mai ample ale UE dedicate IA; observă că, în conformitate cu Cartea albă a Comisiei Europene privind inteligența artificială din 19 februarie 2020, ar trebui să fie create centre de excelență și de testare care să se axeze pe cercetarea și dezvoltarea IA în domeniul securității și al apărării, cu specificații riguroase care să stea la baza participării părților interesate private și a investițiilor din partea acestora;

134.

ia act de Cartea albă a Comisiei privind inteligența artificială din 19 februarie 2020 și regretă că nu au fost luate în considerare aspectele militare; invită Comisia și ÎR/VP să prezinte, de asemenea, ca parte a unei abordări globale, o strategie sectorială privind IA pentru activitățile legate de apărare în cadrul Uniunii, care să asigure atât respectarea drepturilor cetățenilor, cât și a intereselor strategice ale Uniunii, și care să se bazeze pe o abordare consecventă plecând de la crearea sistemelor bazate pe IA la utilizările militare ale acestora și să instituie un grup de lucru pentru securitate și apărare în cadrul Grupului de experți la nivel înalt privind inteligența artificială care să se ocupe în mod specific de chestiuni de politică și investiții, precum și de aspectele etice ale IA în domeniul securității și apărării; invită Consiliul, Comisia Europeană și VP/ÎR să inițieze un dialog structurat cu Parlamentul European în acest scop;

Certificarea europeană a conformității cu normele etice

135.

sugerează elaborarea unor criterii comune și a unui proces comun de depunere a cererilor pentru acordarea unui certificat european de conformitate etică în contextul coordonării la nivelul Uniunii, inclusiv în urma unei solicitări din partea oricărui dezvoltator, operator sau utilizator al tehnologiilor care nu sunt considerate a avea grad ridicat de risc care dorește să certifice evaluarea pozitivă a conformității efectuată de respectiva autoritate națională de supraveghere;

136.

consideră că un astfel de certificat european de conformitate etică ar stimula etica de la stadiul conceperii de-a lungul întregului lanț de aprovizionare al ecosistemelor de inteligență artificială; sugerează, prin urmare, ca, în cazul tehnologiilor cu risc ridicat, această certificare ar putea fi o condiție prealabilă obligatorie pentru eligibilitatea pentru procedurile de achiziții publice legate de inteligența artificială, robotica și tehnologiile conexe;

Cooperarea internațională

137.

este de părere că se pot obține standarde etice și o cooperare transfrontalieră eficiente numai dacă toate părțile interesate se angajează să asigure intervenția și supravegherea umană, soliditatea și siguranța tehnică, transparența și responsabilitatea, diversitatea, nediscriminarea și echitatea, bunăstarea societală și de mediu, precum și să respecte principiile stabilite privind viața privată, guvernanța datelor și protecția datelor, în special cele consacrate în Regulamentul (UE) 2016/679;

138.

subliniază că obligațiile juridice și principiile etice ale Uniunii privind dezvoltarea, implementarea și utilizarea acestor tehnologii ar putea transforma European într-un lider mondial în sectorul inteligenței artificiale și ar trebui, așadar, promovate în întreaga lume prin cooperare cu partenerii internaționali, continuând în același timp dialogul esențial și bazat pe principii etice cu țări terțe care au modele alternative de reglementare, de dezvoltare și de implementare a inteligenței artificiale;

139.

reamintește că perspectivele și riscurile inerente acestor tehnologii au o dimensiune globală, întrucât programele informatice și datele pe care le folosesc sunt adesea importate în Uniunea Europeană și exportate din aceasta și, prin urmare, este nevoie de o abordare consistentă a cooperării la nivel internațional; invită Comisia să ia inițiativa și să analizeze care tratate și acorduri bilaterale și multilaterale ar trebui ajustate pentru a asigura o abordare consecventă și a promova modelul european al respectării principiilor etice la nivel mondial;

140.

subliniază valoarea adăugată pe care o are coordonarea la nivelul Uniunii și în acest context, așa cum se menționează mai sus;

141.

solicită crearea unor sinergii și a unor rețele între diversele centre de cercetare europene cu privire la IA, precum și alte foruri multilaterale, cum ar fi Consiliul Europei, Organizația Națiunilor Unite pentru Educație, Știință și Cultură (UNESCO), Organizația pentru Cooperare și Dezvoltare Economică (OCDE), Organizația Mondială a Comerțului și Uniunea Internațională a Telecomunicațiilor (UIT), pentru a-și alinia eforturile și a coordona mai bine dezvoltarea inteligenței artificiale, a roboticii și a tehnologiilor conexe;

142.

subliniază că Uniunea trebuie să fie lider în sprijinirea eforturilor multilaterale la nivelul Grupului de experți guvernamentali din cadrul Convenției ONU privind interzicerea anumitor tipuri de arme convenționale (CCW) și al altor foruri relevante, pentru a discuta cu privire la un cadru internațional de reglementare eficace, care să asigure un control uman semnificativ asupra sistemelor de arme autonome, pentru a stăpâni tehnologiile respective prin instituirea unor procese bine definite, bazate pe parametri de referință, și adoptarea unor acte legislative pentru utilizarea lor etică, în consultare cu domeniul militar, industrial, al forțelor de ordine, cu mediul universitar și din societatea civilă, pentru a înțelege aspectele etice aferente și pentru a imita riscurile inerente acestor tehnologii și a împiedica utilizarea lor în scopuri rău-intenționate;

143.

recunoaște rolul NATO în promovarea securității euroatlantice și cere cooperare în cadrul NATO pentru stabilirea unor standarde comune și pentru interoperabilitatea sistemelor IA în apărare; subliniază că relația transatlantică este importantă pentru păstrarea unor valori comune și pentru combaterea amenințărilor viitoare și emergente;

144.

subliniază că este importantă crearea unui cod etic de conduită, care să stea la baza implementării sistemelor bazate pe IA adaptate pentru utilizare în război în operațiile militare, similar cu cadrul de reglementare existent care interzice utilizarea armelor chimice și biologice; consideră că Comisia ar trebui să inițieze crearea unor standarde privind utilizarea în război a sistemelor de arme bazate pe IA în conformitate cu dreptul internațional umanitar, iar Uniunea ar trebui să urmărească adoptarea la nivel internațional a unor asemenea standarde; consideră că Uniunea ar trebui să se implice în diplomația IA în foruri internaționale, cum ar fi G7, G20 și OCDE, cu parteneri care împărtășesc aceeași viziune;

Aspecte finale

145.

în urma reflecțiilor de mai sus cu privire la aspecte legate de dimensiunea etică a inteligenței artificiale, roboticii și tehnologiilor conexe, concluzionează că dimensiunile juridice și etice ar trebui consacrate într-un cadru juridic de reglementare eficient, orientat spre viitor și cuprinzător la nivelul Uniunii, sprijinit de autoritățile de supraveghere competente, coordonat și consolidat de Comisie și/sau de orice instituții, organe, birouri și agenții relevante ale Uniunii care pot fi desemnate în acest context, sprijinite în mod regulat de centrul de expertiză menționat anterior și respectat și certificat în mod corespunzător pe piața internă;

146.

În conformitate cu procedura prevăzută la articolul 225 din Tratatul privind funcționarea Uniunii Europene, solicită Comisiei să prezinte o propunere de regulament privind principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene și pe baza recomandărilor detaliate făcute în anexă; subliniază că propunerea nu ar trebui să submineze legislația sectorială specifică, ci ar trebui să acopere doar lacunele identificate;

147.

recomandă Comisiei Europene ca, după consultarea tuturor părților interesate relevante, să revizuiască, dacă este cazul, legislația existentă a Uniunii aplicabilă inteligenței artificiale, roboticii și tehnologiilor conexe, pentru a răspunde vitezei de dezvoltare a acestora, în concordanță cu recomandările din anexă, evitând reglementarea excesivă, inclusiv pentru IMM-uri;

148.

crede că o evaluare periodică și o revizuire, dacă este necesară, a cadrului de reglementare al Uniunii legat de inteligența artificială, robotică și tehnologiile conexe vor fi esențiale pentru a asigura că legislația aplicabilă este actualizată în funcție de progresele tehnologice rapide;

149.

consideră că propunerea legislativă solicitată ar avea implicații financiare dacă i s-ar încredința oricărui organ european funcțiile de coordonare menționate mai sus și mijloacele tehnice și resursele umane necesare pentru ca acesta să își îndeplinească noile sarcini atribuite;

o

o o

150.

încredințează Președintelui sarcina de a transmite Consiliului și Comisiei prezenta propunere, precum și recomandările detaliate în anexă.

(1)  JO L 252, 8.10.2018, p. 1.

(2)  JO L 180, 19.7.2000, p. 22.

(3)  JO L 303, 2.12.2000, p. 16.

(4)  JO L 119, 4.5.2016, p. 1.

(5)  JO L 119, 4.5.2016, p. 89.

(6)  JO L 123, 12.5.2016, p. 1.

(7)  JO C 252, 18.7.2018, p. 239.

(8)  JO C 307, 30.8.2018, p. 163.

(9)  JO C 433, 23.12.2019, p. 86.

(10)  Texte adoptate, P8_TA(2018)0332.

(11)  Texte adoptate, P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.

(13)  Directiva (UE) 2019/882 a Parlamentului European și a Consiliului din 17 aprilie 2019 privind cerințele de accesibilitate aplicabile produselor și serviciilor (JO L 151, 7.6.2019, p. 70).

(14)  Decizia nr. 768/2008/CE a Parlamentului European și a Consiliului din 9 iulie 2008 privind un cadru comun pentru comercializarea produselor și de abrogare a Deciziei 93/465/CEE a Consiliului (JO L 218, 13.8.2008, p. 82).


ANEXĂ LA REZOLUȚIE:

RECOMANDĂRI DETALIATE REFERITOARE LA CONȚINUTUL PROPUNERII SOLICITATE

A.   PRINCIPIILE ȘI OBIECTIVELE PROPUNERII SOLICITATE

I.

Principalele principii și obiective ale propunerii sunt:

să consolideze încrederea la toate nivelurile părților interesate implicate și ale societății în inteligența artificială, robotică și tehnologiile conexe, în special atunci când acestea sunt considerate ca având un grad ridicat de risc;

să sprijine dezvoltarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în Uniune, inclusiv prin sprijinirea companiilor, întreprinderilor nou-înființate și IMM-urilor pentru a evalua și aborda cu certitudine cerințele de reglementare actuale și viitoare și riscurile în cursul procesului de inovare și de dezvoltare a activității, precum și în etapa ulterioară de utilizare de către profesioniști și de către persoane fizice, reducând la minimum sarcinile și birocrația;

să sprijine implementarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în Uniune, prin furnizarea unui cadru de reglementare adecvat și proporționat care ar trebui aplicat fără a aduce atingere legislației prezente sau viitoare, cu scopul de a încuraja securitatea în materie de reglementare și inovarea, garantând totodată drepturile fundamentale și protecția consumatorilor;

să sprijine utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în Uniune garantând că aceste tehnologii sunt dezvoltate, implementate și utilizate într-un mod conform principiilor etice;

să solicite transparență și fluxuri de informații mai bune în rândul cetățenilor și în cadrul organizațiilor care dezvoltă, implementează sau utilizează inteligența artificială, robotica și tehnologiile conexe, pentru a garanta că aceste tehnologii respectă dreptul Uniunii, drepturile și valorile fundamentale și principiile etice ale propunerii de regulament solicitate.

II.

Propunerea are următoarele elemente:

un „Regulament privind principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe”;

rolul de coordonare la nivelul Uniunii de către Comisie și/sau instituțiile, organele, oficiile și agențiile Uniunii relevante care pot fi desemnate în acest context și o certificare europeană a conformității cu normele etice;

rolul de sprijin al Comisiei Europene;

rolul „autorității de supraveghere” în fiecare stat membru pentru a se asigura că sunt aplicate principii etice inteligenței artificiale, roboticii și tehnologiilor conexe;

implicarea, consultarea și sprijinirea proiectelor de cercetare și dezvoltare relevante și a părților interesate implicate, inclusiv a întreprinderilor nou-înființate, a întreprinderilor mici și mijlocii, a companiilor, a partenerilor sociali și a altor reprezentanți ai societății civile;

o anexă care stabilește o listă exhaustivă și cumulativă a sectoarelor cu risc ridicat și a utilizărilor și scopurilor cu risc ridicat;

III.

„Regulamentul privind principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe” se bazează pe următoarele principii:

inteligența artificială, robotica și tehnologiile conexe centrate pe factorul uman și create și controlate de om;

evaluarea obligatorie a conformității inteligenței artificiale, roboticii și tehnologiilor conexe cu grad ridicat de risc;

siguranța, transparența și responsabilitatea;

garanții și căi de atac împotriva părtinirii și a discriminării;

dreptul la repararea prejudiciului;

responsabilitatea socială și egalitatea de gen în ceea ce privește inteligența artificială, robotica și tehnologiile conexe;

inteligență artificială, robotică și tehnologii conexe ecologice și durabile;

respectarea vieții private și limitarea utilizării recunoașterii biometrice;

buna guvernanță în domeniul inteligenței artificiale, al roboticii și al tehnologiilor conexe, inclusiv datele utilizate sau produse de astfel de tehnologii.

IV.

În scopul coordonării la nivelul Uniunii, Comisia și/sau instituțiile, organele, oficiile și agențiile Uniunii relevante care pot fi desemnate în acest context ar trebui să îndeplinească următoarele sarcini principale:

cooperarea în ceea ce privește monitorizarea punerii în aplicare a propunerii de regulament și a dreptului sectorial relevant al Uniunii;

cooperarea în ceea ce privește emiterea de orientări privind aplicarea consecventă a propunerii de regulament solicitate, și anume aplicarea criteriilor pentru inteligența artificială, robotică și tehnologiile conexe care să fie considerate ca prezentând un grad ridicat de risc și lista sectoarelor cu risc ridicat și utilizările și scopurile cu risc ridicat prevăzute în anexa la regulament;

cooperarea cu „autoritatea de supraveghere” din fiecare stat membru în ceea ce privește elaborarea unui certificat european de conformitate cu principiile etice și obligațiile legale prevăzute în propunerea de regulament solicitată și în dreptul relevant al Uniunii, precum și dezvoltarea unui proces de depunere a cererilor pentru dezvoltatorii, operatorii sau utilizatorii de tehnologii care nu sunt considerate ca având un grad ridicat de risc și care au intenția să certifice conformitatea acestor tehnologii cu propunerea de regulament solicitată;

colaborarea pentru sprijinirea cooperării transsectoriale și transfrontaliere prin schimburi periodice cu părțile interesate și cu societatea civilă din UE și din lume, în special cu întreprinderile, partenerii sociali, cercetătorii și autoritățile competente în ceea ce privește elaborarea unor standarde tehnice la nivel internațional;

cooperarea cu „autoritatea de supraveghere” din fiecare stat membru în ceea ce privește stabilirea de orientări obligatorii privind metodologia care trebuie urmată pentru evaluarea conformității care urmează să fie efectuată de fiecare „autoritate de supraveghere”;

cooperarea referitoare la colaborarea cu „autoritatea de supraveghere” din fiecare stat membru și coordonarea mandatelor și a sarcinilor acestor autorități;

cooperarea cu privire la sensibilizarea și furnizarea de informații dezvoltatorilor, operatorilor și utilizatorilor din întreaga Uniune, precum și organizarea de schimburi cu aceștia;

cooperarea cu privire la sensibilizarea și furnizarea de informații, promovarea educației digitale, formarea și dezvoltarea competențelor proiectanților, dezvoltatorilor, operatorilor, cetățenilor, utilizatorilor și a organismelor instituționale din întreaga Uniune și de la nivel internațional, precum și organizarea de schimburi cu aceștia;

cooperarea cu privire la coordonarea unui cadru comun pentru guvernanța dezvoltării, implementării și utilizării inteligenței artificiale, a roboticii și a tehnologiilor conexe, care să fie implementat de „autoritățile de supraveghere” din fiecare stat membru;

cooperarea în ceea ce privește rolul de centru de expertiză prin promovarea schimbului de informații și sprijinirea dezvoltării unei înțelegeri comune în cadrul pieței unice;

cooperarea în ceea ce privește găzduirea unui grup de lucru pentru securitate și apărare.

V.

În plus, Comisia ar trebui să îndeplinească următoarele sarcini:

elaborarea și, ulterior, actualizarea, prin intermediul unor acte delegate, a unei liste comune a tehnologiilor cu grad ridicat de risc identificate în Uniune în cooperare cu „autoritatea de supraveghere” din fiecare stat membru;

actualizarea, prin intermediul actelor delegate, a listei prevăzute în anexa la regulament.

VI.

„Autoritatea de supraveghere” din fiecare stat membru ar trebui:

să contribuie la aplicarea consecventă a cadrului de reglementare stabilit în propunerea de regulament solicitată în cooperare cu „autoritatea de supraveghere” în celelalte state membre, precum și cu alte autorități responsabile cu punerea în aplicare a legislației sectoriale, cu Comisia și/sau cu alte instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest context, și anume în ceea ce privește aplicarea criteriilor de evaluare a riscurilor prevăzute în propunerea de regulament solicitată, a listei sectoarelor cu grad ridicat de risc și a utilizărilor sau scopurilor cu grad ridicat de risc prevăzute în anexa sa, precum și supravegherea ulterioară a punerii în aplicare a măsurilor necesare și a măsurilor corespunzătoare în cazul în care tehnologiile cu risc ridicat sunt identificate ca urmare a unei astfel de cereri;

să evalueze dacă inteligența artificială, robotica și tehnologiile conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, care sunt dezvoltate, implementate și utilizate în Uniune trebuie considerate tehnologii cu risc ridicat, în conformitate cu criteriile de evaluare a riscurilor prevăzute în propunerea de regulament solicitată și în lista cuprinsă în anexa sa;

să emită un certificat european de conformitate cu principiile etice și obligațiile legale prevăzute în propunerea de regulament solicitată și în dreptul relevant al Uniunii, inclusiv atunci când rezultă dintr-un proces de depunere a cererilor pentru dezvoltatorii, operatorii sau utilizatorii de tehnologii neconsiderate ca având un grad ridicat de risc care au intenția să certifice conformitatea acestor tehnologii cu propunerea de regulament solicitată, astfel cum au fost elaborate de Comisie și/sau alte instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest context;

să evalueze și să monitorizeze respectarea de către acestea a principiilor etice și a obligațiilor legale prevăzute în propunerea de regulament solicitată și în dreptul relevant al Uniunii;

să fie responsabilă de stabilirea și aplicarea standardelor de punere în aplicare pentru guvernanța inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv prin crearea și susținerea unui dialog structurat cu toate părțile interesate relevante și cu reprezentanții societății civile; în acest scop, să coopereze cu Comisia și/sau cu instituțiile, organele, oficiile și agențiile relevante ale Uniunii care pot fi desemnate în acest context în ceea ce privește coordonarea unui cadru comun la nivelul Uniunii;

să sensibilizeze publicul, furnizând informații cu privire la inteligența artificială, robotică și tehnologiile conexe și sprijinirea formării profesionale în domeniile relevante, inclusiv în sistemul judiciar, oferind astfel cetățenilor și lucrătorilor educație digitală, competențele și instrumentele necesare pentru o tranziție echitabilă;

să servească drept prim punct de contact în cazurile în care există suspiciuni de încălcare a obligațiilor legale și a principiilor etice prevăzute în propunerea de regulament solicitată și să efectueze o evaluare a conformității în astfel de cazuri; în contextul acestei evaluări a conformității, Comisia poate consulta și/sau informa alte autorități competente din Uniune, în special Rețeaua de cooperare pentru protecția consumatorului, organismele naționale de protecție a consumatorilor, organizații ale societății civile și partenerii sociali.

VII.

Rolul esențial al părților interesate ar trebui să fie de a colabora cu Comisia și/sau instituțiile, organele, oficiile și agențiile Uniunii relevante care pot fi desemnate în acest context, precum și „autoritatea de supraveghere” din fiecare stat membru.

B.   TEXTUL PROPUNERII LEGISLATIVE SOLICITATE

Propunere de

REGULAMENT AL PARLAMENTULUI EUROPEAN ȘI AL CONSILIULUI

privind principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe

PARLAMENTUL EUROPEAN ȘI CONSILIUL UNIUNII EUROPENE,

având în vedere Tratatul privind funcționarea Uniunii Europene, în special articolul 114,

având în vedere propunerea Comisiei Europene,

după transmiterea proiectului de act legislativ către parlamentele naționale,

având în vedere avizul Comitetului Economic și Social European,

hotărând în conformitate cu procedura legislativă ordinară,

întrucât:

(1)

Dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, ar trebui să se bazeze pe dorința de a servi societatea. Acestea tehnologii pot implica oportunități și riscuri, care ar trebui abordate și reglementate printr-un cadru juridic de reglementare cuprinzător la nivelul UE, care să reflecte principiile etice ce trebuie respectate din momentul dezvoltării și implementării acestor tehnologii și până în momentul utilizării lor.

(2)

Nivelul de conformitate cu acest cadru de reglementare în ceea ce privește dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, algoritmilor și datelor utilizate sau produse de astfel de tehnologii în Uniune, ar trebui să fie echivalent în toate statele membre, pentru a valorifica în mod eficient oportunitățile și pentru a aborda în mod consecvent riscurile acestor tehnologii, precum și pentru a evita fragmentarea în materie de reglementare. Ar trebui să se asigure că aplicarea normelor stabilite în prezentul regulament este omogenă în întreaga Uniune.

(3)

În acest context, diversitatea actuală a normelor și practicilor de urmat în întreaga Uniune reprezintă un risc semnificativ de fragmentare a pieței unice și pentru protecția bunăstării și prosperității oamenilor și a societății, precum și pentru explorarea coerentă a întregului potențial pe care inteligența artificială, robotica și tehnologiile conexe îl au în promovarea inovării și menținerea acestei bunăstări și prosperități. Diferențele în ceea ce privește gradul de luare în considerare de către dezvoltatori, operatori și utilizatori a dimensiunii etice inerente acestor tehnologii pot împiedica dezvoltarea, implementarea sau utilizarea lor în mod liber în Uniune și pot constitui un obstacol în calea condițiilor de concurență echitabile, a avansului tehnologic și a desfășurării de activități economice la nivelul Uniunii, pot denatura concurența și pot împiedica autoritățile să își îndeplinească obligațiile care le revin în temeiul dreptului Uniunii. În plus, absența unui cadru comun de reglementare care să reflecte principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe conduce la insecuritate juridică pentru toți cei implicați, și anume dezvoltatorii, operatorii și utilizatorii.

(4)

Cu toate acestea, prezentul regulament, deși contribuie la o abordare coerentă la nivelul Uniunii și în limitele stabilite de aceasta, ar trebui să prevadă o marjă de manevră pentru statele membre, inclusiv în ceea ce privește modul în care trebuie îndeplinit mandatul autorităților naționale de supraveghere în lumina obiectivelor pe care trebuie să le urmărească în conformitate cu prezentul regulament.

(5)

Prezentul regulament nu aduce atingere legislației sectoriale existente sau viitoare. Acesta ar trebui să fie proporțional cu obiectivul său, astfel încât să nu împiedice în mod nejustificat inovarea în Uniune și să fie în conformitate cu o abordare bazată pe riscuri.

(6)

Domeniul de aplicare geografic al unui astfel de cadru ar trebui să acopere toate componentele inteligenței artificiale, ale roboticii și ale tehnologiilor conexe la nivelul dezvoltării, implementării și utilizării lor în Uniune, inclusiv în cazurile în care o parte a tehnologiilor sunt localizate în afara Uniunii sau nu au o locație specifică și unică, cum ar fi în cazul serviciilor de cloud computing.

(7)

Pentru a permite o abordare normativă unificată și a asigura astfel securitate juridică pentru cetățeni și întreprinderi, este necesară o înțelegere comună în Uniune a noțiunilor precum inteligența artificială, robotica, tehnologiile conexe și recunoașterea biometrică. Acestea ar trebui să fie neutre din punct de vedere tehnologic și să facă obiectul unei verificări ori de câte ori este necesar.

(8)

În plus, faptul că există tehnologii legate de inteligența artificială și de robotică ce permit unui program informatic să controleze procese fizice sau virtuale cu un grad variat de autonomie (1) trebuie luat în considerare. În cazul conducerii automate a vehiculelor, au fost propuse șase niveluri de automatizare a conducerii prin standardul internațional J3016 al SAE.

(9)

Dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, ar trebui să completeze capacitățile umane și nu să le înlocuiască și să fie de așa natură încât să garanteze că executarea lor nu contravine interesului superior al cetățenilor și ar trebui să respecte dreptul Uniunii, drepturile fundamentale, astfel cum sunt prevăzute în Carta drepturilor fundamentale a Uniunii Europene („Carta”), în jurisprudența consacrată a Curții de Justiție a Uniunii Europene, precum și în alte instrumente europene și internaționale care se aplică în Uniune.

(10)

Deciziile luate de inteligența artificială, robotica și tehnologiile conexe sau bazate pe acestea ar trebui să facă în continuare obiectul unor evaluări, decizii, intervenții și controale umane adecvate. Complexitatea tehnică și operațională a unor astfel de tehnologii nu ar trebui să împiedice în niciun fel operatorii sau utilizatorii lor să poată, cel puțin, să declanșeze un mecanism de stopare în deplină siguranță, să modifice sau să stopeze funcționarea acestora sau să le readucă la stadiul anterior, restabilind funcțiile sigure, în cazul în care este amenințată respectarea dreptului Uniunii și a principiilor etice și obligațiilor legate stabilite în prezentul regulament.

(11)

Inteligența artificială, robotica și tehnologiile aferente a căror dezvoltare, implementare și utilizare implică un risc semnificativ de a provoca vătămări sau prejudicii persoanelor sau societății prin încălcarea drepturilor fundamentale și a normelor de siguranță, astfel cum sunt prevăzute în dreptul Uniunii, ar trebui considerate tehnologii cu grad ridicat de risc. În scopul evaluării lor ca atare, ar trebui luate în considerare sectorul în care acestea sunt dezvoltate, implementate sau utilizate, utilizarea lor specifică sau scopul lor și gravitatea vătămării sau a prejudiciului care ar putea să se producă. Gradul de gravitate ar trebui stabilit pe baza amplorii eventualelor vătămări sau prejudicii, a numărului de persoane afectate, a valorii totale a daunelor cauzate, precum și a prejudiciului adus societății în ansamblu. Vătămările și prejudiciile grave cauzate, de exemplu, de încălcarea drepturilor copiilor, ale consumatorilor sau ale lucrătorilor care, din cauza amplorii lor, a numărului de copii, de consumatori sau de lucrători afectați sau a impactului acestora asupra societății în ansamblul său implică un risc semnificativ de încălcare a drepturilor fundamentale și a normelor de siguranță, astfel cum sunt prevăzute în dreptul Uniunii. Prezentul regulament ar trebui să prevadă o listă exhaustivă și cumulativă a sectoarelor cu risc ridicat și a utilizărilor și scopurilor cu risc ridicat.

(12)

Obligațiile prevăzute în prezentul regulament, în special cele privind tehnologiile cu risc ridicat se aplică numai inteligenței artificiale, roboticii și tehnologiilor conexe, inclusiv programelor informatice, algoritmilor și datelor utilizate sau produse de aceste tehnologii, care sunt dezvoltate, implementate sau utilizate în Uniune și care, în urma unei evaluări a riscurilor prevăzute de prezentul regulament sunt considerate tehnologii cu risc ridicat. Aceste obligații trebuie să fie respectate fără a aduce atingere obligației generale ca toate formele de inteligență artificială, robotică și tehnologiile conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, să fie dezvoltate, implementate și utilizate în Uniune într-un mod centrat pe factorul uman și să se bazeze pe principiile autonomiei umane și siguranței umane, în conformitate cu dreptul Uniunii și cu respectarea deplină a drepturilor fundamentale, cum ar fi demnitatea umană, dreptul la libertate și la siguranță și dreptul la integritate al persoanei.

(13)

Tehnologiile cu risc ridicat ar trebui să respecte principiile siguranței, transparenței, responsabilității, imparțialității sau nediscriminării, responsabilității sociale și egalității de gen, dreptului la reparații, sustenabilității mediului, vieții private și bunei guvernanțe, în urma unei evaluări imparțiale, obiective și externe a riscurilor efectuată de autoritatea națională de supraveghere, în conformitate cu criteriile prevăzute în prezentul regulament și în lista din anexă. Această evaluare ar trebui să țină seama de opiniile și de orice autoevaluare efectuată de dezvoltator sau operator.

(14)

Comisia și/sau instituțiile, organele, oficiile și agențiile Uniunii relevante care pot fi desemnate în acest scop ar trebui să pregătească orientări fără caracter obligatoriu privind punerea în aplicare pentru dezvoltatori, operatori și utilizatori cu privire la metodologia de conformitate cu prezentul regulament. În acest sens, acestea ar trebui să consulte părțile interesate relevante.

(15)

Ar trebui să existe o coerență în cadrul Uniunii în ceea ce privește evaluarea riscurilor acestor tehnologii, în special în cazul în care acestea sunt evaluate atât din perspectiva prezentului regulament, cât și în conformitate cu legislația sectorială aplicabilă. În consecință, autoritățile naționale de supraveghere ar trebui să informeze alte autorități care efectuează evaluări ale riscurilor în conformitate cu orice legislație specifică sectorului atunci când aceste tehnologii sunt considerate ca fiind cu risc ridicat ca urmare a evaluării riscurilor prevăzute în prezentul regulament.

(16)

Pentru a fi fiabile, inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, ar trebui dezvoltate, implementate și utilizate într-un mod sigur, transparent și responsabil, în conformitate cu caracteristicile de siguranță legate de robustețe, reziliență, securitate, precizie și identificare a erorilor, explicabilitate, interpretabilitate, posibilitatea de auditare, transparență și identificabilitate și astfel încât funcțiile vizate să poată fi dezactivate temporar sau să poată fi readuse la stadiul anterior, restabilind funcțiile sigure, în cazul nerespectării acestor elemente de siguranță. Transparența ar trebui asigurată prin permiterea accesului autorităților publice, atunci când este strict necesar, la tehnologia, datele și sistemele informatice care stau la baza acestor tehnologii.

(17)

Dezvoltatorii, operatorii și utilizatorii de inteligență artificială, robotică și tehnologii conexe, în special tehnologii cu grad ridicat de risc, sunt responsabili de respectarea principiilor siguranței, transparenței și responsabilității în măsura implicării lor în raport cu tehnologiile în cauză, inclusiv cu programe informatice, algoritmi și date utilizate sau produse de astfel de tehnologii. Dezvoltatorii ar trebui să se asigure că tehnologiile respective sunt proiectate și construite în conformitate cu elementele de siguranță stabilite în prezentul regulament, iar operatorii și utilizatorii ar trebui să implementeze și să utilizeze tehnologiile în cauză respectând pe deplin aceste elemente. În acest scop, dezvoltatorii de tehnologii cu grad ridicat de risc ar trebui să evalueze și să anticipeze riscurile de utilizare abuzivă pe care le pot prevede în mod rezonabil legate de tehnologiile pe care le dezvoltă. De asemenea, trebuie să se asigure că sistemele pe care le dezvoltă indică, în măsura posibilului și prin mijloace adecvate, cum ar fi mesajele de declinare a responsabilității, probabilitatea apariției unor erori sau inexactități.

(18)

Dezvoltatorii și operatorii ar trebui să pună la dispoziția utilizatorilor orice actualizări ulterioare ale tehnologiilor în cauză, în special în ceea ce privește programele informatice astfel cum sunt stipulate în contract sau prevăzute în dreptul Uniunii sau în cel național. În plus, atunci când o evaluare a riscurilor indică acest lucru, dezvoltatorii și operatorii de proiecte ar trebui să furnizeze autorităților publice documentația relevantă privind utilizarea tehnologiilor în cauză și instrucțiunile de siguranță în acest sens, inclusiv – atunci când este strict necesar și cu respectarea deplină a dreptului Uniunii privind protecția datelor, a vieții private și a drepturilor de proprietate intelectuală și a secretelor comerciale – codul sursă, instrumentele de dezvoltare și datele utilizate de sistem.

(19)

Cetățenii au dreptul să se aștepte ca tehnologia pe care o utilizează să funcționeze în mod rezonabil și să li se respecte încrederea. Încrederea cetățenilor în inteligența artificială, robotică și tehnologii conexe, inclusiv programe informatice, algoritmi și date utilizate sau produse de astfel de tehnologii, depinde de cunoașterea și înțelegerea proceselor tehnice. Gradul de explicabilitate a unor astfel de procese ar trebui să depindă de contextul acestor procese tehnice și de gravitatea consecințelor unor rezultate eronate sau inexacte și trebuie să fie suficient pentru a le contesta și a solicita despăgubiri. Posibilitatea auditării, trasabilitatea și transparența ar trebui să remedieze eventuala lipsă de inteligibilitate a acestor tehnologii.

(20)

Încrederea societății în inteligența artificială, în robotică și în tehnologiile conexe, inclusiv în programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, depinde de măsura în care este asigurată posibilitatea de evaluare, auditare și trasabilitate a acestora. În cazul în care gradul lor de implicare impune acest lucru, dezvoltatorii ar trebui să se asigure că aceste tehnologii sunt proiectate și construite în așa fel încât să permită o astfel de evaluare, auditare și trasabilitate. În limitele permise de fezabilitatea tehnică, dezvoltatorii, operatorii și utilizatorii ar trebui să se asigure că inteligența artificială, robotica și tehnologiile conexe sunt implementate și utilizate cu respectarea deplină a cerințelor de transparență și într-un mod care permite auditarea și trasabilitatea.

(21)

Pentru a asigura transparența și responsabilitatea, cetățenii ar trebui să fie informați atunci când un sistem utilizează inteligența artificială și, când sistemele de inteligență artificială personalizează un produs sau un serviciu pentru utilizatorii lor, dacă pot elimina sau limita personalizarea, precum și atunci când se confruntă cu o tehnologie automatizată de luare a deciziilor. În plus, măsurile de asigurare a transparenței ar trebui însoțite, pe cât posibil din punct de vedere tehnic, de explicații clare și ușor de înțeles privind datele utilizate și algoritmul, scopul acestuia, rezultatele și posibilele pericole pe care le implică.

(22)

Părtinirea și discriminarea prin programe informatice, algoritmi și date este ilegală și ar trebui abordată prin reglementarea proceselor de proiectare și implementare. Părtinirile pot proveni atât din decizii bazate pe sistemele automatizate sau luate de acestea, cât și din seturile de date pe care se bazează aceste procese decizionale sau datele utilizate pentru a antrena sistemul.

(23)

Programele informatice, algoritmii și datele utilizate sau produse de inteligența artificială, robotică și tehnologiile conexe ar trebui considerate părtinitoare atunci când, de exemplu, prezintă rezultate sub nivelul optim în raport cu orice persoană sau grup de persoane, pe baza unei percepții personale sau sociale preconcepute și a prelucrării ulterioare a datelor referitoare la caracteristicile lor.

(24)

În conformitate cu dreptul Uniunii, programele informatice, algoritmii și datele utilizate sau produse de inteligența artificială, robotică și tehnologiile conexe ar trebui să fie considerate discriminatorii atunci când produc rezultate care au efecte negative disproporționate și tratează o persoană sau un grup de persoane în mod diferit, inclusiv prin faptul că le plasează într-o poziție dezavantajoasă atunci când sunt comparate cu altele, pe motive precum trăsăturile lor personale, fără o justificare obiectivă sau rezonabilă și indiferent de orice declarație de neutralitate privind aceste tehnologii.

(25)

În conformitate cu dreptul Uniunii, obiectivele legitime care, în conformitate cu prezentul regulament, ar putea justifica în mod obiectiv orice tratament diferențiat între persoane sau grupuri de persoane sunt protecția siguranței publice, a securității și a sănătății, prevenirea infracțiunilor, protecția drepturilor și libertăților fundamentale, reprezentarea echitabilă și cerințele obiective pentru exersarea unei profesii.

(26)

Inteligența artificială, robotica și tehnologiile conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii ar trebui să contribuie la un progres durabil. Astfel de tehnologii nu ar trebui să contravină cauzei conservării mediului sau a tranziției verzi. Ele pot juca un rol important în realizarea obiectivelor de dezvoltare durabilă stabilite de Organizația Națiunilor Unite, pentru a le permite generațiilor viitoare să prospere. Aceste tehnologii pot sprijini monitorizarea progreselor adecvate pe baza indicatorilor de durabilitate și de coeziune socială și prin utilizarea unor instrumente de cercetare și inovare responsabile, care necesită mobilizarea de resurse de către Uniune și statele sale membre pentru a sprijini și a investi în proiecte ce vizează aceste obiective.

(27)

Dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de aceste tehnologii, nu ar trebui în niciun caz să provoace deliberat sau, prin felul în care sunt concepute, să accepte vătămări sau prejudicii persoanelor sau societății. Prin urmare, în special tehnologiile cu grad ridicat de risc ar trebui dezvoltate, implementate și utilizate într-un mod responsabil din punct de vedere social.

(28)

Prin urmare, dezvoltatorii, operatorii și utilizatorii ar trebui să fie considerați responsabili, în funcție de gradul lor de implicare în inteligența artificială, în robotică și în tehnologiile conexe în cauză, și în conformitate cu normele naționale și ale Uniunii privind răspunderea, pentru orice vătămări sau prejudicii cauzate persoanelor și societății.

(29)

În special, dezvoltatorii care iau decizii care determină și controlează cursul sau modul de dezvoltare a inteligenței artificiale, a roboticii și a tehnologiilor conexe, precum și operatorii care sunt implicați în implementarea lor, prin luarea de decizii legate de implementare și prin exercitarea controlului asupra riscurilor asociate sau prin faptul că beneficiază de această implementare, și au o funcție operațională sau de gestionare, ar trebui să fie considerați, în general, responsabili pentru evitarea oricăror astfel de vătămări sau prejudicii, prin aplicarea unor măsuri adecvate în timpul procesului de dezvoltare și, respectiv, prin respectarea acestor măsuri în faza de implementare.

(30)

Inteligența artificială, robotica și tehnologiile conexe responsabile din punct de vedere social, inclusiv programele informatice, algoritmii și datele utilizate sau produse de aceste tehnologii, pot fi definite ca tehnologii care contribuie la găsirea de soluții care protejează și promovează diferite obiective ale societății, în special democrația, sănătatea și prosperitatea economică, egalitatea de șanse, drepturile lucrătorilor și drepturile sociale, o mass-media diversificată și independentă și informații obiective și disponibile în mod gratuit, care să permită dezbaterea publică, educația de calitate, diversitatea culturală și lingvistică, echilibrul de gen, alfabetizarea digitală, inovarea și creativitatea. Sunt, de asemenea, cele care sunt dezvoltate, implementate și utilizate ținând seama în mod corespunzător de impactul lor final asupra bunăstării fizice și mentale a cetățenilor și care nu promovează discursul de incitare la ură sau violență. Aceste obiective ar trebui realizate în special cu ajutorul tehnologiilor cu grad ridicat de risc.

(31)

Inteligența artificială, robotica și tehnologiile conexe ar trebui, de asemenea, să fie dezvoltate, implementate și utilizate pentru a sprijini incluziunea socială, democrația, pluralitatea, solidaritatea, echitatea, egalitatea și cooperarea, iar potențialul lor în acest context ar trebui exploatat la maximum și explorat prin proiecte de cercetare și inovare. Prin urmare, Uniunea și statele sale membre ar trebui să își mobilizeze resursele pentru a sprijini aceste proiecte și a investi în ele.

(32)

Proiectele legate de potențialul inteligenței artificiale, al roboticii și al tehnologiilor conexe pentru a aborda problema bunăstării sociale ar trebui să se desfășoare pe baza unor instrumente de cercetare și inovare responsabile, astfel încât să se garanteze, încă de la început, că aceste proiecte respectă principiile etice.

(33)

Dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, ar trebui să ia în considerare amprenta lor de mediu. În conformitate cu obligațiile prevăzute de dreptul aplicabil al Uniunii, astfel de tehnologii nu ar trebui să dăuneze mediului pe durata ciclului lor de viață și de-a lungul întregului lor lanț de aprovizionare și ar trebui să fie dezvoltate, instalate și utilizate într-un mod care să protejeze mediul, să atenueze și să remedieze amprenta de mediu a acestora, să contribuie la tranziția ecologică și să sprijine îndeplinirea obiectivelor privind neutralitatea climatică și economia circulară.

(34)

În scopul prezentului regulament, dezvoltatorii, operatorii și utilizatorii ar trebui să fie considerați responsabili, în funcție de gradul lor respectiv de implicare în dezvoltarea, implementarea sau utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe considerate cu grad ridicat de risc, pentru orice daună adusă mediului, în conformitate cu normele aplicabile privind răspunderea pentru mediul înconjurător.

(35)

Aceste tehnologii ar trebui, de asemenea, să fie dezvoltate, implementate și utilizate pentru a sprijini îndeplinirea obiectivelor de mediu în conformitate cu obligațiile prevăzute în dreptul Uniunii, cum ar fi reducerea producției de deșeuri și a amprentei de carbon, combaterea schimbărilor climatice și conservarea mediului, iar potențialul lor în acest context ar trebui exploatat la maximum și explorat prin proiecte de cercetare și inovare. Prin urmare, Uniunea și statele sale membre ar trebui să își mobilizeze resursele administrative, financiare și de comunicare pentru a sprijini aceste proiecte și a investi în ele.

(36)

Proiectele legate de potențialul inteligenței artificiale, al roboticii și al tehnologiilor conexe pentru a găsi o soluție la preocupările legate de mediu ar trebui să se desfășoare pe baza unor instrumente de cercetare și inovare responsabile, astfel încât să se garanteze, încă de la început, că aceste proiecte respectă principiile etice.

(37)

Orice tehnologii de inteligență artificială, robotică și tehnologii conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de aceste tehnologii, care sunt dezvoltate, implementate și utilizate în Uniune ar trebui să respecte pe deplin drepturile cetățenilor europeni la protecția vieții private și a datelor cu caracter personal. În special, dezvoltarea, implementare și utilizarea lor ar trebui să respecte Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului (2) și Directiva 2002/58/CE a Parlamentului European și a Consiliului (3).

(38)

În special, limitele etice ale utilizării inteligenței artificiale, roboticii și tehnologiilor conexe, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de aceste tehnologii ar trebui luate în considerare în mod corespunzător atunci când sunt utilizate tehnologii de recunoaștere la distanță, cum ar fi recunoașterea caracteristicilor biometrice, îndeosebi recunoașterea facială, pentru a identifica automat persoanele. Atunci când aceste tehnologii sunt utilizate de autoritățile publice din motive de interes public major, și anume pentru a garanta securitatea persoanelor și pentru a aborda situațiile de urgență la nivel național și pentru a nu garanta securitatea proprietăților, utilizarea ar trebui să fie întotdeauna comunicată, proporțională, specifică și limitată la obiective specifice și limitată în timp, în conformitate cu dreptul Uniunii și ținând seama în mod corespunzător de demnitatea și de autonomia umană, precum și de drepturile fundamentale prevăzute în Cartă. Criteriile și limitele pentru această utilizare ar trebui să facă obiectul controlului jurisdicțional și al controlului democratic, precum și al unei dezbateri la care să participe societatea civilă.

(39)

Guvernanța bazată pe standarde relevante sporește siguranța și promovează creșterea încrederii cetățenilor în dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a programelor de calculator, a algoritmilor și a datelor utilizate sau produse de aceste tehnologii.

(40)

Autoritățile publice ar trebui să efectueze evaluări de impact privind drepturile fundamentale înainte de implementarea tehnologiilor cu risc ridicat care să ofere o bază pentru deciziile luate în sectorul public și care au un impact direct și semnificativ asupra drepturilor și obligațiilor cetățenilor.

(41)

Printre standardele de guvernanță relevante existente se numără, de exemplu, „Orientările de etică privind utilizarea în condiții fiabile a inteligenței artificiale”, elaborate de Grupul de experți la nivel înalt al Comisiei Europene, precum și orice alte standarde tehnice, cum ar fi cele adoptate de Comitetul European de Standardizare (CEN), Comitetul European de Standardizare în Electrotehnică (CENELEC) și Institutul European de Standardizare în Telecomunicații (ETSI), la nivel european, Organizația Internațională de Standardizare (ISO) și Institutul Inginerilor Electricieni și Electroniști (IEEE), la nivel internațional.

(42)

Partajarea și utilizarea datelor de mai mulți participanți sunt sensibile și, prin urmare, dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe ar trebui să fie reglementate de norme, standarde și protocoale relevante, care să reflecte cerințele de calitate, integritate, securitate, confidențialitate și control. Strategia de guvernanță a datelor ar trebui să se axeze pe prelucrarea, partajarea și accesul la aceste date, inclusiv pe gestionarea, posibilitatea de auditare și trasabilitatea corespunzătoare a acestora, și să garanteze protecția adecvată a datelor care aparțin grupurilor vulnerabile, inclusiv persoanelor cu dizabilități, pacienților, copiilor, minorităților și migranților sau altor grupuri expuse riscului de excluziune. În plus, dezvoltatorii, operatorii și utilizatorii ar trebui să poate, după caz, să se bazeze pe indicatorii-cheie de performanță în evaluarea seturilor de date pe care le utilizează în vederea creșterii fiabilității pe care le dezvoltă, le implementează și le utilizează.

(43)

Statele membre ar trebui să numească o autoritate administrativă independentă care să acționeze ca autoritate de supraveghere. În special, fiecare autoritate națională de supraveghere ar trebui să fie responsabilă de identificarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, considerate a avea un risc ridicat din perspectiva criteriilor de evaluare a riscurilor prevăzute în prezentul regulament, precum și de evaluarea și monitorizarea conformității acestor tehnologii cu obligațiile prevăzute în prezentul regulament.

(44)

Fiecare autoritate națională de supraveghere ar trebui să fie responsabilă de guvernanța acestor tehnologii, sub coordonarea Comisiei și/sau instituțiilor, organelor, oficiilor sau agențiilor Uniunii pertinente desemnate în acest scop. De aceea, acestea joacă un rol important în promovarea încrederii și a siguranței cetățenilor Uniunii, precum și în crearea unei societăți democratice, pluraliste și echitabile.

(45)

În scopul evaluării tehnologiilor care prezintă un grad ridicat de risc în conformitate cu prezentul regulament și a monitorizării conformității acestora cu prezentul regulament, autoritățile naționale de supraveghere ar trebui, dacă este cazul, să coopereze cu autoritățile responsabile de evaluarea și monitorizarea acestor tehnologii și de asigurarea respectării legislației lor sectoriale.

(46)

Autoritățile naționale de supraveghere ar trebui să coopereze în mod substanțial și periodic între ele, precum și cu Comisia Europeană și alte instituții, organe, oficii și agenții relevante ale Uniunii, pentru a garanta o acțiune transfrontalieră coerentă și pentru a permite dezvoltarea, implementarea și utilizarea în mod coerent a acestor tehnologii în Uniune, în conformitate cu principiile etice și obligațiile legale stabilite în prezentul regulament.

(47)

În contextul unei astfel de cooperări și în vederea unei armonizări depline la nivelul Uniunii, autoritățile naționale de supraveghere ar trebui să sprijine Comisia în ceea ce privește elaborarea unei liste comune și exhaustive a inteligenței artificiale, a roboticii și a tehnologiilor conexe cu grad ridicat de risc, în conformitate cu criteriile prevăzute în prezentul regulament și în anexa la acesta. În plus, ar trebui elaborată procedura de acordare a unui certificat european de conformitate etică, care să includă un proces de depunere voluntară a cererilor pentru dezvoltatorii, operatorii de rețea sau utilizatorii de tehnologii neconsiderate ca având un grad ridicat de risc care au intenția să certifice conformitatea acestor tehnologii cu prezentul regulament.

(48)

Autoritățile naționale de supraveghere ar trebui să asigure reunirea unui număr maxim de părți interesate, cum ar fi industria, întreprinderile, partenerii sociali, cercetătorii, consumatorii și organizațiile societății civile, și să ofere un forum de reflecție și de schimb de opinii pluralist, astfel încât să se ajungă la concluzii clare și precise pentru a orienta modul în care este reglementată guvernanța.

(49)

Autoritățile naționale de supraveghere ar trebui să asigure reunirea unui număr maxim de părți interesate, cum ar fi industria, întreprinderile, partenerii sociali, cercetătorii, consumatorii și organizațiile societății civile, și să ofere un forum de reflecție și de schimb de opinii pluralist, pentru a înlesni cooperarea și colaborarea dintre părțile interesate, îndeosebi din mediul universitar, din cercetare, din industrie, din societatea civilă, precum și experții individuali, astfel încât să se ajungă la concluzii clare și precise pentru a orienta modul în care este reglementată guvernanța.

(50)

În plus, aceste autorități naționale de supraveghere ar trebui să ofere îndrumare și sprijin administrativ profesional dezvoltatorilor, operatorilor și utilizatorilor, în special întreprinderilor mici și mijlocii sau întreprinderilor nou-înființate, care se confruntă cu dificultăți în ceea ce privește respectarea principiilor etice și obligațiilor legale stabilite în prezentul regulament.

(51)

Comisia și/sau instituțiile, organele, oficiile și agențiile relevante ale Uniunii care pot fi desemnate în acest scop ar trebui să stabilească orientări obligatorii privind metodologia care trebuie utilizată de autoritățile naționale de supraveghere atunci când efectuează evaluarea conformității.

(52)

Prin avertizarea de integritate în interes public se atrage atenția autorităților cu privire la încălcările potențiale și reale ale dreptului Uniunii pentru a preveni vătămările, daunele sau prejudiciile care, altminteri, ar avea loc. În plus, procedurile de raportare ameliorează fluxul de informații în cadrul societăților și al organizațiilor, reducând astfel riscul apariției unor produse sau servicii defectuoase sau eronate. Întreprinderile și organizațiile care dezvoltă, implementează sau utilizează inteligența artificială, robotica și tehnologiile conexe, inclusiv datele utilizate sau produse de aceste tehnologii, ar trebui să creeze canale de raportare, iar persoanele care raportează încălcări ar trebui să fie protejate împotriva represaliilor.

(53)

Dezvoltarea rapidă a inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv a software-urilor, a algoritmilor și a datelor utilizate sau produse de aceste tehnologii, precum și a sistemelor de învățare automată, a proceselor de raționament și a altor tehnologii care stau la baza acestei dezvoltări, sunt imprevizibile. Ca atare, este oportun și necesar să se creeze un mecanism de revizuire în conformitate cu care, pe lângă raportarea privind aplicarea regulamentului, Comisia urmează să prezinte periodic un raport privind posibila modificare a domeniului de aplicare al prezentului regulament.

(54)

Deoarece obiectivul prezentului regulament, și anume stabilirea unui cadru de reglementare comun bazat pe principii etice și obligații legale pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în Uniune nu poate fi realizat în mod satisfăcător de statele membre, ci, având în vedere dimensiunile și efectele sale, poate fi realizat mai bine la nivelul Uniunii, Uniunea poate adopta măsuri în conformitate cu principiul subsidiarității prevăzut la articolul 5 din Tratatul privind Uniunea Europeană. În conformitate cu principiul proporționalității, enunțat la articolul respectiv, prezentul regulament nu depășește ceea ce este necesar pentru realizarea obiectivului menționat.

(55)

Coordonarea la nivelul Uniunii, astfel cum se prevede în prezentul regulament, ar fi realizată cel mai bine de către Comisie și/sau instituțiile, organele, oficiile și agențiile Uniunii relevante care pot fi desemnate în acest context, pentru a evita fragmentarea și a asigura aplicarea coerentă a prezentului regulament. Prin urmare, Comisia ar trebui să fie însărcinată cu găsirea unei soluții adecvate pentru a structura această coordonare la nivelul Uniunii în vederea coordonării mandatelor și acțiunilor autorităților naționale de supraveghere din fiecare stat membru, și anume în ceea ce privește evaluarea riscurilor prezentate de inteligența artificială, de robotică și de tehnologiile conexe, stabilirea unui cadru comun pentru guvernanța dezvoltării, implementării și utilizării acestor tehnologii, elaborarea și eliberarea unei certificări a conformității cu principiile etice și obligațiile legale prevăzute în prezentul regulament, sprijinirea schimburilor periodice cu părțile interesate și cu societatea civilă în cauză, crearea unui centru de expertiză, reunirea mediului academic, a cercetării, a industriei și a experților individuali la nivelul Uniunii pentru a încuraja schimbul de cunoștințe și de expertiză tehnică și promovarea abordării Uniunii prin intermediul cooperării internaționale și asigurarea unui răspuns coerent la nivel mondial pentru oportunitățile și riscurile inerente acestor tehnologii,

ADOPTĂ PREZENTUL REGULAMENT:

Capitolul I

Dispoziții generale

Articolul 1

Scopul

Scopul prezentului regulament este de a crea un cadru de reglementare al Uniunii cuprinzător și adaptat la exigențele viitorului, bazat pe principii etice și obligații legale pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe în Uniune.

Articolul 2

Domeniul de aplicare

Prezentul regulament se aplică inteligenței artificiale, roboticii și tehnologiilor conexe, inclusiv programelor informatice, algoritmilor și datelor utilizate sau produse de aceste tehnologii, care sunt dezvoltate, implementate sau utilizate în Uniune.

Articolul 3

Domeniul de aplicare geografic

Prezentul regulament se aplică inteligenței artificiale, roboticii și tehnologiilor conexe, în cazul în care orice parte a acestora este dezvoltată, implementată sau utilizată în Uniune, indiferent dacă programele informatice, algoritmii sau datele utilizate sau produse de aceste tehnologii sunt localizate în afara Uniunii sau nu au o locație geografică specifică.

Articolul 4

Definiții

În sensul prezentului regulament, se aplică următoarele definiții:

(a)

„inteligență artificială” (IA) înseamnă un sistem fie bazat pe programe informatice, fie integrat în dispozitive hardware, al cărui comportament prezintă inteligență, printre altele prin colectarea, prelucrarea, analiza și interpretarea mediului său și efectuarea unor acțiuni, cu un anumit grad de autonomie, pentru a atinge obiective specifice (4);

(b)

„autonomie” înseamnă un sistem de IA care funcționează prin interpretarea anumitor inputuri și utilizarea unui set de instrucțiuni predeterminate, fără a se limita la acestea, deși comportamentul sistemului este limitat și direcționat de îndeplinirea obiectivului care i s-a stabilit și de alte opțiuni relevante de proiectare ale dezvoltatorului;

(c)

„robotică” înseamnă tehnologii care permit mașinilor controlate în mod automat, reprogramabile și multifuncționale (5) să realizeze, în lumea fizică, acțiuni care sunt efectuate sau inițiate, de obicei, de ființe umane, inclusiv prin intermediul inteligenței artificiale sau al tehnologiilor conexe;

(d)

„tehnologii conexe” înseamnă tehnologii care permit unui software să controleze cu o autonomie parțială sau totală un proces fizic sau virtual, tehnologii capabile să depisteze date biometrice, genetice sau altfel de date și tehnologii care copiază sau utilizează în alt mod trăsături umane;

(e)

„grad ridicat de risc” înseamnă un risc semnificativ determinat de dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, de a provoca vătămări sau prejudicii persoanelor sau societății, prin încălcarea drepturilor fundamentale și a normelor de siguranță, așa cum sunt prevăzute în dreptul Uniunii, având în vedere utilizarea sau scopul lor specific, sectorul în care sunt dezvoltate, implementate sau utilizate, precum și gravitatea vătămărilor sau a prejudiciilor care ar putea să apară;

(f)

„dezvoltare” înseamnă construirea și conceperea de algoritmi, scrierea și conceperea de programe informatice sau colectarea, stocarea și gestionarea datelor în scopul creării sau al antrenării inteligenței artificiale, a roboticii și a tehnologiilor conexe sau în scopul creării unei noi aplicații pentru inteligența artificială, robotica și tehnologiile conexe existente;

(g)

„dezvoltator” înseamnă orice persoană fizică sau juridică care ia decizii pentru a determina și controla direcția sau modul de dezvoltare a inteligenței artificiale, a roboticii și a tehnologiilor conexe;

(h)

„implementare” înseamnă exploatarea și gestionarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, precum și introducerea lor pe piață sau punerea lor la dispoziția utilizatorilor;

(i)

„operator” înseamnă orice persoană fizică sau juridică care este implicată în implementarea specifică a inteligenței artificiale, a roboticii și a tehnologiilor conexe cu o funcție de control sau de gestionare, prin luarea deciziilor, exercitarea controlului asupra riscului și beneficierea de pe urma unei astfel de implementări;

(j)

„utilizare” înseamnă orice acțiune legată de inteligența artificială, robotică și tehnologiile conexe, altele decât dezvoltarea sau implementarea;

(k)

„utilizator” înseamnă orice persoană fizică sau juridică care utilizează inteligența artificială, robotica și tehnologiile conexe în alte scopuri decât dezvoltarea sau implementarea;

(l)

„părtinire” înseamnă orice percepție personală sau socială, bazată pe prejudecăți a unei persoane sau a unui grup de persoane pe baza trăsăturilor lor personale;

(m)

„discriminare” înseamnă orice tratament diferențiat al unei persoane sau al unui grup de persoane, pe baza unui motiv care nu are o justificare obiectivă sau rezonabilă și, prin urmare, este interzis de dreptul Uniunii;

(n)

„vătămări sau prejudicii” înseamnă, inclusiv în cazul în care sunt provocate de discursul de incitare la ură, părtinire, discriminare sau de stigmatizare, vătămări fizice sau mentale, prejudicii materiale sau imateriale, cum ar fi pierderile financiare sau economice, pierderea locului de muncă sau a oportunităților educaționale, restrângerea nejustificată a libertății de alegere sau exprimare sau afectarea vieții private și orice încălcare a dreptului Uniunii care este în detrimentul unei persoane;

(o)

„bună guvernanță” înseamnă modalitatea de a garanta că dezvoltatorii, operatorii și utilizatorii adoptă și respectă standarde și protocoale adecvate și rezonabile de comportament, pe baza unui set formal de norme, proceduri și valori, care le permite să trateze în mod corespunzător aspectele etice, pe măsură ce acestea apar sau înainte ca ele să apară.

Articolul 5

Principiile etice ale inteligenței artificiale, roboticii și tehnologiilor conexe

(1)   Inteligența artificială, robotica și tehnologiile conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt dezvoltate, implementate și utilizate în Uniune în conformitate cu dreptul Uniunii și cu respectarea deplină a demnității umane, autonomiei și a siguranței, precum și a altor drepturi fundamentale stabilite în Cartă.

(2)   Toate prelucrările de date cu caracter personal efectuate în dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe, inclusiv de date cu caracter personal derivate din date fără caracter personal și date biometrice, se desfășoară în conformitate cu Regulamentul (UE) 2016/679 și cu Directiva 2002/58/CE.

(3)   Uniunea și statele sale membre încurajează proiectele de cercetare menite să ofere soluții, bazate pe inteligența artificială, robotică și tehnologiile conexe, care urmăresc să promoveze incluziunea socială, democrația, pluralitatea, solidaritatea, echitatea, egalitatea și cooperarea.

Capitolul II

Obligații privind tehnologiile cu grad ridicat de risc

Articolul 6

Obligații privind tehnologiile cu grad ridicat de risc

(1)   Dispozițiile prezentului capitol se aplică numai inteligenței artificiale, roboticii și tehnologiilor conexe, inclusiv programelor informatice, algoritmilor și datelor utilizate sau produse de aceste tehnologii, care sunt dezvoltate, implementate sau utilizate în Uniune și care sunt considerate a prezenta un risc ridicat.

(2)   Inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt dezvoltate, implementate și utilizate într-un mod care garantează că nu încalcă principiile etice stabilite în prezentul regulament.

Articolul 7

Inteligența artificială centrată pe factorul uman și creată de om

(1)   Tehnologiile de inteligență artificială cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt dezvoltate, implementate și utilizate într-o manieră care garantează deplina supraveghere umană în permanență.

(2)   Tehnologiile menționate la alineatul (1) sunt dezvoltate, implementate și utilizate într-un mod care permite redobândirea controlului uman deplin atunci când este necesar, inclusiv prin modificarea sau dezactivarea acestor tehnologii.

Articolul 8

Siguranța, transparența și responsabilitatea

(1)   Inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt dezvoltate, implementate și utilizate într-un mod care garantează că sunt:

(a)

dezvoltate, implementate și utilizate într-un mod rezilient astfel încât să asigure un nivel adecvat de securitate, respectând valorile de referință minime în materie de securitate cibernetică, proporțional cu riscul identificat, care să prevină exploatarea oricăror vulnerabilități tehnice în scopuri rău-intenționate sau ilegale;

(b)

dezvoltate, implementate și utilizate într-un mod sigur care asigură existența unor garanții care includ un plan și măsuri de rezervă în cazul unui risc în materie de siguranță sau de securitate;

(c)

dezvoltate, implementate și utilizate într-un mod care asigură o performanță fiabilă, potrivit așteptărilor rezonabile ale utilizatorului în ceea ce privește atingerea obiectivelor și desfășurarea activităților pentru care au fost concepute, inclusiv prin asigurarea reproductibilității tuturor operațiunilor;

(d)

dezvoltate, implementate și utilizate într-un mod care asigură precizia execuției obiectivelor și activităților tehnologiilor specifice; dacă inexactitățile ocazionale nu pot fi evitate, sistemul le indică operatorilor și utilizatorilor, în măsura posibilului, probabilitatea erorilor și inexactităților prin mijloace adecvate;

(e)

dezvoltate, implementate și utilizate într-un mod care poate fi explicat ușor pentru a asigura posibilitatea examinării proceselor tehnice ale tehnologiilor;

(f)

dezvoltate, implementate și utilizate în așa fel încât să îi informeze pe utilizatori că interacționează cu sisteme de inteligență artificială, dezvăluind în mod adecvat și detaliat capacitățile, precizia și limitările lor dezvoltatorilor, operatorilor și utilizatorilor inteligenței artificiale;

(g)

în conformitate cu articolul 6, dezvoltate, implementate și utilizate într-un mod care permite, în cazul nerespectării elementelor de siguranță menționate la literele (a)-(g), dezactivarea temporară a funcțiilor vizate și revenirea la o stare anterioară, restabilind funcțiile sigure.

(2)   În conformitate cu articolul 6 alineatul (1), tehnologiile menționate la alineatul (1) de la prezentul articol, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt dezvoltate, implementate și utilizate într-un mod transparent și trasabil astfel încât elementele, procesele și fazele lor să fie documentate în conformitate cu cele mai înalte standarde posibile și aplicabile și să fie posibil ca autoritățile naționale de supraveghere menționate la articolul 18 să evalueze conformitatea acestor tehnologii cu obligațiile stabilite în prezentul regulament. În special, dezvoltatorii, operatorii sau utilizatorii acestor tehnologii sunt responsabili de respectarea elementelor de siguranță prevăzute la alineatul (1), fiind în măsură să o demonstreze.

(3)   Dezvoltatorii, operatorii sau utilizatorii tehnologiilor menționate la alineatul (1) se asigură că măsurile luate pentru a asigura respectarea elementelor de siguranță prevăzute la alineatul (1) pot fi verificate de autoritățile naționale de supraveghere menționate la articolul 18 sau, după caz, de alte organisme naționale sau europene de supraveghere sectorială.

Articolul 9

Imparțialitatea și nediscriminarea

(1)   Orice programe informatice, algoritmi sau date utilizate sau produse de inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, dezvoltate, implementate și utilizate în Uniune sunt imparțiale și, fără a aduce atingere alineatului (2), nu discriminează pe motive de rasă, gen, orientare sexuală, sarcină, dizabilitate, trăsături fizice sau genetice, vârstă, apartenență la o minoritate națională, origine etnică sau socială, limbă, religie sau convingeri, opinii politice sau participare civică, cetățenie, statut civil sau economic, educație sau cazier judiciar.

(2)   Prin derogare de la alineatul (1) și fără a aduce atingere dreptului Uniunii care reglementează discriminarea ilegală, orice tratament care diferențiază între persoane sau grupuri de persoane se poate justifica doar dacă există un scop obiectiv, rezonabil și legitim care este atât proporțional, cât și necesar în măsura în care nu există o alternativă care să afecteze mai puțin principiul egalității de tratament.

Articolul 10

Responsabilitatea socială și egalitatea de gen

Inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, dezvoltate, implementate și utilizate în Uniune sunt dezvoltate, implementate și utilizate în conformitate cu dreptul, principiile și valorile relevante ale Uniunii, într-un mod care nu afectează alegerile sau nu contribuie la diseminarea dezinformării, respectă drepturile lucrătorului, promovează educația de calitate și alfabetizarea digitală, nu sporește decalajul de gen prin împiedicarea egalității de șanse pentru toți și respectă drepturile de proprietate intelectuală și orice restricții sau excepții în materie.

Articolul 11

Sustenabilitatea mediului

Inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt evaluate de autoritățile naționale de supraveghere menționate la articolul 18 sau, după caz, de alte organisme naționale sau europene de supraveghere sectorială pentru a se vedea dacă sunt sustenabile din punctul de vedere al mediului, asigurându-se că sunt luate măsuri pentru a atenua și a remedia impactul lor general în ceea ce privește resursele naturale, consumul de energie, producerea de deșeuri, amprenta de carbon, urgența schimbărilor climatice și degradarea mediului, cu scopul de a asigura respectarea legislației aplicabile la nivelul Uniunii sau la nivel național, precum și a altor angajamente internaționale asumate de Uniune în domeniul mediului.

Articolul 12

Respectarea vieții private și protecția datelor cu caracter personal

Utilizarea și colectarea de date biometrice în scopuri de identificare de la distanță în zone publice, cum ar fi recunoașterea biometrică sau facială, implică riscuri specifice pentru drepturile fundamentale și sunt implementate sau utilizate numai de către autoritățile publice ale statelor membre în scopuri de interes public esențial. Autoritățile respective se asigură că o astfel de implementare sau utilizare este făcută publică, proporțională, specifică și limitată la anumite obiective și locații și limitată în timp, în conformitate cu dreptul Uniunii și cu dreptul intern, în special cu Regulamentul (UE) 2016/679 și cu Directiva 2002/58/CE și cu respectarea demnității și a autonomiei umane și a drepturilor fundamentale prevăzute în Cartă, și anume dreptul la respectarea vieții private și la protecția datelor cu caracter personal.

Articolul 13

Dreptul la căi de atac

Orice persoană fizică sau juridică are dreptul de a solicita măsuri reparatorii pentru vătămările sau prejudiciile cauzate de dezvoltarea, implementarea și utilizarea inteligenței artificiale, roboticii și a tehnologiilor conexe cu grad ridicat de risc, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, cu încălcarea dreptului Uniunii și a obligațiilor prevăzute în prezentul regulament.

Articolul 14

Evaluarea riscurilor

(1)   În sensul prezentului regulament, inteligența artificială, robotica și tehnologiile conexe, inclusiv programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, sunt considerate tehnologii cu grad ridicat de risc în cazul în care, în urma unei evaluări a riscurilor bazate pe criterii obiective, cum ar fi utilizarea lor sau scopul lor specifice, sectorul în care acestea sunt dezvoltate, implementate sau utilizate, precum și gravitatea eventualelor vătămări sau prejudicii cauzate, dezvoltarea, implementarea sau utilizarea acestora implică un risc semnificativ de a provoca vătămări sau prejudicii persoanelor sau societății cu încălcarea drepturilor fundamentale și normelor de siguranță, astfel cum sunt prevăzute în dreptul Uniunii.

(2)   Fără a aduce atingere legislației sectoriale aplicabile, evaluarea riscurilor prezentate de inteligența artificială, robotică și de tehnologiile conexe, inclusiv de programele informatice, algoritmii și datele utilizate sau produse de astfel de tehnologii, este efectuată în conformitate cu criteriile obiective prevăzute la alineatul (1) de la prezentul articol și în lista exhaustivă și cumulativă stabilită în anexa la prezentul regulament, de către autoritățile naționale de supraveghere menționate la articolul 18, sub coordonarea Comisiei și/sau a altor instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest scop în contextul cooperării lor.

(3)   În cooperare cu autoritățile naționale de supraveghere menționate la alineatul (2), Comisia, prin intermediul unor acte delegate în conformitate cu articolul 20, elaborează și actualizează ulterior o listă comună de tehnologii cu grad ridicat de risc identificate în Uniune.

(4)   De asemenea, Comisia actualizează periodic, prin intermediul unor acte delegate, în conformitate cu articolul 20, lista prevăzută în anexa la prezentul regulament.

Articolul 15

Evaluarea conformității

(1)   Inteligența artificială, robotica și tehnologiile conexe cu grad ridicat de risc fac obiectul unei evaluări a conformității cu obligațiile prevăzute la articolele 6-12 din prezentul regulament, precum și a monitorizării ulterioare, ambele fiind efectuate de autoritățile naționale de supraveghere menționate la articolul 18 sub coordonarea Comisiei și/sau a altor instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest scop.

(2)   Programele informatice, algoritmii și datele utilizate sau produse de tehnologii cu grad ridicat de risc care au fost evaluate ca respectând obligațiile stabilite în prezentul regulament în temeiul alineatului (1) sunt considerate, de asemenea, conforme cu respectivele obligații, cu excepția cazului în care autoritatea națională relevantă de supraveghere decide să efectueze o evaluare din proprie inițiativă sau la cererea dezvoltatorului, a operatorului sau a utilizatorului.

(3)   Fără a aduce atingere legislației sectoriale, Comisia și/sau instituțiile, organele, oficiile și agențiile relevante ale Uniunii care pot fi desemnate în mod specific în acest scop pregătesc orientări obligatorii privind metodologia care trebuie utilizată de autoritățile naționale de supraveghere atunci când efectuează evaluarea conformității menționată la alineatul (1) de la data intrării în vigoare a prezentului regulament.

Articolul 16

Certificatul european de conformitate etică

(1)   În cazul în care a existat o evaluare pozitivă a conformității inteligenței artificiale, roboticii și a tehnologiilor conexe cu grad ridicat de risc, inclusiv a programelor informatice, a algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, efectuată în conformitate cu articolul 15, respectiva autoritate națională de supraveghere emite un certificat european de conformitate etică.

(2)   Dezvoltatorii, operatorii sau utilizatorii de tehnologii bazate pe inteligența artificială, robotică și tehnologii conexe, inclusiv programe informatice, algoritmi și date utilizate sau produse de astfel de tehnologii, care nu sunt considerate ca având un grad ridicat de risc și care, prin urmare, nu fac obiectul obligațiilor prevăzute la articolele 6-12 și evaluării riscurilor și evaluării conformității prevăzute la articolele 14 și 15, pot, de asemenea, să solicite certificarea respectării obligațiilor prevăzute în prezentul regulament sau a unei părți a acestora, în cazul în care acest lucru este justificat de natura tehnologiei în cauză, așa cum decid autorităților naționale de supraveghere. Se eliberează un certificat numai în cazul în care o evaluare a conformității a fost efectuată de autoritatea națională de supraveghere competentă, iar evaluarea respectivă este pozitivă.

(3)   În scopul emiterii certificatului menționat la alineatul (2), Comisia și/sau alte instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest scop elaborează un proces de solicitare.

Capitolul III

Supravegherea instituțională

Articolul 17

Standarde de guvernanță și orientări de punere în aplicare

(1)   Inteligența artificială, robotica și tehnologiile conexe dezvoltate, implementate sau utilizate în Uniune respectă standardele de guvernanță relevante stabilite în conformitate cu dreptul, principiile și valorile Uniunii de către autoritățile naționale de supraveghere menționate la articolul 18, în conformitate cu dreptul, principiile și valorile Uniunii, sub coordonarea Comisiei și/sau a oricăror instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest scop și în consultare cu părțile interesate relevante.

(2)   Standardele menționate la alineatul (1) includ orientări fără caracter obligatoriu privind punerea în aplicare a metodologiei pentru respectarea prezentului regulament de către dezvoltatori, operatori și utilizatori și sunt publicate până la data intrării în vigoare a prezentului regulament.

(3)   Datele utilizate sau produse de inteligența artificială, robotica și tehnologiile conexe dezvoltate, implementate sau utilizate în Uniune sunt administrate de dezvoltatori, operatori și utilizatori în conformitate cu standardele și normele relevante naționale, ale Uniunii și ale altor organizații europene și internaționale, precum și cu protocoalele industriale și comerciale relevante. În special, dezvoltatorii și operatorii efectuează, dacă este fezabil, verificări ale calității surselor externe ale datelor utilizate de inteligența artificială, robotică și tehnologiile conexe și instituie mecanisme de supraveghere în ceea ce privește colectarea, stocarea, procesarea și utilizarea lor.

(4)   Fără a aduce atingere drepturilor de portabilitate și drepturilor persoanelor a căror utilizare de inteligență artificială, robotică și tehnologii conexe cu grad ridicat de risc a generat date, colectarea, stocarea, procesarea, partajarea și accesul la date utilizate sau produse de inteligența artificială, robotica și tehnologiile conexe dezvoltate, implementate sau utilizate în Uniune respectă standardele și normele relevante naționale, ale Uniunii și ale altor organizații europene și internaționale, precum și cu protocoalele industriale și comerciale relevante. În special, dezvoltatorii și operatorii se asigură că aceste protocoale sunt aplicate pe parcursul dezvoltării și implementării inteligenței artificiale, roboticii și a tehnologiilor conexe, definind clar cerințele privind procesarea și acordarea accesului la date utilizate sau produse de aceste tehnologii, precum și scopul, sfera și destinatarii procesării și acordării accesului la astfel de date, toate acestea trebuind să fie verificabile și trasabile în orice moment.

Articolul 18

Autoritățile de supraveghere

(1)   Fiecare stat membru desemnează o autoritate publică independentă responsabilă de monitorizarea aplicării prezentului regulament („autoritatea de supraveghere”) și de realizarea evaluărilor de risc și de conformitate și a certificării prevăzute la articolele 14, 15 și 16, fără a aduce atingere legislației sectoriale.

(2)   Fiecare autoritate națională de supraveghere contribuie la aplicarea coerentă a prezentului regulament în întreaga Uniune. În acest scop, autoritățile de supraveghere din fiecare stat membru cooperează între ele, cu Comisia și/sau cu alte instituții, organe, oficii și agenții relevante ale Uniunii care pot fi desemnate în acest scop.

(3)   Fiecare autoritate națională de supraveghere este primul punct de contact în cazurile în care există suspiciuni de încălcare a principiilor etice și a obligațiilor legale prevăzute în prezentul regulament, inclusiv tratamentul discriminatoriu sau încălcarea altor drepturi, ca urmare a dezvoltării, implementării sau utilizării inteligenței artificiale, roboticii și a tehnologiilor conexe. În astfel de cazuri, autoritatea națională de supraveghere respectivă efectuează o evaluare a conformității pentru a sprijini dreptul cetățenilor de a contesta și de a exercita căi de atac.

(4)   Fiecare autoritate națională de supraveghere este responsabilă de supravegherea aplicării normelor și standardelor de guvernanță naționale, europene și internaționale relevante, menționate la articolul 17 privind inteligența artificială, robotică și tehnologiile conexe, inclusiv prin stabilirea de contacte cu cât mai multe părți interesate relevante. În acest scop, autoritățile de supraveghere din fiecare stat membru furnizează un forum pentru schimburile regulate cu părțile interesate din mediul academic, cercetare, industrie și societatea civilă și pentru schimburile dintre acestea.

(5)   Fiecare autoritate națională de supraveghere oferă orientare și sprijin profesional și administrativ cu privire la punerea în aplicare generală a dreptului Uniunii aplicabil inteligenței artificiale, roboticii și tehnologiilor conexe și a principiilor etice prevăzute în prezentul regulament, în special organizațiilor, întreprinderilor mici și mijlocii și întreprinderilor nou înființate relevante din domeniul cercetării și dezvoltării.

(6)   Fiecare stat membru notifică Comisiei Europene prevederile legale pe care le adoptă în temeiul prezentului articol până la … [JO: a se insera ca dată un an de la intrarea în vigoare] și, fără întârziere, orice modificare ulterioară care le afectează.

(7)   Statele membre iau toate măsurile necesare pentru a asigura punerea în aplicare a principiilor etice și a obligațiilor legale stabilite în prezentul regulament. Statele membre sprijină părțile interesate relevante și societatea civilă, atât la nivelul Uniunii, cât și la nivel național, în eforturile lor de a da un răspuns la timp, etic și bine informat la noile oportunități și provocări, în special cele de natură transfrontalieră, care decurg din evoluțiile tehnologice legate de inteligența artificială, robotică și tehnologiile conexe.

Articolul 19

Raportarea încălcărilor și protecția persoanelor care raportează

Se aplică Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului (6) în cazul raportării încălcării prezentului regulament și al protejării persoanelor care raportează astfel de încălcări.

Articolul 20

Coordonarea la nivelul Uniunii

(1)   Comisia și/sau instituțiile, organele, oficiile și agențiile relevante ale Uniunii care pot fi desemnate în acest context au următoarele sarcini:

asigurarea unei evaluări coerente a riscurilor privind inteligența artificială, robotica și tehnologiile conexe menționate la articolul 14 care urmează să fie efectuate de către autoritățile naționale de supraveghere menționate la articolul 18, pe baza criteriilor obiective comune prevăzute la articolul 8 alineatul (1) și în lista sectoarelor cu grad ridicat de risc și a utilizărilor sau scopurilor cu grad ridicat de risc stabilite în anexa la prezentul regulament;

constatarea realizării evaluării conformității și a monitorizării ulterioare a inteligenței artificiale, a roboticii și a tehnologiilor conexe cu grad ridicat de risc menționate la articolul 15, care urmează să fie efectuate de către autoritățile naționale de supraveghere menționate la articolul 18;

dezvoltarea procesului de solicitare a certificatului menționat la articolul 16 care este emis de autoritățile naționale de supraveghere menționate la articolul 18;

fără a aduce atingere legislației sectoriale, pregătirea orientărilor obligatorii menționate la articolul 17 alineatul (4) privind metodologia care urmează să fie utilizată de către autoritățile naționale de supraveghere menționate la articolul 18;

coordonarea stabilirii standardelor de guvernanță relevante menționate la articolul 17 de către autoritățile naționale de supraveghere menționate la articolul 18, inclusiv a orientărilor fără caracter obligatoriu de punere în aplicare a metodologiei de respectare a prezentului regulament pentru dezvoltatori, operatori și utilizatori;

cooperarea cu autoritățile naționale de supraveghere menționate la articolul 18 cu privire la contribuția acestora la aplicarea coerentă a prezentului regulament în întreaga Uniune, în conformitate cu articolul 18 alineatul (2);

servesc drept centru de expertiză prin promovarea schimbului de informații legate de inteligența artificială, robotică și de tehnologiile conexe și sprijinirea dezvoltării unei înțelegeri comune în cadrul pieței unice, emiterea de orientări, avize și expertiză suplimentare adresate autorităților naționale de supraveghere menționate la articolul 18, monitorizarea punerii în aplicare a legislației relevante a Uniunii, identificarea standardelor pentru cele mai bune practici și, dacă este cazul, prin formularea de recomandări privind măsuri de reglementare; în acest sens, agenția ar trebui să colaboreze cu cât mai multe părți interesate relevante și să se asigure că componența structurilor sale de decizie este diversă și asigură egalitatea de gen;

găzduirea unui grup de lucru pentru securitate și apărare care urmărește să analizeze chestiuni de politică și de investiții legate în mod specific de utilizarea etică a inteligenței artificiale, a roboticii și a tehnologiilor conexe în domeniul securității și al apărării.

Articolul 21

Exercitarea delegării de competențe

(1)   Competența de a adopta acte delegate este conferită Comisiei în condițiile prevăzute la prezentul articol.

(2)   Competența de a adopta acte delegate menționată la articolul 14 alineatele (3) și (4) se conferă Comisiei pe o perioadă de cinci ani de la … [data intrării în vigoare a prezentului regulament].

(3)   Delegarea de competențe menționată la articolul 14 alineatele (3) și (4) poate fi revocată oricând de către Parlamentul European sau de către Consiliu. O decizie de revocare pune capăt delegării de competențe specificate în decizia respectivă. Decizia produce efecte din ziua care urmează datei publicării acesteia în Jurnalul Oficial al Uniunii Europene sau de la o dată ulterioară menționată în decizie. Decizia nu aduce atingere actelor delegate care sunt deja în vigoare.

(4)   Înainte de a adopta un act delegat, Comisia consultă experții desemnați de fiecare stat membru în conformitate cu principiile stabilite în Acordul interinstituțional din 13 aprilie 2016 privind o mai bună legiferare.

(5)   De îndată ce adoptă un act delegat, Comisia îl notifică simultan Parlamentului European și Consiliului.

(6)   Un act delegat adoptat în temeiul articolului 14 alineatele (3) și (4) intră în vigoare numai în cazul în care nici Parlamentul European și nici Consiliul nu au formulat obiecții în termen de trei luni de la notificarea acestuia către Parlamentul European și Consiliu, sau în cazul în care, înainte de expirarea termenului respectiv, Parlamentul European și Consiliul au informat Comisia că nu vor formula obiecții. Respectivul termen se prelungește cu trei luni la inițiativa Parlamentului European sau a Consiliului.

Articolul 22

Modificare adusă Directivei (UE) 2019/1937

Directiva (UE) 2019/1937 se modifică după cum urmează:

1.

La articolul 2 alineatul (1), se adaugă următorul punct:

„(xi)

dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe.”

2.

În partea I din anexă, se adaugă următoarea literă:

„K.

Articolul 2 alineatul (1) litera (a) punctul (xi) – dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe.

«(xxi)

Regulamentul [XXX] al Parlamentului European și al Consiliului privind principiile etice pentru dezvoltarea, implementarea și utilizarea inteligenței artificiale, a roboticii și a tehnologiilor conexe».”

Articolul 23

Reexaminare

Comisia reexaminează periodic dezvoltarea inteligenței artificiale, roboticii și a tehnologiilor conexe, inclusiv a programelor informatice, algoritmilor și a datelor utilizate sau produse de astfel de tehnologii, și până la … [JO: a se insera ca dată trei ani după intrarea în vigoare], și, ulterior, o dată la trei ani, prezintă Parlamentului European, Consiliului și Comitetului Economic și Social European un raport privind aplicarea prezentului regulament, incluzând o evaluare a posibilei modificări a domeniului de aplicare al prezentului regulament.

Articolul 24

Intrarea în vigoare

Prezentul regulament intră în vigoare în a douăzecea zi de la data publicării în Jurnalul Oficial al Uniunii Europene.

Se aplică de la XX.

Prezentul regulament este obligatoriu în toate elementele sale și se aplică direct în toate statele membre.

Adoptat la …,

Pentru Parlamentul European

Președintele

Pentru Consiliu

Președintele

ANEXĂ

Lista exhaustivă și cumulativă a sectoarelor cu grad ridicat de risc și a utilizărilor sau scopurilor cu grad ridicat de risc care implică un risc de încălcare a drepturilor fundamentale și a normelor de siguranță

Sectoare cu grad ridicat de risc

Ocuparea forței de muncă

Educație

Sănătate

Transport

Energie

Sectorul public (azil, migrație, controale la frontiere, justiție și servicii de securitate socială)

Apărare și securitate

Finanțe, bănci, asigurări

Utilizări sau scopuri cu grad ridicat de risc

Recrutarea

Notele și evaluarea elevilor și studenților

Alocarea fondurilor publice

Acordarea de împrumuturi

Tranzacționare, brokeraj, impozitare, etc.

Tratamente și proceduri medicale

Procese electorale și campanii politice

Decizii din sectorul public care au un impact semnificativ și direct asupra drepturilor și obligațiilor persoanelor fizice sau juridice

Conducerea automatizată

Gestionarea traficului

Sistemele militare autonome

Producția și distribuția energiei

Gestionarea deșeurilor

Controlul emisiilor


(1)  În cazul conducerii automate a vehiculelor, au fost propuse șase niveluri de automatizare a conducerii prin standardul internațional J3016 al SAE, actualizat ultima dată în 2018 la J3016_201806. https://www.sae.org/standards/content/j3016_201806/

(2)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

(3)  Directiva 2002/58/CE a Parlamentului European și a Consiliului din 12 iulie 2002 privind prelucrarea datelor personale și protejarea confidențialității în sectorul comunicațiilor publice (Directiva asupra confidențialității și comunicațiilor electronice) (JO L 201, 31.7.2002, p. 37).

(4)  Definiție din Comunicarea Comisiei Europene COM(2018) 237, 25.4.2018, pagina 1, adaptată.

(5)  Din definiția roboților industriali în ISO 8373.

(6)  Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului din 23 octombrie 2019 privind protecția persoanelor care raportează încălcări ale dreptului Uniunii (JO L 305, 26.11.2019, p. 17).


Top