24.3.2022   

RO

Jurnalul Oficial al Uniunii Europene

C 132/17


P9_TA(2021)0405

Inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale

Rezoluția Parlamentului European din 6 octombrie 2021 referitoare la inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale (2020/2016(INI))

(2022/C 132/02)

Parlamentul European,

având în vedere Tratatul privind Uniunea Europeană, în special articolul 2 și articolul 6, precum și Tratatul privind funcționarea Uniunii Europene, în special articolul 16,

având în vedere Carta drepturilor fundamentale a Uniunii Europene (Carta), în special articolele 6, 7, 8, 11, 12, 13, 20, 21, 24 și 47,

având în vedere Convenția pentru apărarea drepturilor omului și a libertăților fundamentale,

având în vedere Convenția Consiliului Europei pentru protejarea persoanelor față de prelucrarea automatizată a datelor cu caracter personal (ETS 108) și protocolul său de modificare („Convenția 108+”),

având în vedere Carta etică europeană privind utilizarea inteligenței artificiale în sistemele judiciare și în mediul lor, elaborată de Comisia Europeană pentru Eficiența Justiției (CEPEJ) din cadrul Consiliului Europei,

având în vedere Comunicarea Comisiei din 8 aprilie 2019 intitulată „Cum construim încrederea cetățenilor într-o inteligență artificială centrată pe factorul uman” (COM(2019)0168),

având în vedere Orientările în materie de etică pentru o inteligență artificială (IA) fiabilă publicate de Grupul de experți la nivel înalt al Comisiei privind inteligența artificială la 8 aprilie 2019,

având în vedere Cartea albă a Comisiei din 19 februarie 2020 intitulată „Inteligența artificială – O abordare europeană axată pe excelență și încredere” (COM(2020)0065),

având în vedere comunicarea Comisiei din 19 februarie 2020 intitulată „O strategie europeană privind datele” (COM(2020)0066),

având în vedere Regulamentul (UE) 2016/679 al Parlamentului și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (1),

având în vedere Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului (2),

având în vedere Regulamentul (UE) 2018/1725 al Parlamentului European și al Consiliului din 23 octombrie 2018 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal de către instituțiile, organele, oficiile și agențiile Uniunii și privind libera circulație a acestor date și de abrogare a Regulamentului (CE) nr. 45/2001 și a Deciziei nr. 1247/2002/CE (3),

având în vedere Directiva 2002/58/CE a Parlamentului European și a Consiliului din 12 iulie 2002 privind prelucrarea datelor personale și protejarea confidențialității în sectorul comunicațiilor publice (directiva asupra confidențialității și comunicațiilor electronice) (4),

având în vedere Regulamentul (UE) 2016/794 al Parlamentului European și al Consiliului din 11 mai 2016 privind Agenția Uniunii Europene pentru Cooperare în Materie de Aplicare a Legii (Europol) și de înlocuire și de abrogare a Deciziilor 2009/371/JAI, 2009/934/JAI, 2009/935/JAI, 2009/936/JAI și 2009/968/JAI ale Consiliului (5),

având în vedere rezoluția sa din 19 iunie 2020 referitoare la protestele antirasiste care au avut loc în urma morții lui George Floyd (6),

având în vedere rezoluția sa din 14 martie 2017 referitoare la implicațiile megadatelor asupra drepturilor fundamentale: viața privată, protecția datelor, nediscriminarea, securitatea și impunerea respectării legii (7),

având în vedere audierea din cadrul Comisiei pentru libertăți civile, justiție și afaceri interne (LIBE) din 20 februarie 2020 privind inteligența artificială în dreptul penal și utilizarea acesteia de către poliție și autoritățile judiciare în materie penală,

având în vedere raportul misiunii LIBE în Statele Unite din februarie 2020,

având în vedere articolul 54 din Regulamentul său de procedură,

având în vedere avizul Comisiei pentru piața internă și protecția consumatorilor și al Comisiei pentru afaceri juridice,

având în vedere raportul Comisiei pentru libertăți civile, justiție și afaceri interne (A9-0232/2021),

A.

întrucât tehnologiile digitale în general și proliferarea prelucrării datelor și a analizelor facilitate de inteligența artificială (IA) în special sunt extraordinar de promițătoare, dar implică și riscuri; întrucât dezvoltarea IA a făcut un salt în ultimii ani, transformând IA într-una dintre tehnologiile strategice ale secolului 21, cu potențialul de a genera beneficii substanțiale în materie de eficiență, acuratețe și accesibilitate și generând astfel o schimbare pozitivă în economia și societatea europeană, dar și mari riscuri la adresa drepturilor fundamentale și a democrațiilor bazate pe statul de drept; întrucât IA nu ar trebui să fie considerată un scop în sine, ci un instrument în folosul oamenilor, care are ca scop final creșterea calității vieții, a capacităților și a siguranței acestora;

B.

întrucât, în ciuda progreselor continue în ceea ce privește viteza de procesare și capacitatea memoriei computerelor, încă nu există programe care să egaleze flexibilitatea umană în domenii mai generale sau în cazul unor sarcini care necesită înțelegerea contextului sau o analiză critică; întrucât unele aplicații bazate pe IA au atins nivelurile de performanță ale experților și profesioniștilor umani în îndeplinirea anumitor sarcini (de exemplu tehnologia în domeniul juridic) și pot oferi rezultate cu o viteză mult mai mare și pe o scară mult mai largă;

C.

întrucât unele țări, inclusiv unele state membre, utilizează mai mult aplicațiile sau sistemele bazate pe IA integrate în aplicarea legii și în sistemul judiciar decât altele, ceea ce este în parte consecința lipsei de reglementări și a diferențelor de reglementare care permit sau interzic utilizarea IA în anumite scopuri; întrucât utilizarea tot mai mare a IA în domeniul dreptului penal se bazează mai ales pe promisiunile că aceasta ar reduce incidența anumitor tipuri de infracțiuni și ar conduce la luarea de decizii mai obiective; întrucât, cu toate acestea, aceste promisiuni nu se confirmă întotdeauna;

D.

întrucât drepturile și libertățile fundamentale consacrate în Cartă ar trebui să fie garantate pe parcursul întregului ciclu de viață al IA și al tehnologiilor conexe, în special în timpul proiectării, dezvoltării, implementării și utilizării lor, și ar trebui să se aplice în domeniul asigurării respectării legii în toate împrejurările;

E.

întrucât tehnologia IA ar trebui dezvoltată astfel încât oamenii să se afle în centrul său, să fie demnă de încrederea publicului și să funcționeze întotdeauna în slujba oamenilor; întrucât sistemele bazate pe IA trebuie să ofere garanția ultimă că sunt concepute astfel încât să poată fi întotdeauna oprite de un operator uman;

F.

întrucât pentru a fi demne de încredere, sistemele bazate pe IA trebuie să fie concepute pentru protejarea și în beneficiul tuturor membrilor societății (ținând seama în conceperea lor și de categoriile de populație cele mai vulnerabile și marginalizate), să fie nediscriminatorii, sigure, deciziile lor trebuie să fie explicabile și transparente și să respecte autonomia umană și drepturile fundamentale, așa cum se descrie în Orientările de etică ale Grupului de experți la nivel înalt privind inteligența artificială;

G.

întrucât Uniunea, împreună cu statele membre, are o responsabilitate esențială în a veghea ca deciziile legate de ciclul de viață și utilizarea aplicațiilor bazate pe IA în domeniul sistemului judiciar și al aplicării legii să se ia transparent și să protejeze deplin drepturile fundamentale, neperpetuând mai ales discriminarea, lipsa de imparțialitate și prejudecățile, acolo unde există; întrucât opțiunile de politică relevante ar trebui să respecte principiile necesității și proporționalității pentru a garanta constituționalitatea și un sistem de justiție corect și uman;

H.

întrucât aplicațiile bazate pe IA pot oferi mari posibilități în domeniul aplicării legii, în special în ceea ce privește îmbunătățirea metodelor de lucru ale agențiilor de aplicare a legii și ale autorităților judiciare și în combaterea mai eficientă a anumitor tipuri de infracționalitate, în special a infracționalității financiare, a spălării banilor și a finanțării terorismului, a abuzului sexual online și a exploatării copiilor, precum și a anumitor tipuri de infracționalitate informatică, contribuind astfel la siguranța și securitatea cetățenilor UE, dar pot, în același timp, să antreneze riscuri semnificative pentru drepturile fundamentale ale persoanelor; întrucât orice aplicare generală a IA în scopul supravegherii în masă ar fi disproporționată;

I.

întrucât dezvoltarea și funcționarea sistemelor bazate pe IA pentru autoritățile polițienești și judiciare implică contribuția mai multor persoane, organizații, componente de mașini, algoritmi software și utilizatori umani în medii deseori complexe și dificile; întrucât aplicațiile IA în domeniul aplicării legii și în sistemul judiciar se află în diferite etape de dezvoltare, de la conceptualizare, elaborarea de prototipuri sau evaluare la utilizarea după autorizare; întrucât în viitor pot apărea noi posibilități de utilizare, pe măsură ce tehnologiile se maturizează datorită cercetărilor științifice în desfășurare la nivel mondial;

J.

întrucât este imperativ să existe un model clar de atribuire a responsabilității juridice pentru posibilele efecte nocive ale sistemelor bazate pe IA în domeniul dreptului penal; întrucât dispozițiile de reglementare din acest domeniu ar trebui să păstreze întotdeauna responsabilitatea umană și trebuie să urmărească mai presus de orice evitarea producerii de efecte nocive;

K.

întrucât statelor membre le revine până la urmă responsabilitatea de a garanta respectarea deplină a drepturilor fundamentale atunci când sistemele bazate pe IA sunt utilizate în domeniul aplicării legii și în cel judiciar;

L.

întrucât relația dintre protejarea drepturilor fundamentale și acțiunile polițienești eficiente trebuie să fie întotdeauna un element esențial în discuțiile despre caracterul oportun și modalitatea de utilizare a IA de către sectorul de aplicare a legii, unde deciziile pot avea consecințe de durată asupra vieții și libertății oamenilor; întrucât acest fapt este foarte important, deoarece IA ar putea deveni un element permanent al ecosistemului nostru de justiție penală, oferind analize și asistență în anchete;

M.

întrucât IA este utilizată de autoritățile de aplicare a legii în aplicații cum ar fi tehnologiile de recunoaștere facială, de exemplu, căutarea în baze de date de suspecți și identificarea victimelor traficului de persoane sau ale exploatării și abuzurilor sexuale asupra copiilor, recunoașterea automată a numărului de înmatriculare, identificarea vorbitorului, identificarea vocală, tehnologii de lectură labială, supraveghere sonoră (adică algoritmi de detectare a focurilor de armă), cercetare și analiză autonomă a bazelor de date identificate, prognoză (activități polițienești predictive și de analiză a focarelor infracționale), instrumente de detectare a comportamentului, instrumente avansate de autopsie virtuală care să contribuie la stabilirea cauzei decesului, instrumente autonome de identificare a fraudelor financiare și a finanțării terorismului, monitorizarea platformelor de comunicare socială (extragere și recoltare de date în vederea explorării conexiunilor) și sisteme automate de supraveghere care includ diferite capacități de detectare (cum ar fi detectarea bătăilor inimii și camerele cu termoviziune); întrucât aplicațiile menționate mai sus, alături de alte aplicații potențiale sau viitoare ale tehnologiei IA în domeniul aplicării legii, pot prezenta grade diferite de fiabilitate și acuratețe și afectează protejarea drepturilor fundamentale și dinamica sistemului justiției penale; întrucât multe dintre aceste instrumente sunt utilizate în țări din afara UE, dar ar fi ilegale în baza cadrului legislativ și al jurisprudenței Uniunii privind protecția datelor; întrucât utilizarea de rutină a algoritmilor, chiar și cu o rată mică de rezultate fals pozitive, poate face ca numărul de alerte corecte să fie cu mult depășit de numărul celor false;

N.

întrucât instrumentele și aplicațiile din domeniul IA sunt utilizate și de sistemele judiciare din câteva țări din lume, inclusiv la fundamentarea hotărârilor de detenție preventivă, la stabilirea pedepselor, la calcularea probabilităților de recidivă și la determinarea perioadei de probațiune, la soluționarea online a litigiilor, la gestionarea jurisprudenței și la oferirea unui acces mai facil la legislație; întrucât aceasta a condus la afectarea și diminuarea șanselor pentru persoanele de culoare și alte minorități; întrucât în prezent în UE, cu excepția unor state membre, utilizarea acestora este limitată în principal la cauze civile;

O.

întrucât utilizarea IA în aplicarea legii implică o serie de riscuri potențiale mari și, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale persoanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare și erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum și riscuri pentru protejarea vieții private și a datelor cu caracter personal, a libertății de exprimare și de informare, a prezumției de nevinovăție, a dreptului la o cale de atac și la un proces corect, precum și pentru libertatea și securitatea persoanelor;

P.

întrucât sistemele bazate pe IA utilizate de autoritățile de aplicare a legii și de cele judiciare sunt, la rândul lor, vulnerabile la atacuri comise cu folosirea IA împotriva sistemelor informatice sau la practica „otrăvirii datelor” (data poisoning), prin care se introduce un set greșit de date cu scopul de a produce rezultate lipsite de neutralitate; întrucât în aceste situații daunele rezultate pot fi chiar mai mari și pot duce la creșterea exponențială a nivelului de nocivitate la adresa persoanelor și grupurilor,

Q.

întrucât implementarea IA în domeniul aplicării legii și al sistemului judiciar nu ar trebui considerată o simplă chestiune de fezabilitate tehnică, ci o decizie politică privind structura și obiectivele sistemelor de aplicare a legii și de justiție penală; întrucât dreptul penal modern se bazează pe ideea că autoritățile reacționează la o infracțiune după ce aceasta fost comisă, fără a presupune că oamenii sunt periculoși și că trebuie monitorizați constant pentru a preveni eventuale infracțiuni; întrucât tehnicile de supraveghere bazate pe IA pun serios în discuție această abordare și fac urgent necesar ca legiuitorii din întreaga lume să evalueze temeinic consecințele permiterii utilizării tehnologiilor care diminuează rolul ființelor umane în aplicarea legii și în deciziile justiției;

1.

reiterează faptul că, dat fiind că IA se bazează pe prelucrarea unor cantități mari de date cu caracter personal, dreptul la protecția vieții private și a datelor cu caracter personal se aplică tuturor domeniilor IA și că trebuie respectat pe deplin cadrul juridic al Uniunii privind protecția datelor și a vieții private; reamintește, ca urmare, că UE a stabilit deja standarde de protecție a datelor pentru autoritățile de aplicare a legii, care constituie baza pentru orice reglementare viitoare în domeniul IA pentru utilizări în aplicarea legii și în sistemul judiciar; reamintește că prelucrarea datelor cu caracter personal ar trebui să fie legală și corectă, scopurile prelucrării ar trebui specificate, explicite și legitime, prelucrarea ar trebui să fie adecvată, relevantă și neexcesivă în raport cu scopul în care sunt prelucrate, ar trebui să fie exactă, actualizată, iar datele inexacte ar trebui corectate sau șterse dacă nu se aplică restricții, datele nu ar trebui păstrate mai mult decât este necesar, ar trebui stabilite termene clare și adecvate pentru ștergere sau pentru analizarea periodică a necesității stocării acestor date și ar trebui să fie prelucrate într-un mod sigur; mai subliniază că ar trebui împiedicată posibila identificare a persoanelor prin intermediul unei aplicații bazate pe IA care a utilizat date anonimizate anterior;

2.

reafirmă că toate soluțiile bazate pe IA folosite în asigurarea respectării legii și în sistemul judiciar trebuie, de asemenea, să respecte pe deplin principiile demnității umane, nediscriminării, libertății de circulație, prezumția de nevinovăție și dreptul la apărare, inclusiv dreptul la tăcere, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, egalitatea în fața legii, egalitatea forțelor și dreptul la o cale de atac efectivă și la un proces corect, în conformitate cu Carta și cu Convenția europeană a drepturilor omului; subliniază că utilizarea de aplicații bazate pe IA trebuie interzisă atunci când este incompatibilă cu drepturile fundamentale;

3.

recunoaște că rapiditatea cu care sunt dezvoltate aplicațiile bazate pe IA în întreaga lume nu permite o inventariere completă a acestora și, prin urmare, face necesar un model de guvernanță clar și coerent, care să garanteze atât drepturile fundamentale ale persoanelor, cât și claritate juridică pentru dezvoltatori, având în vedere evoluția continuă a tehnologiei; consideră, cu toate acestea, având în vedere rolul și responsabilitatea poliției și a autorităților judiciare, precum și impactul deciziilor pe care acestea le iau în scopul prevenirii, identificării, anchetării sau urmăririi penale a infracțiunilor sau al executării pedepselor, că utilizarea aplicațiilor bazate pe IA trebuie clasificată ca prezentând un grad ridicat de risc în cazurile cu potențial de a afecta semnificativ viețile oamenilor;

4.

consideră, în acest sens, că toate instrumentele bazate pe IA dezvoltate sau utilizate de autoritățile de aplicare a legii sau de sistemul judiciar ar trebui să fie cel puțin sigure, securizate și adecvate scopului, să respecte principiile echității, reducerii la minimum a datelor, răspunderii, transparenței și explicabilității și că dezvoltarea, introducerea și utilizarea lor ar trebui să fie supuse unei evaluări a riscurilor și unui test riguros al necesității și proporționalității, iar măsurile de siguranță trebuie să fie pe măsura riscurilor identificate; subliniază că încrederea cetățenilor în utilizarea IA dezvoltate, introduse și utilizate în UE este condiționată de respectarea deplină a acestor criterii;

5.

recunoaște contribuția pozitivă a anumitor tipuri de aplicații bazate pe IA la activitatea autorităților de aplicare a legii și a autorităților judiciare din Uniune; subliniază, de exemplu, îmbunătățirea gestionării jurisprudenței obținută prin instrumente care permit opțiuni suplimentare de căutare; consideră că există o serie de alte utilizări potențiale ale IA pentru asigurarea respectării legii și pentru sistemul judiciar care ar putea fi explorate, ținându-se seama de cele cinci principii ale Cartei etice privind utilizarea inteligenței artificiale în sistemele judiciare și în mediul acestora adoptată de CEPEJ și acordând o atenție deosebită „utilizărilor care trebuie luate în calcul cu extremă rezervă”, identificate de CEPEJ;

6.

subliniază că orice tehnologie poate fi utilizată în alte scopuri decât cel inițial și solicită, ca urmare, un control democratic strict și o supraveghere independentă a tuturor tehnologiilor facilitate de IA utilizate de autoritățile de aplicare a legii și de cele judiciare, în special a celor care pot fi reorientate către supravegherea în masă sau către crearea de profiluri în masă; observă cu mare îngrijorare potențialul pe care anumite tehnologii de IA utilizate în sectorul aplicării legii îl au de a fi folosite pentru supravegherea în masă; subliniază obligația legală de a preveni supravegherea în masă prin intermediul tehnologiilor de IA, care, prin definiție, nu respectă principiile necesității și proporționalității, precum și de a interzice utilizarea aplicațiilor care ar putea duce la aceasta;

7.

subliniază că abordarea adoptată în unele țări din afara UE în ceea ce privește dezvoltarea, implementarea și utilizarea tehnologiilor de supraveghere în masă impietează disproporționat asupra drepturilor fundamentale și din acest motiv nu trebuie urmată de UE; consideră, de aceea, că și măsurile de protecție împotriva utilizării abuzive a tehnologiilor de IA de către autoritățile de aplicare a legii și autoritățile judiciare trebuie să fie reglementate uniform în întreaga Uniune;

8.

subliniază potențialul de lipsă a neutralității și de discriminare care decurge din utilizarea aplicațiilor bazate pe IA cum ar fi învățarea automată, inclusiv a algoritmilor pe care se bazează aceste aplicații; constată că lipsa neutralității poate fi inerentă seturilor de date subiacente, mai ales atunci când sunt utilizate date istorice, introduse de dezvoltatorii de algoritmi sau generate în timpul aplicării în condiții reale a sistemelor; subliniază că rezultatele produse de aplicațiile bazate pe IA sunt prin definiție influențate de calitatea datelor utilizate și că această lipsă a neutralității inerentă tinde să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri etnice sau comunități supuse unei optici rasiale;

9.

subliniază faptul că multe tehnologii de identificare bazate pe algoritmi utilizate în prezent în mod disproporționat identifică și clasifică greșit și, prin urmare, cauzează prejudicii persoanelor supuse unei optici rasiale, celor care aparțin anumitor comunități etnice, persoanelor LGBTI, copiilor și persoanelor în vârstă, precum și femeilor; reamintește că persoanele fizice nu numai că au dreptul de a fi identificate corect, dar au și dreptul de a nu fi identificate deloc, cu excepția cazului în care este impus de lege din interese publice temeinice și legitime; subliniază că predicțiile IA bazate pe caracteristicile unui anumit grup de persoane ajung să amplifice și să reproducă formele de discriminare existente; consideră că ar trebui depuse eforturi susținute pentru a evita discriminarea automatizată și lipsa neutralității; solicită garanții suplimentare solide în cazul în care sistemele bazate pe IA din domeniul aplicării legii sau din sistemul judiciar sunt utilizate în cazul minorilor sau în legătură cu aceștia;

10.

subliniază asimetria de putere dintre cei care utilizează tehnologiile bazate pe IA și cei vizați de ele; subliniază că este imperativ ca utilizarea de instrumente care folosesc IA de către autoritățile polițienești și judiciare să nu devină un factor de inegalitate, fragmentare socială sau excluziune; subliniază impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților, dificultatea de a obține informații pertinente cu privire la funcționarea acestora și, în consecință, dificultatea de a contesta rezultatele lor în instanță, în special de către persoanele anchetate;

11.

ia act de riscurile legate mai ales de scurgerile de date, încălcările securității datelor și accesul neautorizat la datele cu caracter personal și la alte informații legate, de exemplu, de anchetele penale sau cauzele judecătorești care sunt prelucrate prin sisteme bazate pe IA; subliniază că aspectele de securitate și siguranță ale sistemelor bazate pe IA utilizate în domeniul aplicării legii și în sistemul judiciar trebuie să fie atent luate în considerare și suficient de solide și de robuste pentru a împiedica producerea de posibile consecințe catastrofale în urma atacurilor asupra sistemelor bazate pe IA; subliniază importanța securității încă din faza de proiectare, precum și a supravegherii umane specifice înainte de a opera anumite aplicații critice și, prin urmare, solicită autorităților de aplicare a legii și celor judiciare să utilizeze numai aplicațiile bazate pe IA care respectă principiul protecției vieții private și a datelor începând cu momentul conceperii, pentru a evita deturnarea utilizării;

12.

subliniază că niciun sistem bazat pe IA folosit de instituțiile de aplicarea legii sau de cele judiciare nu ar trebui să poată dăuna integrității fizice a oamenilor, nici să repartizeze drepturi sau să impună obligații juridice persoanelor;

13.

recunoaște dificultățile de stabilire corectă a responsabilității și răspunderii juridice pentru potențialele prejudicii, având în vedere complexitatea dezvoltării și funcționării sistemelor bazate pe IA; consideră necesară crearea unui regim clar și corect de atribuire a responsabilității și răspunderii juridice pentru potențialele consecințe negative produse de aceste tehnologii digitale avansate; subliniază însă că obiectivul fundamental trebuie să fie în primul rând evitarea concretizării unor astfel de consecințe; solicită, în consecință, aplicarea principiului precauției pentru toate aplicațiile bazate pe IA în contextul aplicării legii; subliniază că responsabilitatea și răspunderea juridică trebuie să revină întotdeauna unei persoane fizice sau juridice, care trebuie să fie întotdeauna identificată pentru deciziile luate cu sprijinul IA; subliniază, prin urmare, necesitatea de a asigura transparența structurilor instituționale care produc și gestionează sisteme bazate pe IA;

14.

consideră că este esențial, atât pentru eficacitatea exercitării dreptului la apărare, cât și pentru transparența sistemelor naționale de justiție penală, ca un cadru juridic specific, clar și precis să reglementeze condițiile, modalitățile și consecințele utilizării instrumentelor bazate pe IA domeniul aplicării legii, precum și drepturile persoanelor vizate, și proceduri efective și ușor accesibile de depunere a plângerilor și de apel, inclusiv de exercitare a unei căi de atac legale; subliniază că părțile la o procedură penală au dreptul să aibă acces la procesul de colectare a datelor și la evaluările aferente efectuate sau obținute prin utilizarea aplicațiilor bazate pe IA; subliniază necesitatea ca autoritățile de executare implicate în cooperarea judiciară, atunci când decid cu privire la o cerere de extrădare (sau predare) către un alt stat membru sau o altă țară terță, să evalueze dacă utilizarea instrumentelor care folosesc IA în țara solicitantă ar putea compromite esența dreptului fundamental la un proces corect; invită Comisia să emită orientări privind modul de efectuare a unei astfel de evaluări în contextul cooperării judiciare în materie penală; insistă asupra faptului că statele membre, în conformitate cu legislația aplicabilă, ar trebui să se asigure că persoanele sunt informate atunci când fac obiectul utilizării aplicațiilor bazate pe IA de către autoritățile de aplicare a legii sau de către sistemul judiciar;

15.

subliniază însă că, dacă oamenii se bazează doar pe datele, profilurile și recomandările generate de mașini, ei nu vor putea face o evaluare independentă; subliniază posibilele consecințe negative grave ale încrederii excesive în caracterul aparent obiectiv și științific al instrumentelor IA și ale ignorării posibilității ca rezultatele acestora să fie incorecte, incomplete, irelevante sau discriminatorii, în special în domeniul aplicării legii și al justiției; subliniază că dependența excesivă de rezultatele furnizate de sistemele de IA ar trebui evitată și accentuează nevoia ca autoritățile să câștige încrederea și să acumuleze cunoștințele necesare pentru a contesta sau anula o recomandare produsă de algoritmi; consideră că este important să existe așteptări realiste în legătură cu astfel de soluții tehnologice și să nu se promită soluții perfecte de aplicare a legii și de detectare a tuturor infracțiunilor comise;

16.

subliniază că, în contextele judiciare și de aplicare a legii, decizia care produce efecte juridice sau efecte echivalente acestora trebuie luată întotdeauna de către o ființă umană, care poate fi trasă la răspundere pentru deciziile luate; consideră că persoanele care fac obiectul sistemelor bazate pe IA trebuie să poată recurge la o cale de atac; reamintește că, în virtutea legislației UE, o persoană are dreptul de a nu fi supusă unei decizii care produce efecte juridice care o privesc sau care o afectează în mod semnificativ și care se bazează exclusiv pe prelucrarea automată a datelor; mai subliniază și că luarea de decizii individuală automatizată nu trebuie să se bazeze pe categorii speciale de date cu caracter personal, cu excepția cazului în care au fost instituite măsuri adecvate pentru protejarea drepturilor, a libertăților și a intereselor legitime ale persoanei vizate. accentuează faptul că legislația Uniunii interzice crearea de profiluri care are ca rezultat discriminarea indivizilor pe baza unor categorii speciale de date cu caracter personal; subliniază că deciziile din domeniul aplicării legii sunt aproape întotdeauna decizii care au un efect juridic asupra persoanei vizate, dată fiind natura executivă a autorităților de aplicare a legii și a acțiunilor acestora; observă că utilizarea IA poate influența deciziile umane și poate avea un impact asupra tuturor etapelor procedurii penale; consideră, în consecință, că autoritățile care utilizează sisteme de IA trebuie să respecte standarde juridice extrem de înalte și să asigure intervenția umană, în special atunci când analizează datele obținute din astfel de sisteme; solicită ca dreptul suveran al judecătorilor de a dispune și de a lua hotărâri de la caz la caz să fie respectat; invită la interzicerea utilizării IA și a tehnologiilor conexe la luarea deciziilor judiciare;

17.

solicită ca algoritmii să fie explicabili, transparenți, trasabili și verificabili ca parte necesară a controlului, pentru a se garanta că dezvoltarea, implementarea și utilizarea sistemelor bazate pe IA destinate sistemului judiciar și asigurarea respectării legii respectă drepturile fundamentale și cetățenii au încredere în ele, precum și pentru a se garanta că rezultatele generate de algoritmii IA pot fi explicate utilizatorilor și celor supuși acțiunii acestor sisteme, precum și că există transparență cu privire la datele-sursă și modul în care sistemul a ajuns la o anumită concluzie; subliniază că, pentru a asigura transparența tehnică, robustețea și acuratețea, ar trebui să poată fi achiziționate de autoritățile de aplicare a legii sau judiciare din Uniune doar instrumente și sisteme ale căror algoritmi și logică sunt verificabile și accesibile cel puțin poliției și sistemului judiciar, precum și auditorilor independenți, pentru a permite evaluarea, auditarea și verificarea acestora și că nu trebuie să fie închise sau etichetate drept proprietate privată de către vânzători; subliniază, în plus, că documentația despre natura serviciului, instrumentele dezvoltate, performanța și condițiile în care se estimează că poate funcționa, precum și riscurile pe care le-ar putea genera ar trebui să fie oferită într-un limbaj inteligibil și clar; invită, prin urmare, autoritățile judiciare și de aplicare a legii să asigure o transparență activă și completă în legătură cu firmele private care le furnizează sisteme de IA în scopul aplicării legii și în domeniul judiciar; recomandă, prin urmare, utilizarea software-ului cu sursă deschisă acolo unde este posibil;

18.

încurajează autoritățile de aplicare a legii și autoritățile judiciare să identifice și să evalueze domeniile în care unele soluții bazate pe IA adaptate ar putea fi benefice și să facă schimb de bune practici privind implementarea IA; solicită adoptarea de către statele membre și agențiile UE a unor proceduri adecvate de achiziții publice pentru sistemele de IA atunci când acestea sunt utilizate într-un context juridic sau de aplicare a legii, astfel încât să se asigure respectarea de către acestea a drepturilor fundamentale și a legislației aplicabile, inclusiv garantarea faptului că documentația software și algoritmii sunt disponibili și accesibili autorităților competente și de supraveghere în vederea analizei și controlului; solicită mai ales adoptarea de norme obligatorii care să impună divulgarea publică a parteneriatelor, contractelor și achizițiilor public-privat, precum și a scopului în care acestea sunt achiziționate; subliniază necesitatea de a oferi autorităților finanțarea necesară, precum și de a le furniza competența tehnică necesară pentru a garanta respectarea deplină a cerințelor etice, legale și tehnice asociate oricărei implementări a IA;

19.

solicită ca sistemele de IA și procesul de luare a deciziei să aibă o trasabilitate care, printr-o documentație obligatorie, le prezintă funcțiile, le definește capacitățile și limitele și poate identifica sursa elementelor care au determinat luarea unei decizii; subliniază importanța păstrării unei documentații complete privind datele pe care s-a făcut antrenarea, contextul, scopul, acuratețea și efectele secundare ale acestei, precum și prelucrarea acesteia de către creatorii și dezvoltatorii algoritmilor, și a respectării drepturilor fundamentale; subliniază că trebuie să fie întotdeauna posibilă reducerea operațiilor informatice ale unui sistem bazat pe IA la o formă ușor de înțeles pentru oameni;

20.

solicită efectuarea unei evaluări obligatorii a impactului asupra drepturilor fundamentale înainte de implementarea sau utilizarea oricărui sistem bazat pe IA destinat autorităților de aplicare a legii sau judiciare, pentru a evalua orice risc potențial la adresa drepturilor fundamentale; reamintește că este obligatorie o evaluare prealabilă a impactului asupra protecției datelor pentru orice tip de prelucrare, în special pentru cele care utilizează tehnologii noi, care poate duce la creșterea riscurilor pentru drepturile și libertățile persoanelor și consideră că acest lucru se întâmplă în cazul celor mai multe tehnologii bazate pe IA din domeniul aplicării legii și din cel judiciar; subliniază competența tehnică a autorităților pentru protecția datelor și a agențiilor pentru drepturile fundamentale în pentru evaluarea sistemelor; subliniază că aceste evaluări ale impactului asupra drepturilor fundamentale ar trebui realizate într-un mod cât mai deschis posibil și cu implicarea activă a societății civile; solicită ca evaluările impactului să definească clar și măsurile de siguranță necesare pentru eliminarea riscurilor identificate și ca acestea să fie puse la dispoziția publicului, în cea mai mare măsură posibilă, înainte de introducerea oricărui sistem de IA;

21.

subliniază că numai o guvernanță europeană solidă în domeniul IA, însoțită de o evaluare independentă, permite operaționalizarea necesară a principiilor drepturilor fundamentale; solicită auditarea periodică obligatorie de către o autoritate independentă a tuturor sistemelor bazate pe IA utilizate de autoritățile de aplicare a legii și de cele judiciare acolo este posibil ca acestea să afecteze viețile oamenilor pentru de a testa și evalua sistemele algoritmice, contextul, scopul, acuratețea, performanța și scara acestora și, odată ce acestea funcționează, pentru a detecta, a investiga, a diagnostica și a corecta toate efectele nedorite și negative și a se asigura că sistemele bazate pe IA funcționează așa cum este prevăzut; solicită, prin urmare, crearea unui cadru instituțional clar în acest scop, inclusiv instituirea unei supravegheri adecvate în materie de reglementare și control, pentru a asigura punerea în aplicare deplină și a garanta o dezbatere democratică în deplină cunoștință de cauză pe tema necesității și proporționalității IA în domeniul justiției penale; subliniază că rezultatele acestor audituri ar trebui să fie disponibile în registrele publice, astfel încât cetățenii să știe dacă sunt implementate sisteme bazate pe IA și ce măsuri sunt luate pentru remedierea tuturor încălcărilor drepturilor fundamentale;

22.

subliniază că seturile de date și sistemele algoritmice utilizate pentru clasificări, evaluări și predicții în diferitele etape ale prelucrării datelor în dezvoltarea IA și a tehnologiilor conexe pot avea ca rezultat tratamente diferențiate și discriminarea directă și indirectă a unor grupuri de persoane, mai ales deoarece datele utilizate la antrenarea algoritmilor folosiți în activitățile polițienești bazate pe analiza predictivă reflectă prioritățile curente de supraveghere și, în consecință, ar putea avea ca rezultat reproducerea și amplificarea lipsei de neutralitate deja existente; subliniază, ca urmare, că tehnologiile bazate pe IA, mai ales atunci când sunt utilizate în scopul aplicării legii și în sistemul judiciar, impun cercetare și aport interdisciplinar, inclusiv dinspre domeniile studiului științelor și tehnologiilor, studiilor critice privind problema rasei, studiilor privind dizabilitatea și a altor discipline adaptate la contextul social, inclusiv în legătură cu modul în care se construiește diferența, cu activitatea de clasificare și consecințele acesteia; subliniază, prin urmare, necesitatea de a investi sistematic în integrarea acestor discipline în studiul și cercetarea în domeniul IA la toate nivelurile; subliniază și că este important ca echipele care proiectează, dezvoltă, testează, întrețin, implementează și achiziționează aceste sisteme bazate pe IA să reflecte diversitatea societății în ansamblul său ca modalitate netehnică de a reduce riscul de discriminare;

23.

subliniază, în plus, că responsabilitatea și răspunderea civilă adecvate necesită o formare specializată semnificativă în ceea ce privește problemele de etică, pericolele potențiale, limitările și utilizarea corectă a tehnologiei bazate pe IA, în special pentru personalul poliției și al sistemului judiciar; subliniază că factorii de decizie ar trebui să aibă o pregătire și calificare profesională adecvată în legătură cu potențialul de absență a neutralității, deoarece seturile de date se pot baza pe date discriminatorii și întemeiate pe prejudecăți; sprijină crearea de inițiative de sensibilizare și educare pentru a se garanta că persoanele care lucrează în domeniul aplicării legii sau în sistemul judiciar cunosc și înțeleg limitările, capacitățile și riscurile pe care le implică utilizarea sistemelor bazate pe IA, inclusiv riscul de absență a neutralității generat de automatizare; reamintește că includerea în seturile de date de utilizate pentru antrenarea IA a actelor de rasism comise de către forțele de poliție în îndeplinirea sarcinilor lor va conduce inevitabil la prejudecăți rasiste în constatările, evaluările cantitative și recomandările generate de IA; își reiterează, prin urmare, apelul adresat statelor membre de a promova politici de combatere a discriminării și de a elabora planuri naționale de acțiune împotriva rasismului în domeniul ordinii publice și al sistemului judiciar;

24.

observă că activitățile polițienești bazate pe analiza predictivă se numără printre aplicațiile bazate pe IA utilizate în domeniul aplicării legii, dar avertizează că, deși ele pot analiza seturile de date existente pentru identificarea de regularități și corelații, ele nu pot elucida cauzalitatea și nu pot face predicții fiabile ale comportamentului individual, și în consecință nu pot constitui unicul temei pentru o intervenție; subliniază că mai multe orașe din Statele Unite au oprit utilizarea sistemelor de activități polițienești predictive după ce acestea au fost supuse la audituri; reamintește că, în timpul misiunii Comisiei LIBE în Statele Unite din februarie 2020, deputații au fost informați de către departamentele de poliție din New York și Cambridge, Massachusetts că au eliminat treptat programele polițienești bazate pe analiză predictivă din cauza ineficacității, impactului discriminatoriu și eșecului în practică, apelând în schimb la activități polițienești bazate pe implicarea în comunitate; observă că acest lucru a condus la o scădere a ratelor infracționalității; prin urmare, se opune utilizării IA de către autoritățile de aplicare a legii pentru a face previziuni ale comportamentului individual sau de grup pe baza datelor istorice și a comportamentului din trecut, a apartenenței la un grup, a localizării sau a oricăror alte astfel de caracteristici și a încerca să identifice astfel persoanele susceptibile de a comite o infracțiune;

25.

observă că există diferitele tipuri de utilizare a recunoașterii faciale, cum ar fi verificarea/autentificarea (corelarea feței unei persoane cu o fotografie dintr-un document de identitate, de exemplu în cazul „frontierelor inteligente”), identificarea (corelarea unei fotografii cu o bază de date de fotografii) și detectarea (detectarea fețelor în timp real din surse precum înregistrările de televiziune cu circuit închis și corelarea acestora cu bazele de date, de exemplu în supravegherea în timp real), fiecare dintre acestea având implicații diferite pentru protecția drepturilor fundamentale; este ferm convins că introducerea de sisteme de recunoaștere facială de către autoritățile de aplicare a legii ar trebui să se limiteze la scopuri clar justificate, cu respectarea deplină a principiilor proporționalității și necesității și a legislației aplicabile; reafirmă că utilizarea tehnologiei de recunoaștere facială trebuie să respecte cel puțin cerințele de reducere a datelor, de precizie a datelor, de limitare a stocării, de securitate și responsabilitate a datelor, precum și cerința de a fi legală, corectă, transparentă și de a urmări un scop concret, explicit și legitim care este clar definit în legislația statelor membre sau a Uniunii; consideră că introducerea sistemelor de verificare și autentificare poate continua, iar acestea pot fi utilizate cu succes numai dacă efectele lor negative pot fi atenuate și dacă criteriile de mai sus sunt respectate;

26.

solicită, de asemenea, interzicerea permanentă a utilizării în spațiile accesibile publicului a analizei și/sau a recunoașterii automate a altor caracteristici umane, cum ar fi mersul, amprentele digitale, ADN-ul, vocea și alte semnale biometrice și comportamentale;

27.

solicită însă adoptarea unui moratoriu asupra introducerii, în scopuri de aplicare a legii, de sisteme de recunoaștere facială cu funcție de identificare, în afară de utilizarea strictă pentru identificarea victimelor infracțiunilor, până când se poate considera că standardele tehnice respectă pe deplin drepturile fundamentale, rezultatele sunt imparțiale și nediscriminatorii, cadrul juridic prevede garanții stricte împotriva utilizării abuzive și un control și o supraveghere democratice stricte și există dovezi empirice ale necesității și proporționalității introducerii unor astfel de tehnologii; observă că, în cazul în care criteriile de mai sus nu sunt îndeplinite, sistemele nu ar trebui utilizate sau introduse;

28.

își exprimă îngrijorarea profundă în legătură cu utilizarea unor baze de date de recunoaștere facială private de către autoritățile de aplicare a legii și serviciile de informații, cum ar fi Clearview AI, o bază de date cu peste trei miliarde de imagini care au fost colectate ilegal de pe rețelele sociale și din alte locuri de pe internet, inclusiv de la cetățeni ai UE; invită statele membre să oblige actorii din domeniul aplicării legii să divulge dacă utilizează tehnologia Clearview AI sau tehnologii echivalente de la alți furnizori; reamintește că în opinia Comitetului european pentru protecția datelor (CEPD) utilizarea unui serviciu precum Clearview AI de către autoritățile de aplicare a legii din Uniunea Europeană probabil nu este în concordanță cu regimul UE de protecție a datelor; invită la interzicerea utilizării bazelor de date de recunoaștere facială private în domeniul aplicării legii;

29.

ia act de studiul de fezabilitate al Comisiei privind posibilele modificări ale Deciziei Prüm (8), inclusiv în ceea ce privește recunoașterea facială; ia act de cercetările anterioare conform cărora niciun potențial identificator nou, de exemplu recunoașterea irisului sau recunoașterea facială, nu ar fi la fel de sigur într-un context criminalistic precum ADN-ul sau amprentele; reamintește Comisiei că orice propunere legislativă trebuie să se bazeze pe dovezi și să respecte principiul proporționalității; îndeamnă Comisia să nu extindă cadrul Deciziei Prüm dacă nu există dovezi științifice solide ale fiabilității recunoașterii faciale într-un context criminalistic în comparație cu ADN-ul sau amprentele digitale după ce a efectuat o evaluare completă a impactului și după ce recomandările Autorității Europene pentru Protecția Datelor (AEPD) și ale CEPD au fost luate în considerare.

30.

subliniază că utilizarea datelor biometrice are legătură, în sens mai larg, cu principiul dreptului la demnitate umană, care stă la baza tuturor drepturilor fundamentale garantate de Cartă; consideră că utilizarea și colectarea oricăror date biometrice în scopuri de identificare la distanță, de exemplu prin efectuarea recunoașterii faciale în locuri publice, precum și la porțile de control automat utilizate pentru verificările la trecerea frontierei în aeroporturi, pot prezenta anumite riscuri pentru drepturile fundamentale ale căror implicații pot varia considerabil, în funcție de scopul, contextul și aria de utilizare; subliniază, de asemenea, că validitatea științifică a tehnologiei de recunoaștere a afectelor, cum ar fi camerele de luat vederi care detectează mișcări oculare și modificări ale dimensiunii pupilelor, este contestată în contextul aplicării legii; este de părere că utilizarea identificării biometrice în contextul aplicării legii și al sistemului judiciar ar trebui să fie întotdeauna considerată ca având un risc ridicat și, prin urmare, ar trebui să fie supusă unor condiții suplimentare, în conformitate cu recomandările Grupului de experți la nivel înalt privind IA al Comisiei;

31.

își exprimă îngrijorarea profundă față de proiectele de cercetare finanțate în cadrul programului Orizont 2020 care utilizează inteligența artificială la frontierele externe, cum ar fi proiectul iBorderCtrl, un „sistem inteligent de detectare a minciunilor” care întocmește profilul călătorilor pe baza unui interviu automatizat prin cameră web luat călătorului înainte de deplasare și a unei analize bazate pe inteligență artificială a 38 de microgesturi, testat în Ungaria, Letonia și Grecia; invită, ca urmare, Comisia să aplice prin mijloace legislative și nelegislative și, dacă este necesar, prin intermediul procedurilor de constatare a neîndeplinirii obligațiilor, o interdicție privind orice prelucrare în scopul aplicării legii a datelor biometrice, inclusiv a imaginilor faciale, care are ca rezultat supravegherea în masă în spațiile publice; în plus, invită Comisia să oprească finanțarea cercetării sau a implementării datelor biometrice sau programele care sunt susceptibile a avea ca rezultat supravegherea în masă în spațiile publice; subliniază, în acest context, că ar trebui să se acorde o atenție deosebită utilizării dronelor în operațiunile polițienești și să i se aplice un cadru strict;

32.

sprijină recomandările Grupului de experți la nivel înalt al Comisiei privind IA care pledează pentru o interdicție asupra atribuirii la scară largă a unui punctaj cetățenilor pe bază de IA; consideră că orice formă de atribuire normativă pe scară largă a unui punctaj cetățenilor de către autoritățile publice, în special în domeniul aplicării legii și al sistemului judiciar, duce la pierderea autonomiei, periclitează principiul nediscriminării și nu poate fi considerată conformă cu drepturile fundamentale, în special cu demnitatea umană, așa cum sunt ele consacrate în dreptul UE;

33.

solicită să se dea dovadă de o mai mare transparență generală pentru a permite o înțelegere profundă a ceea ce înseamnă utilizarea aplicațiilor bazate pe IA în Uniune; solicită statelor membre să ofere informații detaliate privind instrumentele utilizate de autoritățile lor de aplicare a legii și judiciare, tipurile de instrumente utilizate, scopurile în care sunt utilizate, tipurile de infracțiuni cărora le sunt aplicate și denumirea societăților sau organizațiilor care au creat aceste instrumente; invită, de asemenea, toate autoritățile publice de aplicare a legii și judiciare să informeze publicul și să asigure o transparență suficientă a utilizării IA și a tehnologiilor conexe în exercitarea prerogativelor lor, inclusiv divulgarea ratelor de rezultate fals pozitive și fals negative ale tehnologiei în cauză; solicită Comisiei să colecteze și să actualizează informațiile într-un singur loc; invită Comisia să publice și să actualizeze și informații privind utilizarea IA de către agențiile Uniunii însărcinate cu aplicarea legii și cu atribuții judiciare; invită CEPD să evalueze legalitatea acestor tehnologii și aplicații IA utilizate de autoritățile de aplicare a legii și de sistemul judiciar;

34.

reamintește că aplicațiile de IA, inclusiv cele utilizate în contextul aplicării legii și al sistemului judiciar, se dezvoltă într-un ritm rapid pe plan mondial; îndeamnă toate părțile interesate europene, inclusiv statele membre și Comisia, să asigure, prin cooperare internațională, angajamentul partenerilor din afara UE în favoarea creșterii standardelor internaționale și găsirii unui cadru juridic și etic comun și complementar pentru utilizarea IA, în special pentru autoritățile de aplicare a legii și sistemul judiciar, care să respecte pe deplin Carta, acquis-ul european în materie de protecție a datelor și drepturile omului în sens mai larg;

35.

solicită Agenției pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD și AEPD, să elaboreze orientări cuprinzătoare, recomandări și bune practici pentru a detalia criteriile și condițiile pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor IA care să fie utilizate de autoritățile de aplicare a legii și judiciare; se angajează să efectueze un studiu privind punerea în aplicare a Directivei privind protecția datelor în materie de asigurare a respectării legii (9) pentru a identifica modul în care a fost asigurată protecția datelor cu caracter personal în activitățile de prelucrare de către autoritățile de aplicare a legii și judiciare, în special atunci când se dezvoltă sau se utilizează noi tehnologii; invită, de asemenea, Comisia să analizeze dacă este necesară o acțiune legislativă specială pentru specificarea mai detaliată a criteriilor și condițiilor pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor IA de către autoritățile de aplicare a legii și judiciare;

36.

încredințează Președintelui sarcina de a transmite prezenta rezoluție Consiliului și Comisiei.

(1)  JO L 119, 4.5.2016, p. 1.

(2)  JO L 119, 4.5.2016, p. 89.

(3)  JO L 295, 21.11.2018, p. 39.

(4)  JO L 201, 31.7.2002, p. 37.

(5)  JO L 135, 24.5.2016, p. 53.

(6)  JO C 362, 8.9.2021, p. 63.

(7)  JO C 263, 25.7.2018, p. 82.

(8)  Decizia 2008/615/JAI a Consiliului din 23 iunie 2008 privind intensificarea cooperării transfrontaliere, în special în domeniul combaterii terorismului și a criminalității transfrontaliere. JO L 210, 6.8.2008, p. 1.

(9)  Directiva (UE) 2016/680 a Parlamentului European și a Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autoritățile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracțiunilor sau al executării pedepselor și privind libera circulație a acestor date și de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului. JO L 119, 4.5.2016, p. 89.