EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52022PC0496

Propunere de DIRECTIVĂ A PARLAMENTULUI EUROPEAN ȘI A CONSILIULUI privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială (Directiva privind răspunderea în materie de IA)

COM/2022/496 final

Bruxelles, 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Propunere de

DIRECTIVĂ A PARLAMENTULUI EUROPEAN ȘI A CONSILIULUI

privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială
(Directiva privind răspunderea în materie de IA)

(Text cu relevanță pentru SEE)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


EXPUNERE DE MOTIVE

1.CONTEXTUL PROPUNERII

·Motivele și obiectivele propunerii

Prezenta expunere de motive însoțește propunerea de Directivă privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială (IA). Într-o anchetă reprezentativă din 2020 1 , răspunderea s-a clasat printre primele trei obstacole în calea utilizării IA de către întreprinderile europene. Aceasta a fost menționată ca fiind cel mai relevant obstacol extern (43 %) pentru întreprinderile care intenționează să adopte IA, dar care nu au adoptat-o încă.

În Orientările sale politice, președinta Comisiei, Ursula von der Leyen, a prezentat o abordare europeană coordonată privind IA 2 . În Cartea albă privind IA din 19 februarie 2020 3 , Comisia s-a angajat să promoveze adoptarea IA și să abordeze riscurile asociate cu unele dintre utilizările sale prin promovarea excelenței și a încrederii. În Raportul referitor la răspunderea privind IA 4 care însoțește Cartea albă, Comisia a identificat provocările specifice pe care le prezintă IA pentru normele existente în materie de răspundere. În concluziile sale din 9 iunie 2020 privind conturarea viitorului digital al Europei, Consiliul a salutat consultarea privind propunerile de politică din Cartea albă privind IA și a invitat Comisia să prezinte propuneri concrete. La 20 octombrie 2020, Parlamentul European a adoptat o rezoluție legislativă din proprie inițiativă în temeiul articolului 225 din TFUE, solicitând Comisiei să adopte o propunere privind un regim de răspundere civilă pentru IA în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE) 5 .

Normele naționale actuale în materie de răspundere, în special cele bazate pe culpă, nu sunt adecvate pentru soluționarea acțiunilor în răspundere pentru prejudiciile cauzate de produsele și serviciile bazate pe IA. În temeiul acestor norme, victimele trebuie să dovedească o faptă ilicită sau o omisiune din partea unei persoane care a cauzat prejudiciul. Caracteristicile specifice ale IA, inclusiv complexitatea, autonomia și opacitatea (așa-numitul efect al „cutiei negre”) fac ca identificarea persoanei responsabile și furnizarea de elemente de probă pentru îndeplinirea cerințelor pentru soluționarea cu succes a acțiunii în răspundere să fie dificile sau excesiv de costisitoare pentru victime. În special, atunci când solicită despăgubiri, victimele ar putea suporta costuri inițiale foarte ridicate și s-ar putea confrunta cu proceduri judiciare cu o durată semnificativ mai lungă, în comparație cu cauzele care nu implică IA. Prin urmare, victimele ar putea să fie descurajate să mai solicite despăgubiri. Aceste preocupări au fost, de asemenea, subliniate de Parlamentul European (PE) în rezoluția sa din 3 mai 2022 referitoare la inteligența artificială în era digitală.  6

În cazul în care o victimă introduce o acțiune, instanțele naționale, confruntate cu caracteristicile specifice ale IA, pot adapta modul în care aplică normele existente în mod ad-hoc pentru a ajunge la un rezultat just pentru victimă. Acest lucru va genera insecuritate juridică. Întreprinderile vor întâmpina dificultăți în a prevedea modul în care vor fi aplicate normele existente în materie de răspundere și, astfel, în a evalua și a asigura expunerea lor la riscul de răspundere. Efectul va fi amplificat pentru întreprinderile care desfășoară activități comerciale transfrontaliere, deoarece incertitudinea va acoperi diferite jurisdicții. Aceasta va afecta în special întreprinderile mici și mijlocii (IMM-urile), care nu se pot baza pe expertiza juridică internă sau pe rezerve de capital.

Strategiile naționale privind IA arată că mai multe state membre au în vedere sau chiar planifică în mod concret acțiuni legislative privind răspunderea civilă pentru IA. Prin urmare, se preconizează că, dacă UE nu va lua măsuri, statele membre își vor adapta normele naționale în materie de răspundere la provocările prezentate de IA. Acest lucru va duce la o fragmentare și mai mare și la o creștere a costurilor pentru întreprinderile care își desfășoară activitatea pe întregul teritoriu al UE.

Consultarea publică deschisă care a stat la baza evaluării impactului acestei propuneri a confirmat problemele explicate mai sus. În opinia publicului, efectul „cutiei negre” poate îngreuna dovedirea culpei și a cauzalității de către victimă, putând apărea incertitudini cu privire la modul în care instanțele vor interpreta și vor aplica normele naționale existente în materie de răspundere în cauzele care implică IA. În plus, consultarea a evidențiat o preocupare publică cu privire la modul în care acțiunile legislative privind adaptarea normelor în materie de răspundere inițiate de fiecare stat membru în parte și fragmentarea care decurge din aceasta ar afecta costurile pentru întreprinderi, în special pentru IMM-uri, împiedicând adoptarea IA la nivelul întregii Uniuni.

Prin urmare, obiectivul prezentei propuneri este de a promova implementarea unei IA de încredere pentru a valorifica pe deplin beneficiile acesteia pentru piața internă. Acest lucru se realizează prin asigurarea faptului că victimele prejudiciilor cauzate de IA obțin o protecție echivalentă cu cea acordată victimelor prejudiciilor cauzate de produse în general. De asemenea, aceasta reduce incertitudinea juridică a întreprinderilor care dezvoltă sau utilizează IA în ceea ce privește posibila lor expunere la riscul de răspundere și previne apariția unor adaptări fragmentate, specifice IA, ale normelor naționale în materie de răspundere civilă.

·Coerența cu dispozițiile existente în domeniul de politică vizat

Prezenta propunere face parte dintr-un pachet de măsuri menite să sprijine introducerea IA în Europa prin promovarea excelenței și a încrederii. Acest pachet cuprinde trei direcții de lucru complementare:

o propunere legislativă de stabilire a unor norme orizontale privind sistemele de inteligență artificială (Legea privind IA) 7 ;

o revizuire a normelor sectoriale și orizontale privind siguranța produselor;

normele UE pentru abordarea aspectelor legate de răspundere în cazul sistemelor de IA.

În propunerea de act legislativ privind IA, Comisia a propus norme care vizează reducerea riscurilor la adresa siguranței și protejarea drepturilor fundamentale. Siguranța și răspunderea sunt două fețe ale aceleiași monede: ele se aplică în momente diferite și se consolidează reciproc. Deși normele de asigurare a siguranței și de protecție a drepturilor fundamentale vor reduce riscurile, ele nu elimină în totalitate aceste riscuri 8 . În cazul în care un astfel de risc se materializează, pot apărea în continuare prejudicii. În astfel de cazuri, se vor aplica normele în materie de răspundere din prezenta propunere.

Normele eficace în materie de răspundere oferă, de asemenea, un stimulent economic pentru respectarea normelor de siguranță și, prin urmare, contribuie la prevenirea producerii de prejudicii 9 . În plus, prezenta propunere contribuie la asigurarea respectării cerințelor pentru sistemele de IA cu grad ridicat de risc impuse de Legea privind IA, întrucât nerespectarea acestor cerințe constituie un element important care atrage reducerea sarcinii probei. Prezenta propunere este, de asemenea, în concordanță cu normele generale 10 și sectoriale propuse privind siguranța produselor, aplicabile produselor asimilate mașinilor 11 și echipamentelor radio 12 bazate pe IA.

În cadrul politicii sale privind IA, Comisia adoptă o abordare holistică în ceea ce privește răspunderea, propunând adaptări ale răspunderii producătorului pentru produsele cu defect în temeiul Directivei privind răspunderea pentru produsele cu defect, precum și armonizarea specifică în temeiul prezentei propuneri. Aceste două inițiative de politică sunt strâns legate și formează un pachet, întrucât cererile de despăgubiri care intră în domeniul lor de aplicare se referă la diferite tipuri de răspundere. Directiva privind răspunderea pentru produsele cu defect acoperă răspunderea obiectivă a producătorului pentru produsele cu defect, conducând la acordarea de despăgubiri pentru anumite tipuri de prejudicii suferite în principal de persoanele fizice. Prezenta propunere se referă la acțiunile în răspundere de la nivel național întemeiate în principal pe culpa oricărei persoane în vederea acordării de despăgubiri pentru orice tip de prejudiciu și oricărui tip de victimă. Acestea se completează reciproc pentru a forma un sistem global eficient de răspundere civilă.

Împreună, aceste norme vor promova încrederea în IA (și în alte tehnologii digitale), asigurând o despăgubire eficace a victimelor în cazul în care se produc prejudicii, în pofida cerințelor preventive prevăzute de Legea privind IA și de alte norme de siguranță.

·Coerența cu alte politici ale Uniunii

Propunerea este în concordanță cu strategia digitală generală a Uniunii întrucât contribuie la promovarea tehnologiei în serviciul cetățenilor, unul dintre cei trei piloni principali ai orientării politice și ai obiectivelor anunțate în comunicarea intitulată „Conturarea viitorului digital al Europei” 13 .

În acest context, scopul prezentei propuneri este de a consolida încrederea în IA și de a spori gradul de recurgere la aceasta. Propunerea va contribui la realizarea de sinergii și este complementară cu [Actul privind reziliența cibernetică] 14 , care urmărește, de asemenea, să sporească încrederea în produsele cu elemente digitale prin reducerea vulnerabilităților cibernetice și să protejeze mai bine utilizatorii comerciali și consumatorii.

Prezenta propunere nu aduce atingere normelor stabilite de [Actul legislativ privind serviciile digitale (Digital Services Act, DSA)], care prevăd un cadru cuprinzător și pe deplin armonizat pentru obligațiile de diligență pentru luarea de decizii pe bază de algoritmi de către platformele online, inclusiv exonerarea de răspundere prevăzută pentru furnizorii de servicii intermediare.

În plus, prin promovarea introducerii IA, prezenta propunere este asociată inițiativelor din cadrul strategiei UE privind datele 15 . Propunerea consolidează, de asemenea, rolul Uniunii în ceea ce privește contribuția la definirea normelor și a standardelor globale și promovarea unei IA de încredere, care să fie în concordanță cu valorile și interesele Uniunii.

Propunerea are, de asemenea, legături indirecte cu „Pactul verde european” 16 . În special, tehnologiile digitale, inclusiv IA, sunt un factor esențial pentru atingerea obiectivelor de durabilitate ale Pactului verde în multe sectoare diferite (inclusiv asistența medicală, transporturile, mediul și agricultura).

·Principalul impact economic, social și de mediu

Directiva va contribui la implementarea IA. Condițiile pentru introducerea și dezvoltarea tehnologiilor IA pe piața internă pot fi îmbunătățite în mod semnificativ prin prevenirea fragmentării și sporirea securității juridice prin măsuri armonizate la nivelul UE, în comparație cu posibilele adaptări ale normelor în materie de răspundere la nivel național. Studiul economic 17 care stă la baza evaluării impactului acestei propuneri a concluzionat – ca estimare prudentă – că măsurile de armonizare specifice privind răspunderea civilă pentru IA ar avea un impact pozitiv de 5 - 7 % asupra valorii producției comerțului transfrontalier relevant în comparație cu scenariul de referință. Această valoare adăugată ar fi generată în special prin reducerea fragmentării și sporirea securității juridice în ceea ce privește expunerea părților interesate la riscul de răspundere. Acest lucru ar reduce costurile pentru părțile interesate cu informațiile de natură juridică/reprezentarea juridică, gestionarea internă a riscurilor și asigurarea conformității, ar facilita planificarea financiară, precum și estimările riscurilor în scopuri legate de asigurări și ar permite întreprinderilor – în special IMM-urilor – să exploreze noi piețe transfrontaliere. Pe baza valorii globale a pieței IA din UE afectate de problemele legate de răspundere abordate de prezenta directivă, se estimează că aceasta din urmă va genera o valoare de piață suplimentară cuprinsă între aproximativ 500 de milioane EUR și aproximativ 1,1 miliarde EUR.

În ceea ce privește impactul social, directiva va spori încrederea societății în tehnologiile IA și accesul la un sistem de justiție eficace. Aceasta va contribui la un regim eficient de răspundere civilă, adaptat la particularitățile IA, în care cererile justificate de despăgubiri pentru prejudicii să fie încununate de succes. Creșterea încrederii societății ar aduce, de asemenea, beneficii tuturor întreprinderilor din lanțul valoric al IA, deoarece consolidarea încrederii cetățenilor va contribui la o adoptare mai rapidă a IA. Având în vedere efectul stimulativ al normelor în materie de răspundere, prevenirea decalajelor în materie de răspundere ar aduce, de asemenea, beneficii indirecte tuturor cetățenilor prin creșterea nivelului de protecție a sănătății și securității [articolul 114 alineatul (3) din TFUE] și prin prevenirea cauzelor de pericol pentru sănătate [articolul 168 alineatul (1) din TFUE].

În ceea ce privește impactul asupra mediului, se preconizează, de asemenea, că directiva va contribui la realizarea obiectivelor de dezvoltare durabilă (ODD) și a țintelor aferente. Adoptarea aplicațiilor IA este benefică pentru mediu. De exemplu, cu ajutorul sistemelor de IA utilizate în optimizarea proceselor, procesele devin mai economice (de exemplu, prin reducerea cantității de îngrășăminte și de pesticide necesare, prin reducerea consumului de apă la o producție egală etc.). Directiva ar avea, de asemenea, un impact pozitiv asupra ODD, deoarece o legislație eficace privind transparența, responsabilitatea și drepturile fundamentale va direcționa potențialul IA de a aduce beneficii persoanelor și societății către îndeplinirea ODD.

2.TEMEI JURIDIC, SUBSIDIARITATE ȘI PROPORȚIONALITATE

·    Temei juridic

Temeiul juridic al propunerii este articolul 114 din TFUE, care prevede adoptarea de măsuri pentru a asigura instituirea și funcționarea pieței interne.

Problemele pe care prezenta propunere urmărește să le abordeze, în special insecuritatea juridică și fragmentarea juridică, împiedică dezvoltarea pieței interne și, prin urmare, constituie obstacole semnificative în calea comerțului transfrontalier cu produse și servicii bazate pe IA.

Propunerea abordează obstacolele care decurg din faptul că întreprinderile care doresc să producă, să disemineze și să exploateze produse și servicii bazate pe IA la nivel transfrontalier nu știu dacă și în ce mod se aplică regimurile de răspundere existente în cazul prejudiciilor cauzate de IA. Această incertitudine se referă în special la statele membre în care întreprinderile vor exporta sau își vor exploata produsele și serviciile. Într-un context transfrontalier, legea aplicabilă răspunderii extracontractuale care decurge dintr-o faptă ilicită este, în mod implicit, legea țării în care s-a produs prejudiciul. Pentru aceste întreprinderi, este esențial să cunoască riscurile relevante în materie de răspundere și să poată încheia asigurări împotriva acestora.

În plus, există semne concrete că o serie de state membre au în vedere măsuri legislative unilaterale pentru a aborda provocările specifice reprezentate de IA în ceea ce privește răspunderea. De exemplu, strategiile privind IA adoptate în Cehia 18 , Italia 19 , Malta 20 , Polonia 21 și Portugalia 22 menționează inițiative de clarificare a răspunderii. Având în vedere divergențele mari dintre normele existente ale statelor membre în materie de răspundere civilă, este probabil ca orice măsură națională specifică în materie de IA privind răspunderea să urmeze abordările naționale diferite existente și, prin urmare, să sporească fragmentarea.

Prin urmare, adaptările normelor în materie de răspundere adoptate pe criterii pur naționale ar spori barierele din calea introducerii produselor și serviciilor bazate pe IA pe întreaga piață internă și ar contribui și mai mult la fragmentare.

·Subsidiaritate

Obiectivele prezentei propuneri nu pot fi realizate în mod adecvat la nivel național, deoarece apariția unor norme naționale divergente ar spori incertitudinea juridică și fragmentarea, creând obstacole în calea introducerii produselor și serviciilor bazate pe IA pe întreaga piață internă. Insecuritatea juridică ar afecta în special întreprinderile care își desfășoară activitatea la nivel transfrontalier, prin impunerea de costuri suplimentare pentru informații de natură juridică/reprezentare juridică, gestionarea riscurilor și pierderi de venituri. În același timp, normele naționale diferite privind cererile de despăgubire pentru prejudiciile cauzate de IA ar crește costurile de tranzacție pentru întreprinderi, în special pentru comerțul transfrontalier, ceea ce ar crea bariere semnificative pe piața internă. În plus, insecuritatea juridică și fragmentarea afectează în mod disproporționat întreprinderile nou-înființate și IMM-urile, care reprezintă majoritatea întreprinderilor și ponderea majoră a investițiilor pe piețele relevante.

În absența unor norme armonizate la nivelul UE pentru compensarea prejudiciilor cauzate de sistemele de IA, furnizorii, operatorii și utilizatorii de sisteme de IA, pe de o parte, și persoanele prejudiciate, pe de altă parte, s-ar confrunta cu 27 de regimuri de răspundere diferite, ceea ce ar conduce la niveluri diferite de protecție și la denaturarea concurenței între întreprinderile din state membre diferite.

Măsurile armonizate la nivelul UE ar îmbunătăți în mod semnificativ condițiile pentru introducerea și dezvoltarea tehnologiilor IA pe piața internă, prin prevenirea fragmentării și sporirea securității juridice. Această valoare adăugată ar fi generată în special prin reducerea fragmentării și sporirea securității juridice în ceea ce privește expunerea părților interesate la riscul de răspundere. În plus, numai o acțiune la nivelul UE poate duce la obținerea în mod consecvent a efectului dorit de promovare a încrederii consumatorilor în produsele și serviciile bazate pe IA prin prevenirea decalajelor în materie de răspundere legate de caracteristicile specifice ale IA de pe piața internă. Acest lucru ar asigura un nivel consecvent (minim) de protecție pentru toate victimele (persoane fizice și întreprinderi) și stimulente consecvente pentru a preveni prejudiciile și a asigura asumarea răspunderii.

·Proporționalitate

Propunerea se bazează pe o abordare etapizată. În prima etapă, obiectivele sunt atinse printr-o abordare minim invazivă; cea de a doua etapă constă în reevaluarea necesității unor măsuri mai stricte sau mai ample.

Prima etapă se limitează la măsurile legate de sarcina probei pentru a aborda problemele specifice IA identificate. Aceasta se bazează pe condițiile de fond ale răspunderii existente în prezent în normele naționale, cum ar fi cauzalitatea sau culpa, dar se axează pe măsuri specifice legate de probe, asigurându-se că victimele beneficiază de același nivel de protecție ca în cauzele care nu implică sisteme de IA. În plus, dintre diferitele instrumente disponibile în dreptul intern pentru reducerea sarcinii probei 23 , prezenta propunere a ales să utilizeze prezumțiile legale relative ca instrument cel mai puțin intervenționist. Astfel de prezumții se regăsesc în mod obișnuit în sistemele naționale de răspundere și pun în balanță interesele reclamanților și ale pârâților. În același timp, acestea sunt concepute pentru a stimula respectarea obligațiilor de diligență existente stabilite la nivelul Uniunii sau la nivel național. Propunerea nu conduce la o inversare a sarcinii probei, pentru a evita expunerea furnizorilor, a operatorilor și a utilizatorilor de sisteme de IA la riscuri mai mari în materie de răspundere, ceea ce ar putea împiedica inovarea și ar reduce gradul de adoptare a produselor și serviciilor bazate pe IA.

A doua etapă inclusă în propunere asigură faptul că, atunci când se evaluează efectul primei etape în ceea ce privește protecția victimelor și adoptarea IA, evoluțiile tehnologice, de reglementare și jurisprudențiale viitoare vor fi luate în considerare la momentul reevaluării necesității de a armoniza alte elemente ale cererilor de despăgubire sau alte instrumente legate de cererile de despăgubire, inclusiv în situațiile în care răspunderea obiectivă ar fi mai adecvată, astfel cum a solicitat Parlamentul European. O astfel de evaluare ar analiza, de asemenea, dacă o astfel de armonizare ar trebui să fie însoțită de o asigurare obligatorie pentru a asigura eficacitatea.

·Alegerea instrumentului

O directivă este instrumentul cel mai adecvat pentru prezenta propunere, deoarece asigură efectul de armonizare și securitatea juridică dorite, oferind în același timp flexibilitatea necesară pentru a permite statelor membre să integreze măsurile armonizate fără obstacole în regimurile lor naționale de răspundere.

Un instrument obligatoriu ar preveni lacunele în materie de protecție care decurg din punerea în aplicare parțială sau inexistentă. Deși un instrument fără caracter obligatoriu ar fi mai puțin invaziv, este puțin probabil ca acesta să abordeze problemele identificate în mod eficace. Rata de punere în aplicare a instrumentelor fără caracter obligatoriu este dificil de prevăzut și nu există suficiente indicii că efectul de persuasiune al unei recomandări ar fi suficient de puternic pentru a produce o adaptare coerentă a legislațiilor naționale.

Acest efect este și mai puțin probabil în cazul măsurilor de drept privat, din care fac parte normele în materie de răspundere extracontractuală. Acest domeniu este caracterizat de tradiții juridice de lungă durată, ceea ce face ca statele membre să fie reticente în a urmări o reformă coordonată, cu excepția cazului în care aceasta este determinată de perspectiva clară a beneficiilor pentru piața internă în cadrul unui instrument obligatoriu al UE sau de necesitatea de a se adapta la noile tehnologii din economia digitală.

Divergențele semnificative existente între cadrele de răspundere ale statelor membre reprezintă un alt motiv pentru care este puțin probabil ca o recomandare să fie pusă în aplicare în mod coerent.

1.REZULTATELE EVALUĂRILOR EX POST, ALE CONSULTĂRILOR CU PĂRȚILE INTERESATE ȘI ALE EVALUĂRILOR IMPACTULUI

·Consultări cu părțile interesate

Pentru a se asigura o participare amplă a părților interesate pe parcursul întregului ciclu de elaborare a politicilor din prezenta propunere, a fost pusă în aplicare o strategie amplă de consultare. Strategia de consultare s-a bazat atât pe consultări publice, cât și pe mai multe consultări specifice (seminare online, discuții bilaterale cu întreprinderi și diverse organizații).

După întrebările inițiale privind răspunderea care au făcut parte din consultarea publică referitoare la Cartea albă privind IA și la raportul Comisiei privind siguranța și răspunderea, în perioada 18 octombrie 2021-10 ianuarie 2022 a fost deschisă o consultare publică online dedicată, în vederea colectării de opinii de la o gamă largă de părți interesate, inclusiv de la consumatori, organizații ale societății civile, asociații industriale, întreprinderi, inclusiv IMM-uri, și de la autorități publice. După analizarea tuturor răspunsurilor primite, Comisia a publicat un rezumat al rezultatelor și răspunsurile individuale pe site-ul său web 24 .

În total, s-au primit 233 de răspunsuri de la respondenți din 21 de state membre, precum și din țări terțe. Per ansamblu, majoritatea părților interesate au confirmat problemele legate de sarcina probei, de insecuritatea juridică și de fragmentare și au sprijinit acțiunea la nivelul UE.

Cetățenii, organizațiile de consumatori și instituțiile academice din UE au confirmat în mod covârșitor necesitatea unei acțiuni la nivelul UE pentru a reduce problemele victimelor în ceea ce privește sarcina probei. Întreprinderile, deși recunosc efectele negative ale incertitudinii legate de aplicarea normelor în materie de răspundere, au fost mai prudente și au solicitat măsuri specifice pentru a evita limitarea inovării.

O imagine similară a apărut în ceea ce privește opțiunile de politică. Cetățenii, organizațiile de consumatori și instituțiile academice din UE au sprijinit ferm măsurile privind sarcina probei și armonizarea răspunderii care nu este bazată pe culpă (denumită „răspundere obiectivă”), împreună cu asigurarea obligatorie. Întreprinderile au avut păreri împărțite în ceea ce privește opțiunile de politică, diferențele depinzând, în parte, de dimensiunea lor. Răspunderea obiectivă a fost considerată disproporționată de majoritatea întreprinderilor respondente. Armonizarea reducerii sarcinii probei a câștigat mai mult sprijin, în special în rândul IMM-urilor. Cu toate acestea, întreprinderile au lansat un avertisment privind riscul unui transfer complet al sarcinii probei.

Prin urmare, opțiunea de politică preferată a fost elaborată și îmbunătățită în lumina feedbackului primit de la părțile interesate pe parcursul procesului de evaluare a impactului, pentru a se ajunge la un echilibru între nevoile exprimate și preocupările exprimate de toate grupurile relevante de părți interesate.

·Obținerea și utilizarea expertizei

Propunerea se bazează pe patru ani de analiză și pe implicarea strânsă a părților interesate, inclusiv a cadrelor universitare, a întreprinderilor, a asociațiilor de consumatori, a statelor membre și a cetățenilor. Lucrările pregătitoare au început în 2018 prin înființarea Grupului de experți privind răspunderea legală și noile tehnologii (Înființarea noilor tehnologii). În noiembrie 2019 25 , grupul de experți a elaborat un raport care a evaluat provocările pe care le ridică unele caracteristici ale IA pentru normele naționale în materie de răspundere civilă.

Contribuția din raportul grupului de experți a fost completată de trei studii externe suplimentare:

un studiu de drept comparat bazat pe o analiză juridică comparativă a legislației europene în materie de răspundere civilă, axat pe aspecte-cheie legate de IA 26 ;

un studiu privind economia comportamentală referitor la impactul adaptărilor specifice ale regimului de răspundere asupra procesului decizional al consumatorilor, în special asupra încrederii și disponibilității acestora de a adopta produse și servicii bazate pe IA 27 ;

un studiu economic 28 care acoperă o serie de aspecte: provocările cu care se confruntă victimele aplicațiilor IA în comparație cu victimele dispozitivelor care nu sunt bazate pe IA atunci când încearcă să obțină despăgubiri pentru prejudiciile suferite; dacă și în ce măsură întreprinderile sunt nesigure cu privire la aplicarea normelor actuale în materie de răspundere în cazul operațiunilor lor care implică IA și dacă impactul insecurității juridice poate împiedica investițiile în IA; dacă fragmentarea suplimentară a legislațiilor naționale în materie de răspundere ar reduce eficacitatea pieței interne pentru aplicațiile și serviciile de IA și dacă și în ce măsură armonizarea anumitor aspecte ale răspunderii civile la nivel național prin intermediul legislației UE ar reduce aceste probleme și ar facilita adoptarea la nivel general a tehnologiei IA de către întreprinderile din UE.

·Evaluarea impactului

În conformitate cu politica sa privind o mai bună legiferare, Comisia a efectuat o evaluare a impactului pentru prezenta propunere, examinată de Comitetul de control normativ al Comisiei. Reuniunea Comitetului de control normativ din 6 aprilie 2022 a condus la un aviz pozitiv cu observații.

Au fost evaluate trei opțiuni de politică:

Opțiunea de politică 1: trei măsuri pentru a reduce sarcina probei pentru victimele care încearcă să își susțină cu dovezi cererea de despăgubire.

Opțiunea de politică 2: măsurile din cadrul opțiunii 1 + armonizarea normelor în materie de răspundere obiectivă pentru cazurile de utilizare a IA cu un anumit profil de risc, împreună cu o asigurare obligatorie.

Opțiunea de politică 3: o abordare etapizată constând în:

o primă etapă: măsurile din cadrul opțiunii 1;

o a doua etapă: un mecanism de revizuire pentru a reevalua, în special, necesitatea armonizării răspunderii obiective pentru cazurile de utilizare a IA cu un anumit profil de risc (eventual însoțită de o asigurare obligatorie).

Opțiunile de politică au fost comparate prin intermediul unei analize bazate pe criterii multiple, ținând seama de eficacitatea, eficiența, coerența și proporționalitatea acestora. Rezultatele analizei bazate pe criterii multiple și a sensibilității arată că opțiunea de politică 3, care reduce sarcina probei pentru cererile de despăgubire legate de IA plus revizuirea specifică în ceea ce privește răspunderea obiectivă, eventual combinată cu asigurarea obligatorie, se situează pe primul loc și, prin urmare, este opțiunea de politică preferată pentru prezenta propunere.

Opțiunea de politică preferată ar asigura faptul că victimele produselor și serviciilor bazate pe IA (persoane fizice, întreprinderi și alte entități publice sau private) sunt protejate în aceeași măsură ca și victimele tehnologiilor tradiționale. Aceasta ar spori nivelul de încredere în IA și ar promova adoptarea acesteia.

În plus, ar reduce incertitudinea juridică și ar preveni fragmentarea, ajutând astfel întreprinderile, și mai ales IMM-urile, care doresc să valorifice întregul potențial al pieței unice a UE prin introducerea produselor și serviciilor bazate pe IA la nivel transfrontalier. Opțiunea de politică preferată creează, de asemenea, condiții mai bune pentru ca asigurătorii să ofere acoperire activităților legate de IA, ceea ce este esențial pentru gestionarea riscurilor de către întreprinderi, în special IMM-uri. Și anume, se estimează că opțiunea de politică preferată ar genera o creștere a valorii de piață a IA în UE-27 între aproximativ 500 de milioane EUR și aproximativ 1,1 miliarde EUR în 2025.

·Drepturile fundamentale

Una dintre cele mai importante funcții ale normelor în materie de răspundere civilă este de a garanta că victimele prejudiciilor pot solicita despăgubiri. Prin garantarea unei despăgubiri efective, aceste norme contribuie la protecția dreptului la o cale de atac eficientă și la un proces echitabil (articolul 47 din Carta drepturilor fundamentale a UE, denumită în continuare „carta”), oferind totodată persoanelor potențial responsabile un stimulent pentru prevenirea prejudiciilor, pentru a evita răspunderea.

Prin această propunere, Comisia urmărește să se asigure că victimele prejudiciilor cauzate de IA beneficiază de un nivel de protecție echivalent în temeiul normelor în materie de răspundere civilă cu cel al victimelor prejudiciilor cauzate fără implicarea IA. Propunerea va permite asigurarea efectivă la nivel privat a respectării drepturilor fundamentale și va menține dreptul la o cale de atac eficientă în cazul în care riscurile specifice IA s-au materializat. În special, propunerea va contribui la protejarea drepturilor fundamentale, cum ar fi dreptul la viață (articolul 2 din cartă), dreptul la integritate fizică și psihică (articolul 3) și dreptul de proprietate (articolul 17). În plus, în funcție de tradițiile și de sistemul de drept civil ale fiecărui stat membru, victimele vor putea solicita despăgubiri pentru prejudiciile aduse altor interese juridice, cum ar fi încălcarea demnității personale (articolele 1 și 4 din cartă), respectarea vieții private și de familie (articolul 7), dreptul la egalitate (articolul 20) și nediscriminarea (articolul 21).

În plus, prezenta propunere completează alte componente ale politicii Comisiei privind IA, bazate pe cerințe preventive de reglementare și de supraveghere care vizează în mod direct evitarea încălcărilor drepturilor fundamentale (cum ar fi discriminarea). Acestea sunt Legea privind IA, Regulamentul general privind protecția datelor, Actul legislativ privind serviciile digitale și legislația UE privind nediscriminarea și egalitatea de tratament. În același timp, prezenta propunere nu creează și nu armonizează obligațiile de diligență sau răspunderea diferitelor entități a căror activitate este reglementată de actele juridice respective și, prin urmare, nu creează noi acțiuni în răspundere și nu afectează exonerările de răspundere în temeiul acestor alte acte juridice. Prezenta propunere introduce doar reduceri ale sarcinii probei pentru victimele prejudiciilor cauzate de sistemele de IA în cadrul cererilor care se pot baza pe dreptul intern sau pe aceste alte acte legislative ale UE. Prin completarea acestor alte componente, prezenta propunere protejează dreptul victimei la despăgubiri în temeiul dreptului privat, inclusiv la despăgubiri pentru încălcări ale drepturilor fundamentale.

4.IMPLICAȚIILE BUGETARE

Prezenta propunere nu va avea implicații asupra bugetului Uniunii Europene.

5.ALTE ELEMENTE

·Planurile de punere în aplicare și monitorizarea, evaluarea, programul de monitorizare și revizuirea specifică

Prezenta propunere prezintă o abordare etapizată. Pentru a se asigura că sunt disponibile suficiente elemente de probă pentru revizuirea specifică din a doua etapă, Comisia va elabora un plan de monitorizare care va detalia modul și frecvența colectării datelor și a altor elemente de probă necesare.

Mecanismul de monitorizare ar putea acoperi următoarele tipuri de date și elemente de probă:

raportarea și schimbul de informații de către statele membre cu privire la aplicarea unei măsuri de reducere a sarcinii probei în cadrul procedurilor naționale judiciare sau extrajudiciare de soluționare;

informațiile colectate de Comisie sau de autoritățile de supraveghere a pieței în temeiul Legii privind IA (în special articolul 62) sau al altor instrumente relevante;

informații și analize care sprijină evaluarea Legii privind IA și rapoartele care urmează să fie pregătite de Comisie cu privire la punerea în aplicare a legii respective;

informații și analize în sprijinul evaluării măsurilor de politică viitoare relevante în temeiul legislației privind siguranța din „vechea abordare”, pentru a se asigura că produsele introduse pe piața Uniunii îndeplinesc cerințe ridicate în materie de sănătate, siguranță și mediu;

informații și analize în sprijinul raportului Comisiei privind aplicarea Directivei privind asigurarea auto pentru evoluțiile tehnologice (în special vehiculele autonome și semiautonome) în temeiul articolului 28c alineatul (2) litera (a) din aceasta.

·Explicații detaliate cu privire la dispozițiile specifice ale propunerii

1. Obiectul și domeniul de aplicare (articolul 1)

Scopul prezentei directive este de a îmbunătăți funcționarea pieței interne prin stabilirea unor cerințe uniforme pentru anumite aspecte ale răspunderii civile extracontractuale pentru prejudiciile cauzate cu implicarea sistemelor de IA. Aceasta vine în continuarea Rezoluției 2020/2014(INL) a Parlamentului European și adaptează dreptul privat la nevoile tranziției către economia digitală.

Gama de instrumente juridice adecvate este limitată având în vedere natura problemei sarcinii probei și caracteristicile specifice ale IA care ridică o problemă pentru normele existente în materie de răspundere. În acest sens, prezenta directivă reduce sarcina probei într-un mod foarte precis și proporțional, prin utilizarea divulgării și a prezumțiilor legale relative. Aceasta stabilește, pentru cei care solicită despăgubiri pentru prejudicii, posibilitatea de a obține informații privind sistemele de IA cu grad ridicat de risc care urmează să fie înregistrate/documentate în temeiul Legii privind IA. În plus, prezumțiile legale relative le vor oferi celor care solicită despăgubiri pentru prejudiciile cauzate de sistemele de IA o sarcină a probei mai rezonabilă și o șansă de a avea succes cu acțiunile în răspundere justificate.

Astfel de instrumente nu sunt noi; ele pot fi găsite în sistemele legislative naționale. Prin urmare, aceste instrumente naționale constituie puncte de referință utile cu privire la modul de abordare a problemelor ridicate de IA pentru normele existente în materie de răspundere într-un mod care interferează minim cu diferitele regimuri juridice naționale.

În plus, atunci când au fost întrebate despre schimbări mai ample, cum ar fi o inversare a sarcinii probei sau o prezumție irefragabilă, întreprinderile au furnizat feedback negativ în cadrul consultărilor. Au fost alese măsuri specifice pentru a ușura sarcina probei sub forma unor prezumții legale relative, ca modalități pragmatice și adecvate de a ajuta victimele să își îndeplinească sarcina probei în modul cel mai precis și proporțional cu putință.

Articolul 1 indică obiectul și domeniul de aplicare al prezentei directive: aceasta se aplică acțiunilor în despăgubire de drept civil extracontractuale pentru prejudiciile cauzate de un sistem de IA, în cazul în care astfel de acțiuni sunt introduse în temeiul unor regimuri de răspundere bazate pe culpă. Aceasta înseamnă, în special, regimuri care prevăd o responsabilitate statutară de a compensa prejudiciile cauzate intenționat sau de o acțiune sau omisiune din neglijență. Măsurile prevăzute în prezenta directivă se pot încadra fără obstacole în sistemele de răspundere civilă existente, deoarece reflectă o abordare care nu se referă la definiția unor concepte fundamentale precum „culpă” sau „prejudiciu”, având în vedere că înțelesul acestor concepte variază considerabil de la un stat membru la altul. Astfel, dincolo de prezumțiile pe care le stabilește, prezenta directivă nu aduce atingere normelor Uniunii sau normelor naționale care stabilesc, de exemplu, cărei părți îi revine sarcina probei, ce grad de certitudine este necesar în ceea ce privește nivelul probatoriu sau cum este definită eroarea.

În plus, prezenta directivă nu aduce atingere normelor existente care reglementează condițiile de răspundere în sectorul transporturilor și celor stabilite prin Actul legislativ privind serviciile digitale.

Deși prezenta directivă nu se aplică în ceea ce privește răspunderea penală, ea poate fi aplicabilă în ceea ce privește răspunderea statului. Autoritățile de stat sunt, de asemenea, vizate de dispozițiile Legii privind IA ca subiecte ale obligațiilor prevăzute în aceasta.

Prezenta directivă nu se aplică retroactiv, ci numai cererilor de despăgubire pentru prejudicii care apar de la data transpunerii sale.

Propunerea de directivă a fost adoptată împreună cu propunerea de revizuire a Directivei 85/374/CEE privind răspunderea pentru produsele cu defect, într-un pachet care vizează adaptarea normelor în materie de răspundere la era digitală și la IA, asigurând alinierea necesară între aceste două instrumente juridice complementare.

2.Definiții (articolul 2)

Definițiile de la articolul 2 le urmează pe cele din Legea privind IA pentru a asigura coerența.

Articolul 2 alineatul (6) litera (b) prevede că cererile de despăgubire pot fi introduse nu numai de persoana prejudiciată, ci și de persoanele care au succedat sau s-au subrogat în drepturile persoanei vătămate. Subrogarea este asumarea de către un terț (cum ar fi o societate de asigurări) a dreptului legal al unei alte părți de a încasa o datorie sau despăgubiri. Astfel, o persoană are dreptul de a exercita drepturile unei alte persoane în beneficiul său. Subrogarea i-ar include, de asemenea, pe moștenitorii unei victime decedate.

În plus, articolul 2 alineatul (6) litera (c) prevede că o acțiune în despăgubire poate fi introdusă și de o persoană care acționează în numele uneia sau mai multor părți prejudiciate, în conformitate cu dreptul Uniunii sau cu dreptul intern. Această dispoziție urmărește să ofere mai multe posibilități persoanelor prejudiciate de un sistem de IA de a solicita evaluarea cererilor lor de către o instanță, chiar și în cazurile în care acțiunile individuale pot părea prea costisitoare sau prea greoaie pentru a fi introduse sau în care acțiunile comune pot implica un beneficiu de scară. Pentru a permite victimelor prejudiciilor cauzate de sisteme de IA să își exercite drepturile în legătură cu prezenta directivă prin acțiuni de reprezentare, articolul 6 modifică anexa I la Directiva (UE) 2020/1828.

3.Divulgarea elementelor de probă (articolul 3)

Prezenta directivă urmărește să ofere persoanelor care solicită despăgubiri pentru prejudiciile cauzate de sistemele de IA cu grad ridicat de risc mijloace eficace de identificare a persoanelor potențial răspunzătoare și elemente de probă relevante pentru o cerere pentru acordarea de despăgubiri. În același timp, astfel de mijloace servesc la excluderea potențialilor pârâți identificați în mod fals, economisind timp și costuri pentru părțile implicate și reducând numărul de cauze pentru instanțe.

În acest sens, articolul 3 alineatul (1) din directivă prevede că o instanță poate dispune divulgarea elementelor de probă relevante cu privire la anumite sisteme de IA cu grad ridicat de risc care sunt suspectate de a fi cauzat prejudicii. Cererile de divulgare a elementelor de probă sunt adresate furnizorului unui sistem de IA, unei persoane care face obiectul obligațiilor furnizorului prevăzute la articolul 24 sau la articolul 28 alineatul (1) din Legea privind IA sau unui utilizator în temeiul Legii privind IA. Cererile ar trebui să fie susținute de fapte și de elemente de probă suficiente pentru a stabili plauzibilitatea cererii pentru acordarea de despăgubiri avute în vedere, iar elementele de probă solicitate ar trebui să fie puse la dispoziția destinatarilor. Cererile nu pot fi adresate părților care nu au nicio obligație în temeiul Legii privind IA și, prin urmare, nu au acces la elemente de probă.

În conformitate cu articolul 3 alineatul (2), reclamantul poate solicita divulgarea elementelor de probă de la furnizori sau utilizatori care nu au calitatea de pârâți numai în cazul în care au fost întreprinse fără succes toate încercările proporționale de a strânge elementele de probă de la pârât.

Pentru ca mijloacele judiciare să fie eficiente, articolul 3 alineatul (3) din directivă prevede că o instanță poate dispune, de asemenea, păstrarea unor astfel de elemente de probă.

Astfel cum se prevede la articolul 3 alineatul (4) primul paragraf, instanța poate dispune o astfel de divulgare numai în măsura necesară pentru susținerea cererii, având în vedere că informațiile ar putea constitui elemente de probă esențiale pentru cererea persoanei prejudiciate în cazul unor prejudicii care implică sisteme de IA.

Prin limitarea obligației de a divulga sau de a păstra elementele de probă necesare și proporționale, articolul 3 alineatul (4) primul paragraf urmărește să asigure proporționalitatea divulgării elementelor de probă, și anume să limiteze divulgarea la minimul necesar și să prevină cererile globale.

Al doilea și al treilea paragraf de la articolul 3 alineatul (4) urmăresc, de asemenea, să stabilească un echilibru între drepturile reclamantului și necesitatea de a se asigura că o astfel de divulgare face obiectul unor garanții pentru a proteja interesele legitime ale tuturor părților în cauză, cum ar fi secretele comerciale sau informațiile confidențiale.

În același context, articolul 3 alineatul (4) al patrulea paragraf urmărește să asigure că persoana vizată de acesta dispune de căi de atac procedurale împotriva ordinului de divulgare sau de păstrare.

Articolul 3 alineatul (5) introduce o prezumție de nerespectare a obligației de diligență. Acesta este un instrument procedural, relevant numai în cazurile în care pârâtul efectiv din cadrul unei cereri pentru acordarea de despăgubiri este cel care suportă consecințele nerespectării unei cereri de divulgare sau de păstrare a elementelor de probă. Pârâtul are dreptul de a răsturna o astfel de prezumție. Măsura prevăzută la prezentul alineat vizează promovarea divulgării, dar și accelerarea procedurilor judiciare.

4.Prezumția cauzalității în caz de culpă (articolul 4)

În ceea ce privește prejudiciile cauzate de sistemele de IA, prezenta directivă urmărește să ofere o bază eficace pentru solicitarea de despăgubiri în legătură cu culpa care constă în nerespectarea unei obligații de diligență în temeiul dreptului Uniunii sau al dreptului intern.

Poate fi dificil pentru reclamanți să stabilească o cauzalitate între o astfel de neconformitate și rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat care a generat prejudiciul relevant. Prin urmare, o prezumție legală relativă specifică de cauzalitate a fost prevăzută la articolul 4 alineatul (1) în ceea ce privește această cauzalitate. O astfel de prezumție este măsura cea mai puțin împovărătoare pentru a răspunde nevoii de despăgubire echitabilă a victimei.

Culpa pârâtului trebuie să fie dovedită de reclamant în conformitate cu normele Uniunii sau cu normele naționale aplicabile. O astfel de culpă poate fi stabilită, de exemplu, pentru nerespectarea unei obligații de diligență în temeiul Legii privind IA sau în conformitate cu alte norme stabilite la nivelul Uniunii, cum ar fi cele care reglementează utilizarea monitorizării automate și luarea deciziilor pentru lucrul pe platforme sau cele care reglementează operarea aeronavelor fără pilot la bord. De asemenea, o astfel de culpă poate fi prezumată de instanță pe baza nerespectării unui ordin judecătoresc de divulgare sau păstrare a elementelor de probă în temeiul articolului 3 alineatul (5). Cu toate acestea, este oportun să se introducă o prezumție de cauzalitate numai atunci când se poate considera că este probabil ca culpa dată să fi influențat rezultatul relevant al sistemului de IA sau lipsa acestuia, care poate fi evaluată pe baza circumstanțelor generale ale cauzei. În același timp, reclamantul trebuie să dovedească în continuare că sistemul de IA (și anume, rezultatul produs sau lipsa unui rezultat produs de sistem) a dat naștere prejudiciului.

Alineatele (2) și (3) fac distincție între, pe de o parte, acțiunile introduse împotriva furnizorului unui sistem de IA cu grad ridicat de risc sau împotriva unei persoane supuse obligațiilor care îi revin furnizorului în temeiul Legii privind IA și, pe de altă parte, acțiunile introduse împotriva utilizatorului unor astfel de sisteme. În acest sens, respectă dispozițiile respective și condițiile relevante din Legea privind IA. În cazul cererilor de despăgubiri întemeiate pe articolul 4 alineatul (2), respectarea de către pârâți a obligațiilor enumerate la alineatul respectiv trebuie să fie evaluată și în lumina sistemului de gestionare a riscurilor și a rezultatelor acestuia, și anume a măsurilor de gestionare a riscurilor, în temeiul Legii privind IA.

În cazul sistemelor de IA cu grad ridicat de risc, astfel cum sunt definite în Legea privind IA, articolul 4 alineatul (4) stabilește o excepție de la prezumția de cauzalitate, în cazul în care pârâtul demonstrează că reclamantul are acces în mod rezonabil la suficiente elemente de probă și expertiză pentru a dovedi cauzalitatea. Această posibilitate îi poate stimula pe pârâți să își respecte obligațiile de divulgare, măsurile stabilite de Legea privind IA pentru a asigura un nivel ridicat de transparență a IA sau cerințele de documentare și înregistrare.

În cazul sistemelor de IA care nu prezintă un grad ridicat de risc, articolul 4 alineatul (5) stabilește o condiție pentru aplicabilitatea prezumției de cauzalitate, prin care aceasta din urmă face obiectul verificării de către instanță a faptului că este excesiv de dificil pentru reclamant să dovedească cauzalitatea. Astfel de dificultăți trebuie evaluate în lumina caracteristicilor anumitor sisteme de IA, cum ar fi autonomia și opacitatea, care fac ca explicarea funcționării interne a sistemului de IA să fie foarte dificilă în practică, influențând negativ capacitatea reclamantului de a dovedi cauzalitatea dintre culpa pârâtului și rezultatul sistemului de IA.

În cazurile în care pârâtul utilizează sistemul de IA în cursul unei activități personale neprofesionale, articolul 4 alineatul (6) prevede că prezumția de cauzalitate ar trebui să se aplice numai dacă pârâtul a intervenit în mod semnificativ în condițiile de funcționare a sistemului de IA sau în cazul în care pârâtului i s-a solicitat și acesta era în măsură să stabilească condițiile de funcționare a sistemului de IA, dar nu a făcut acest lucru. Această condiție este justificată de necesitatea de a echilibra interesele persoanelor prejudiciate cu cele ale utilizatorilor neprofesioniști, prin scutirea de la aplicarea prezumției de cauzalitate a cazurilor în care utilizatorii neprofesioniști nu adaugă riscuri prin comportamentul lor.

În sfârșit, articolul 4 alineatul (7) prevede că pârâtul are dreptul de a răsturna prezumția de cauzalitate în temeiul articolului 4 alineatul (1).

Astfel de norme eficace în materie de răspundere civilă au avantajul suplimentar că oferă tuturor celor implicați în activități legate de sistemele de IA un stimulent suplimentar pentru a-și respecta obligațiile în ceea ce privește comportamentul lor preconizat.

5.Evaluare și revizuire specifică (articolul 5)

Diferitele sisteme juridice naționale prevăd regimuri diferite de răspundere obiectivă. Elemente pentru un astfel de regim la nivelul Uniunii au fost, de asemenea, sugerate de Parlamentul European în rezoluția sa din proprie inițiativă din 20 octombrie 2020, constând într-un regim de răspundere obiectivă limitată pentru anumite tehnologii bazate pe IA și o sarcină a probei facilitată în temeiul normelor în materie de răspundere bazată pe culpă. Consultările publice au evidențiat, de asemenea, o preferință pentru un astfel de regim în rândul respondenților (cu excepția întreprinderilor care nu sunt IMM-uri), indiferent dacă acest regim este însoțit sau nu de o asigurare obligatorie.

Cu toate acestea, propunerea ține seama de diferențele dintre tradițiile juridice naționale și de faptul că tipul de produse și servicii echipate cu sisteme de IA care ar putea afecta publicul larg și ar putea pune în pericol drepturi legale importante, cum ar fi dreptul la viață, la sănătate și la proprietate și, prin urmare, ar putea face obiectul unui regim de răspundere obiectivă, nu sunt încă disponibile pe piață pe scară largă.

Se instituie un program de monitorizare pentru a furniza Comisiei informații cu privire la incidentele care implică sisteme de IA. Revizuirea specifică va evalua dacă ar fi necesare măsuri suplimentare, cum ar fi introducerea unui regim de răspundere obiectivă și/sau a unei asigurări obligatorii.

6.Transpunerea (articolul 7)

Atunci când notifică Comisiei măsurile naționale de transpunere pentru a se conforma prezentei directive, statele membre ar trebui, de asemenea, să furnizeze documente explicative care să ofere informații suficient de clare și precise și să specifice, pentru fiecare dispoziție din prezenta directivă, dispoziția sau dispozițiile naționale care asigură transpunerea acesteia. Acest lucru este necesar pentru a permite Comisiei să identifice, pentru fiecare dispoziție a directivei care necesită transpunere, partea relevantă a măsurilor naționale de transpunere care creează obligația juridică corespunzătoare în ordinea juridică națională, indiferent de forma aleasă de statele membre.



2022/0303 (COD)

Propunere de

DIRECTIVĂ A PARLAMENTULUI EUROPEAN ȘI A CONSILIULUI

privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială
(Directiva privind răspunderea în materie de IA)

(Text cu relevanță pentru SEE)

PARLAMENTUL EUROPEAN ȘI CONSILIUL UNIUNII EUROPENE,

având în vedere Tratatul privind funcționarea Uniunii Europene, în special articolul 114,

având în vedere propunerea Comisiei Europene,

după transmiterea proiectului de act legislativ parlamentelor naționale,

având în vedere avizul Comitetului Economic și Social European 29 ,

având în vedere avizul Comitetului Regiunilor 30 ,

hotărând în conformitate cu procedura legislativă ordinară,

întrucât:

(1)Inteligența artificială („IA”) este un set de tehnologii generice care pot contribui la o gamă largă de beneficii în întregul spectru al economiei și al societății. Aceasta are un potențial ridicat în ceea ce privește progresul tehnologic și permite noi modele de afaceri în multe sectoare ale economiei digitale.

(2)În același timp, în funcție de circumstanțele aplicării și utilizării sale specifice, IA poate genera riscuri și poate aduce prejudicii intereselor și drepturilor care sunt protejate de dreptul Uniunii sau de dreptul intern. De exemplu, utilizarea IA poate afecta în mod negativ o serie de drepturi fundamentale, inclusiv pe cele privind viața, integritatea fizică și respectarea nediscriminării și a egalității de tratament. Regulamentul (UE) .../... al Parlamentului European și al Consiliului [Legea privind IA] 31 prevede cerințe menite să reducă riscurile la adresa siguranței și a drepturilor fundamentale, în timp ce alte instrumente de drept al Uniunii reglementează normele generale 32 și sectoriale privind siguranța produselor aplicabile, de asemenea, produselor asimilate mașinilor 33 și echipamentelor radio 34 bazate pe IA. Deși astfel de cerințe menite să reducă riscurile la adresa siguranței și a drepturilor fundamentale sunt menite să prevină, să monitorizeze și să abordeze riscurile și, prin urmare, să răspundă preocupărilor societale, ele nu oferă ajutor individual celor care au suferit prejudicii cauzate de IA. Cerințele existente prevăd, în special, autorizații, controale, monitorizare și sancțiuni administrative în ceea ce privește sistemele de IA pentru a preveni prejudiciile. Acestea nu prevăd despăgubirea persoanei prejudiciate pentru prejudiciile cauzate de un rezultat al unui sistem de IA sau de neproducerea unui astfel de rezultat.

(3)Atunci când o persoană prejudiciată solicită despăgubiri pentru prejudiciul suferit, normele generale ale statelor membre în materie de răspundere obiectivă impun, de obicei, ca persoana respectivă să dovedească că a avut loc o acțiune sau o omisiune prejudiciabilă din neglijență sau intenționată („culpă”) a persoanei potențial răspunzătoare pentru prejudiciul respectiv, precum și o cauzalitate între culpa respectivă și prejudiciul relevant. Cu toate acestea, atunci când IA este interpusă între acțiunea sau omisiunea unei persoane și prejudiciu, caracteristicile specifice ale anumitor sisteme de IA, cum ar fi opacitatea, comportamentul autonom și complexitatea, pot face excesiv de dificil, dacă nu imposibil, pentru persoana prejudiciată să îndeplinească această sarcină a probei. În special, poate fi excesiv de dificil să se demonstreze că o anumită contribuție pentru care persoana potențial responsabilă este răspunzătoare a generat un rezultat specific al sistemului de IA care a condus la prejudiciul în cauză.

(4)În astfel de cazuri, nivelul reparațiilor oferite de normele naționale în materie de răspundere civilă poate fi mai mic decât în cazurile în care alte tehnologii decât IA sunt implicate în cauzarea prejudiciilor. Astfel de decalaje în materie de compensare pot contribui la un nivel mai scăzut de acceptare societală a IA și la un nivel mai scăzut de încredere în produsele și serviciile bazate pe IA.

(5)Pentru a profita de beneficiile economice și societale ale IA și pentru a promova tranziția către economia digitală, este necesar ca anumite norme naționale în materie de răspundere civilă să fie adaptate în mod specific la aceste caracteristici specifice ale anumitor sisteme de IA. Astfel de adaptări ar trebui să contribuie la sporirea încrederii societății și a consumatorilor și, prin urmare, să promoveze introducerea IA. De asemenea, astfel de adaptări ar trebui să mențină încrederea în sistemul judiciar, prin asigurarea faptului că victimele prejudiciilor cauzate cu implicarea IA primesc aceleași despăgubiri efective ca și victimele prejudiciilor cauzate de alte tehnologii.

(6)Părțile interesate – persoanele prejudiciate care suferă prejudicii, persoanele potențial responsabile, asigurătorii – se confruntă cu insecuritate juridică cu privire la modul în care instanțele naționale, atunci când se confruntă cu provocările specifice ale IA, ar putea aplica normele existente în materie de răspundere în cazuri individuale pentru a obține rezultate juste. În absența unei acțiuni la nivelul Uniunii, este probabil ca cel puțin unele state membre să își adapteze normele în materie de răspundere civilă pentru a aborda decalajele în materie de compensare și incertitudinea juridică legate de caracteristicile specifice ale anumitor sisteme de IA. Acest lucru ar crea fragmentare juridică și bariere pe piața internă pentru întreprinderile care dezvoltă sau furnizează produse sau servicii inovatoare bazate pe IA. În special, ar fi afectate întreprinderile mici și mijlocii.

(7)Scopul prezentei directive este de a contribui la buna funcționare a pieței interne prin armonizarea anumitor norme naționale în materie de răspundere extracontractuală bazată pe culpă, astfel încât să se asigure că persoanele care solicită despăgubiri pentru prejudiciile care le-au fost cauzate de un sistem de IA beneficiază de un nivel de protecție echivalent celui de care beneficiază persoanele care solicită despăgubiri pentru prejudiciile cauzate fără implicarea unui sistem de IA. Acest obiectiv nu poate fi realizat în mod satisfăcător de către statele membre, deoarece obstacolele relevante de pe piața internă sunt legate de riscul unor măsuri de reglementare unilaterale și fragmentate la nivel național. Având în vedere caracterul digital al produselor și serviciilor care intră în domeniul de aplicare al prezentei directive, aceasta din urmă este deosebit de relevantă într-un context transfrontalier.

(8)Prin urmare, obiectivul de a asigura securitatea juridică și de a preveni decalajele în materie de compensare în cazurile în care sunt implicate sisteme de IA poate fi realizat mai bine la nivelul Uniunii. Prin urmare, Uniunea poate adopta măsuri în conformitate cu principiul subsidiarității prevăzut la articolul 5 din TUE. În conformitate cu principiul proporționalității, astfel cum este prevăzut la articolul respectiv, prezenta directivă nu depășește ceea ce este necesar pentru realizarea acestor obiective.

(9)Prin urmare, este necesar să se armonizeze punctual aspectele specifice ale normelor în materie de răspundere bazată pe culpă la nivelul Uniunii. O astfel de armonizare ar trebui să sporească securitatea juridică și să creeze condiții de concurență echitabile pentru sistemele de IA, îmbunătățind astfel funcționarea pieței interne în ceea ce privește producția și diseminarea de produse și servicii bazate pe IA.

(10)Pentru a asigura proporționalitatea, este oportun să se armonizeze în mod punctual numai normele în materie de răspundere bazată pe culpă care reglementează sarcina probei pentru persoanele care solicită despăgubiri pentru prejudiciile cauzate de sistemele de IA. Prezenta directivă nu ar trebui să armonizeze aspectele generale ale răspunderii civile care sunt reglementate în mod diferit de normele naționale în materie de răspundere civilă, cum ar fi definiția culpei sau a cauzalității, diferitele tipuri de prejudicii care dau naștere la acțiuni în despăgubire, repartizarea răspunderii între mai mulți autori ai unor fapte ilicite, comportamentul contributiv, calcularea daunelor-interese sau termenele de prescripție.

(11)Legislația statelor membre privind răspunderea producătorilor pentru prejudiciile cauzate de defectele produselor lor este deja armonizată la nivelul Uniunii prin Directiva 85/374/CEE a Consiliului 35 . Totuși, aceste acte legislative nu aduc atingere normelor statelor membre privind răspunderea contractuală sau extracontractuală, cum ar fi garanția, culpa sau răspunderea obiectivă, întemeiate pe alte motive decât defectul produsului. Deși, în același timp, revizuirea Directivei 85/374/CEE a Consiliului urmărește să clarifice și să asigure faptul că persoana prejudiciată poate solicita despăgubiri pentru prejudiciile cauzate de produsele bazate pe IA defecte, ar trebui, prin urmare, clarificat faptul că dispozițiile prezentei directive nu afectează niciunul dintre drepturile pe care o persoană prejudiciată le-ar putea avea în temeiul normelor naționale de punere în aplicare a Directivei 85/374/CEE. În plus, în domeniul transporturilor, dreptul Uniunii care reglementează răspunderea operatorilor de transport nu ar trebuie să fie afectat de prezenta directivă.

(12)[Actul legislativ privind serviciile digitale (DSA) 36 ] armonizează pe deplin normele aplicabile furnizorilor de servicii intermediare pe piața internă, acoperind riscurile societale care decurg din serviciile oferite de furnizorii respectivi, inclusiv în ceea ce privește sistemele de IA pe care le utilizează. Prezenta directivă nu aduce atingere dispozițiilor [Actului legislativ privind serviciile digitale (DSA)] care oferă un cadru cuprinzător și pe deplin armonizat pentru obligațiile de diligență pentru luarea de decizii pe bază de algoritmi de către furnizorii de servicii de găzduire, inclusiv exonerarea de răspundere pentru diseminarea conținutului ilegal încărcat de destinatarii serviciilor lor în cazul în care sunt îndeplinite condițiile prevăzute în regulamentul respectiv.

(13)Cu excepția prezumțiilor pe care le prevede, prezenta directivă nu armonizează legislațiile naționale în ceea ce privește partea căreia îi revine sarcina probei sau gradul de certitudine necesar în ceea ce privește nivelul probatoriu. 

(14)Prezenta directivă ar trebui să urmeze o abordare de armonizare minimă. O astfel de abordare le permite reclamanților afectați de prejudicii cauzate de sistemele de IA să invoce norme mai favorabile din dreptul intern. Astfel, legislațiile naționale ar putea, de exemplu, să mențină inversările sarcinii probei în temeiul regimurilor naționale bazate pe culpă sau al regimurilor naționale de răspundere care nu este bazată pe culpă (denumită „răspundere obiectivă”), existente deja într-o gamă variată în legislațiile naționale, care s-ar putea aplica prejudiciilor cauzate de sistemele de IA.

(15)De asemenea, ar trebui asigurată coerența cu [Legea privind IA]. Prin urmare, este oportun ca prezenta directivă să utilizeze aceleași definiții în ceea ce privește sistemele de IA, furnizorii și utilizatorii IA. În plus, prezenta directivă ar trebui să acopere cererile pentru acordarea de despăgubiri numai atunci când prejudiciile sunt cauzate de un rezultat al unui sistem de IA sau de neproducerea unui astfel de rezultat din culpa unei persoane, de exemplu a furnizorului sau a utilizatorului în temeiul [Legii privind IA]. Nu este necesar să fie acoperite acțiunile în răspundere civilă atunci când prejudiciul este cauzat de o evaluare umană urmată de o acțiune sau o omisiune umană, în timp ce sistemul de IA a furnizat doar informații sau recomandări care au fost luate în considerare de către actorul uman relevant. În cazul din urmă, este posibil să se identifice prejudiciul cauzat de o acțiune sau o omisiune umană, deoarece rezultatul acțiunii sistemului de IA nu este interpus între acțiunea sau omisiunea umană și prejudiciu și, prin urmare, stabilirea cauzalității nu este mai dificilă decât în situațiile în care nu este implicat un sistem de IA.

(16)Accesul la informații cu privire la anumite sisteme de IA cu grad ridicat de risc care sunt suspectate de a fi cauzat prejudicii este un factor important pentru a se stabili dacă este oportun să se solicite despăgubiri și pentru a justifica cererile pentru acordarea de despăgubiri. În plus, pentru sistemele de IA cu risc ridicat, [Legea privind IA] prevede cerințe specifice în materie de documentare, informare și înregistrare, dar nu prevede dreptul persoanei prejudiciate de a avea acces la informațiile respective. Prin urmare, este oportun să se stabilească norme privind divulgarea elementelor de probă relevante de către cei care le au la dispoziție, în scopul stabilirii răspunderii. Acest lucru ar trebui, de asemenea, să ofere un stimulent suplimentar pentru respectarea cerințelor relevante prevăzute în [Legea privind IA] de documentare sau înregistrare a informațiilor relevante.

(17)Numărul mare de persoane implicate de obicei în proiectarea, dezvoltarea, implementarea și operarea sistemelor de IA cu grad ridicat de risc îngreunează identificarea de către persoanele prejudiciate a persoanei potențial răspunzătoare pentru prejudiciile cauzate și dovedirea condițiilor pentru o cerere pentru acordarea de despăgubiri. Pentru a permite persoanelor prejudiciate să verifice dacă o cerere pentru acordarea de despăgubiri este întemeiată, este oportun să se acorde potențialilor reclamanți dreptul de a solicita unei instanțe să dispună divulgarea elementelor de probă relevante înainte de a depune o cerere pentru acordarea de despăgubiri. O astfel de divulgare ar trebui să fie dispusă numai în cazul în care reclamantul potențial prezintă fapte și informații suficiente pentru a susține plauzibilitatea unei cereri pentru acordarea de despăgubiri și a solicitat în prealabil furnizorului, persoanei supuse obligațiilor unui furnizor sau utilizatorului să divulge astfel de elemente de probă aflate la dispoziția sa cu privire la anumite sisteme de IA cu grad ridicat de risc care sunt suspectate că au cauzat prejudicii, solicitare care i-a fost refuzată. Dispunerea divulgării ar trebui să conducă la o reducere a numărului de litigii inutile și la evitarea costurilor pentru eventualele părți la litigiu cauzate de cereri care sunt nejustificate sau susceptibile să nu aibă câștig de cauză. Refuzul furnizorului, al persoanei supuse obligațiilor unui furnizor sau al utilizatorului înainte de a solicita instanței să divulge elemente de probă nu ar trebui să declanșeze prezumția de nerespectare a obligațiilor relevante de diligență de către persoana care refuză o astfel de divulgare.

(18)Limitarea divulgării elementelor de probă în ceea ce privește sistemele de IA cu grad ridicat de risc este în concordanță cu [Legea privind IA], care prevede anumite obligații specifice în materie de documentație, păstrare a evidențelor și informare pentru operatorii implicați în proiectarea, dezvoltarea și implementarea sistemelor de IA cu grad ridicat de risc. O astfel de coerență asigură, de asemenea, proporționalitatea necesară, evitând situațiile în care operatorii de sisteme de IA care prezintă un risc mai scăzut sau care nu prezintă niciun risc ar trebui să documenteze informațiile la un nivel similar cu cel necesar pentru sistemele de IA cu grad ridicat de risc în temeiul [Legii privind IA].

(19)Instanțele naționale ar trebui să poată dispune, în cursul procedurilor civile, divulgarea sau păstrarea elementelor de probă relevante legate de prejudiciile cauzate de sistemele de IA cu grad ridicat de risc din partea persoanelor care au deja obligația de a documenta sau de a înregistra informații în temeiul [Legii privind IA], indiferent dacă sunt furnizori, persoane supuse acelorași obligații ca furnizorii sau utilizatorii unui sistem de IA, fie în calitate de pârâți, fie în calitate de părți terțe la cerere. Ar putea exista situații în care elementele de probă relevante pentru cauză sunt deținute de entități care nu ar fi părți la cererea pentru acordarea de despăgubiri, dar care au obligația de a documenta sau de a înregistra astfel elemente de probă în temeiul [Legii privind IA]. Prin urmare, este necesar să se prevadă condițiile în care astfel de terți ai cererii pot fi obligați să divulge elementele de probă relevante.

(20)Pentru a menține echilibrul între interesele părților implicate în cererea pentru acordarea de despăgubiri și cele ale terților vizați, instanțele ar trebui să dispună divulgarea elementelor de probă numai în cazul în care acest lucru este necesar și proporțional pentru susținerea cererii sau a unei eventuale cereri pentru acordarea de despăgubiri. În acest sens, divulgarea ar trebui să se refere numai la elementele de probă care sunt necesare pentru luarea unei decizii cu privire la respectiva cerere pentru acordarea de despăgubiri, de exemplu numai la părțile din înregistrările sau seturile de date relevante necesare pentru a dovedi nerespectarea unei cerințe prevăzute de [Legea privind IA]. Pentru a asigura proporționalitatea acestor măsuri de divulgare sau de păstrare, instanțele naționale ar trebui să dispună de mijloace eficace pentru a proteja interesele legitime ale tuturor părților implicate, de exemplu protecția secretelor comerciale în sensul Directivei (UE) 2016/943 a Parlamentului European și a Consiliului 37 și a informațiilor confidențiale, ca de exemplu informațiile legate de siguranța publică sau securitatea națională. În ceea ce privește secretele comerciale sau presupusele secrete comerciale pe care instanța le-a identificat ca fiind confidențiale în sensul Directivei (UE) 2016/943, instanțele naționale ar trebui să fie împuternicite să ia măsuri specifice pentru a asigura confidențialitatea secretelor comerciale în timpul și după încheierea procedurilor, realizând, în același timp, un echilibru corect și proporțional între interesul deținătorului secretului comercial de a păstra secretul și interesul persoanei prejudiciate. Aceasta ar trebui să includă măsuri de restricționare a accesului la documente care conțin secrete comerciale și a accesului la audieri sau documente și transcrieri ale acestora la un număr limitat de persoane. Atunci când decid cu privire la astfel de măsuri, instanțele naționale ar trebui să ia în considerare necesitatea de a garanta dreptul la o cale de atac eficientă și la un proces echitabil, interesele legitime ale părților și, după caz, ale terților, precum și orice eventual prejudiciu cauzat oricăreia dintre părți și, după caz, terților, care rezultă din aprobarea sau respingerea unor astfel de măsuri. În plus, pentru a asigura o aplicare proporțională a unei măsuri de divulgare față de terți în cadrul cererilor pentru acordarea de despăgubiri, instanțele naționale ar trebui să dispună divulgarea de către terți numai dacă elementele de probă nu pot fi obținute de la pârât.

(21)Deși instanțele naționale dispun de mijloacele necesare pentru a-și executa ordinele de divulgare prin diverse măsuri, orice astfel de măsuri de executare ar putea întârzia cererile pentru acordarea de despăgubiri și, prin urmare, ar putea crea cheltuieli suplimentare pentru părțile la litigiu. În cazul persoanelor prejudiciate, astfel de întârzieri și cheltuieli suplimentare pot îngreuna recurgerea acestora la o cale de atac eficientă. Prin urmare, în cazul în care pârâtul din cadrul unei acțiuni în despăgubire nu divulgă elementele de probă de care dispune, dispuse de o instanță, este necesar să se stabilească o prezumție de nerespectare a obligațiilor de diligență pe care aceste elemente de probă trebuiau să le dovedească. Această prezumție legală relativă va reduce durata litigiilor și va facilita eficientizarea procedurilor judiciare. Pârâtul ar trebui să poată răsturna această prezumție prin prezentarea unor elemente de probă contrare.

(22)Pentru a aborda dificultățile de a dovedi că o anumită contribuție pentru care persoana potențial responsabilă este răspunzătoare a cauzat un rezultat specific al sistemului de IA care a condus la prejudiciul în cauză, este oportun să se prevadă, în anumite condiții, o prezumție de cauzalitate. În timp ce, într-o cerere întemeiată pe culpă, reclamantul trebuie, de obicei, să dovedească prejudiciul, acțiunea sau omisiunea umană care constituie culpa pârâtului și cauzalitatea dintre cele două, prezenta directivă nu armonizează condițiile în care instanțele naționale constată culpa. Acestea rămân reglementate de dreptul intern aplicabil și, în cazul în care sunt armonizate, de dreptul aplicabil al Uniunii. În mod similar, prezenta directivă nu armonizează condițiile referitoare la prejudiciu, de exemplu prejudiciile care pot fi compensate, care sunt, de asemenea, reglementate de dreptul intern aplicabil și de dreptul aplicabil al Uniunii. Pentru ca prezumția de cauzalitate prevăzută de prezenta directivă să se aplice, culpa pârâtului ar trebui să fie stabilită ca fiind o acțiune sau o omisiune umană care nu îndeplinește o obligație de diligență în temeiul dreptului Uniunii sau al dreptului intern care este destinată în mod direct protecției împotriva prejudiciului produs. Astfel, această prezumție se poate aplica, de exemplu, în cazul unei cereri de despăgubiri pentru vătămări corporale atunci când instanța stabilește culpa pârâtului pentru nerespectarea instrucțiunilor de utilizare care au scopul să prevină prejudiciile pentru persoane fizice. Prezumția nu se aplică atunci când nu s-au respectat obligațiile de diligență care nu au aveau drept scop direct protejarea împotriva prejudiciului produs, de exemplu prezumpția nu s-ar aplica în cererile de despăgubire ca urmare a unei vătămări corporale dacă un furnizor nu a depus documentația necesară la autoritățile competente. De asemenea, ar trebui să fie necesară stabilirea faptului că se poate considera în mod rezonabil probabil, pe baza circumstanțelor cauzei, ca respectiva culpă să fi influențat rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat. În cele din urmă, reclamantul ar trebui să aibă în continuare obligația de a dovedi că rezultatul sistemului sau incapacitatea de a produce un rezultat a cauzat prejudiciul.

(23)O astfel de culpă poate fi stabilită în ceea ce privește nerespectarea normelor Uniunii care reglementează în mod specific sistemele de IA cu grad ridicat de risc, cum ar fi cerințele introduse pentru anumite sisteme de IA cu grad ridicat de risc prin [Legea privind IA], cerințe care pot fi introduse de viitoarea legislație sectorială pentru alte sisteme de IA cu grad ridicat de risc în conformitate cu [articolul 2 alineatul (2) din Legea privind IA] sau obligații de diligență care sunt legate de anumite activități și care sunt aplicabile indiferent dacă IA este utilizată pentru activitatea respectivă. În același timp, prezenta directivă nu creează și nici nu armonizează cerințele sau răspunderea entităților a căror activitate este reglementată în temeiul acestor acte juridice și, prin urmare, nu creează noi cereri pentru acordarea de despăgubiri. Constatarea unei încălcări a unei astfel de cerințe care constituie o culpă se va face în conformitate cu dispozițiile respectivelor norme aplicabile ale dreptului Uniunii, deoarece prezenta directivă nici nu introduce cerințe noi, nici nu afectează cerințele existente. De exemplu, exonerarea de răspundere pentru furnizorii de servicii intermediare și obligațiile de diligență care le revin în temeiul [Actului legislativ privind serviciile digitale] nu sunt afectate de prezenta directivă. În mod similar, conformitatea cu cerințele impuse platformelor online pentru a evita comunicarea publică neautorizată a operelor protejate prin drepturi de autor trebuie stabilită în temeiul Directivei (UE) 2019/790 privind dreptul de autor și drepturile conexe pe piața unică digitală și al altor acte legislative relevante ale Uniunii privind drepturile de autor. 

(24)În domenii care nu sunt armonizate de dreptul Uniunii, dreptul intern continuă să se aplice, iar culpa este stabilită în temeiul dreptului intern aplicabil. Toate regimurile naționale de răspundere au obligații de diligență, luând ca standard de conduită diferite expresii ale principiului referitor la modul în care ar trebui să acționeze o persoană rezonabilă, ceea ce asigură, de asemenea, funcționarea în condiții de siguranță a sistemelor de IA pentru a preveni prejudicierea intereselor juridice recunoscute. Astfel de obligații de diligență ar putea, de exemplu, să le impună utilizatorilor de sisteme de IA să aleagă, pentru anumite sarcini, un anumit sistem de IA cu caracteristici concrete sau să excludă anumite segmente ale unei populații de la expunerea la un anumit sistem de IA. Dreptul intern poate introduce, de asemenea, obligații specifice menite să prevină riscurile pentru anumite activități, care sunt aplicabile indiferent dacă IA este utilizată pentru activitatea respectivă, de exemplu norme privind traficul sau obligații concepute în mod specific pentru sistemele de IA, de exemplu cerințe naționale suplimentare pentru utilizatorii sistemelor de IA cu grad ridicat de risc în temeiul articolului 29 alineatul (2) din [Legea privind IA]. Prezenta directivă nici nu introduce astfel de cerințe, nici nu afectează condițiile de stabilire a culpei în cazul încălcării acestor cerințe.

(25)Chiar și atunci când se constată o culpă care constă în nerespectarea unei obligații de diligență destinate în mod direct protecției împotriva prejudiciului produs, aceasta nu ar trebui să conducă în toate cazurile la aplicarea prezumției legale relative care o leagă de rezultatul sistemului de IA. O astfel de prezumție ar trebui să se aplice numai atunci când se poate considera în mod rezonabil, din circumstanțele în care s-a produs prejudiciul, că o astfel de culpă a influențat rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat care a cauzat prejudiciul. Se poate considera, de exemplu, că este probabil în mod rezonabil ca culpa să fi influențat rezultatul sau neproducerea unui rezultat, atunci când această culpă constă în încălcarea unei obligații de diligență în ceea ce privește limitarea perimetrului de funcționare a sistemului de IA, iar prejudiciile s-au produs în afara perimetrului de funcționare. Dimpotrivă, o încălcare a unei cerințe de a depune anumite documente sau de a se înregistra la o anumită autoritate, chiar dacă acest lucru ar putea fi prevăzut pentru activitatea respectivă sau chiar aplicabil în mod expres funcționării unui sistem de IA, nu ar putea fi considerată ca fiind în mod rezonabil susceptibilă să fi influențat rezultatele produse de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat.

(26)Prezenta directivă acoperă culpa care constituie neconformitatea cu anumite cerințe enumerate prevăzute în capitolele 2 și 3 din [Legea privind IA] pentru furnizorii și utilizatorii de sisteme de IA cu grad ridicat de risc, a căror nerespectare poate conduce, în anumite condiții, la o prezumție de cauzalitate. Legea privind IA prevede armonizarea deplină a cerințelor pentru sistemele de IA, cu excepția cazului în care se prevede în mod explicit altfel. Aceasta armonizează cerințele specifice pentru sistemele de IA cu grad ridicat de risc. Prin urmare, în ceea ce privește cererile pentru acordarea de despăgubiri în care se aplică o prezumție de cauzalitate în conformitate cu prezenta directivă, culpa potențială a furnizorilor sau a persoanelor supuse obligațiilor unui furnizor în temeiul [Legii privind IA] este stabilită numai prin nerespectarea acestor cerințe. Având în vedere că, în practică, ar putea fi dificil pentru reclamant să dovedească o astfel de neconformitate atunci când pârâtul este un furnizor al sistemului de IA și în deplină concordanță cu logica [Legii privind IA], prezenta directivă ar trebui să prevadă, de asemenea, că măsurile întreprinse de furnizor în cadrul sistemului de gestionare a riscurilor și rezultatele sistemului de gestionare a riscurilor, și anume decizia de a adopta sau nu anumite măsuri de gestionare a riscurilor, ar trebui să fie luate în considerare pentru a stabili dacă furnizorul a respectat cerințele relevante în temeiul Legii privind IA menționate în prezenta directivă. Sistemul de gestionare a riscurilor instituit de furnizor în temeiul [Legii privind IA] este un proces iterativ continuu desfășurat pe parcursul întregului ciclu de viață al sistemului de IA cu grad ridicat de risc, prin care furnizorul asigură conformitatea cu cerințele obligatorii menite să atenueze riscurile și, prin urmare, poate fi un element util în scopul evaluării acestei conformități. Prezenta directivă reglementează, de asemenea, cazurile de culpă a utilizatorilor, atunci când aceasta constă în nerespectarea anumitor cerințe specifice stabilite de [Legea privind IA]. În plus, culpa utilizatorilor de sisteme de IA cu grad ridicat de risc poate fi stabilită în urma nerespectării altor obligații de diligență prevăzute în dreptul Uniunii sau în dreptul intern, în temeiul articolului 29 alineatul (2) din [Legea privind IA].

(27)Deși caracteristicile specifice ale anumitor sisteme de IA, cum ar fi autonomia și opacitatea, ar putea face excesiv de dificilă îndeplinirea de către reclamant a sarcinii probei, ar putea exista situații în care astfel de dificultăți nu există, deoarece reclamantul ar putea dispune de suficiente elemente de probă și expertiză pentru a dovedi cauzalitatea. Acesta ar putea fi cazul, de exemplu, în ceea ce privește sistemele de IA cu grad ridicat de risc, în cazul cărora reclamantul ar putea avea acces în mod rezonabil la suficiente elemente de probă și expertiză prin intermediul cerințelor de documentare și de înregistrare în temeiul [Legii privind IA]. În astfel de situații, instanța nu ar trebui să aplice prezumția.

(28)Prezumția de cauzalitate s-ar putea aplica, de asemenea, sistemelor de IA care nu sunt sisteme de IA cu grad ridicat de risc, deoarece ar putea exista dificultăți de probă majore pentru solicitant. De exemplu, astfel de dificultăți ar putea fi evaluate în lumina caracteristicilor anumitor sisteme de IA, cum ar fi autonomia și opacitatea, care fac ca explicarea funcționării interne a sistemului de IA să fie foarte dificilă în practică, afectând negativ capacitatea reclamantului de a dovedi cauzalitatea dintre culpa pârâtului și rezultatul sistemului de IA. O instanță națională ar trebui să aplice prezumția în cazul în care reclamantul întâmpină dificultăți majore în a dovedi cauzalitatea, întrucât este obligat să explice modul în care sistemul de IA a fost determinat de acțiunea sau omisiunea umană care constituie culpa să producă rezultatul sau să fie în incapacitate de a produce un rezultat, care a cauzat prejudiciul. Cu toate acestea, reclamantul nu ar trebui să fie obligat să explice caracteristicile sistemului de IA în cauză și nici modul în care aceste caracteristici îngreunează stabilirea cauzalității.

(29)Aplicarea prezumției de cauzalitate este menită să asigure persoanei prejudiciate un nivel de protecție similar cu cel pentru situațiile în care IA nu este implicată și în care cauzalitatea poate fi, prin urmare, mai ușor de dovedit. Cu toate acestea, reducerea sarcinii probei în ceea ce privește cauzalitatea nu este întotdeauna adecvată în temeiul prezentei directive în cazul în care pârâtul nu este un utilizator profesionist, ci mai degrabă o persoană care utilizează sistemul de IA pentru activitățile sale private. În astfel de circumstanțe, pentru a echilibra interesele dintre persoana prejudiciată și utilizatorul neprofesionist, trebuie să se ia în considerare dacă acești utilizatori neprofesioniști pot spori riscul ca un sistem de IA să cauzeze prejudicii prin comportamentul lor. În cazul în care furnizorul unui sistem de IA și-a respectat toate obligațiile și, în consecință, sistemul respectiv a fost considerat suficient de sigur pentru a fi introdus pe piață pentru o anumită utilizare de către utilizatori neprofesioniști și este apoi utilizat pentru acea sarcină, prezumția de cauzalitate nu ar trebui să se aplice pentru simpla punere în funcționare a unui astfel de sistem de către astfel de utilizatori neprofesioniști. Un utilizator neprofesionist care cumpără un sistem de IA și îl utilizează pur și simplu în conformitate cu scopul său preconizat, fără a interveni în mod semnificativ în condițiile de operare, nu ar trebui să fie acoperit de prezumția de cauzalitate prevăzută de prezenta directivă. Cu toate acestea, în cazul în care o instanță națională stabilește că un utilizator neprofesionist a intervenit în mod semnificativ în condițiile de funcționare a unui sistem de IA sau că acestuia i s-a solicitat și era în măsură să stabilească condițiile de funcționare a sistemului de IA, dar nu a făcut acest lucru, atunci ar trebui să se aplice prezumția de cauzalitate, atunci când sunt îndeplinite toate celelalte condiții. Acesta ar putea fi situația, de exemplu, atunci când utilizatorul neprofesionist nu respectă instrucțiunile de utilizare sau alte obligații de diligență aplicabile atunci când alege zona de operare sau când stabilește condițiile de performanță ale sistemului de IA. Acest lucru nu aduce atingere faptului că furnizorul ar trebui să stabilească scopul preconizat al unui sistem de IA, inclusiv contextul specific și condițiile de utilizare specifice, și să elimine sau să reducă la minimum riscurile sistemului respectiv, după caz, în momentul proiectării și dezvoltării, ținând seama de cunoștințele și expertiza utilizatorului vizat.

(30)Întrucât prezenta directivă introduce o prezumție legală relativă, pârâtul ar trebui să o poată răsturna, în special demonstrând că culpa sa nu ar fi putut cauza prejudiciul.

(31)Este necesar să se prevadă o revizuire a prezentei directive [la cinci ani] după încheierea perioadei de transpunere. În special, această revizuire ar trebui să examineze dacă este necesar să se creeze norme în materie de răspundere obiectivă pentru cererile împotriva operatorului, atât timp cât nu sunt deja acoperite de alte norme ale Uniunii privind răspunderea, în special Directiva 85/374/CEE, împreună cu o asigurare obligatorie pentru funcționarea anumitor sisteme de IA, astfel cum a sugerat Parlamentul European 38 . În conformitate cu principiul proporționalității, este oportun să se evalueze o astfel de necesitate în lumina evoluțiilor tehnologice și de reglementare relevante din următorii ani, ținând seama de efectul și impactul asupra introducerii și adoptării sistemelor IA, în special pentru IMM-uri. O astfel de revizuire ar trebui să ia în considerare, printre altele, riscurile care implică prejudicii aduse unor valori juridice importante, cum ar fi viața, sănătatea și bunurile terților expuși în mod involuntar, prin operarea de produse sau servicii bazate pe IA. Revizuirea respectivă ar trebui, de asemenea, să analizeze eficacitatea măsurilor prevăzute în prezenta directivă în ceea ce privește abordarea acestor riscuri, precum și elaborarea de soluții adecvate de către piața asigurărilor. Pentru a asigura disponibilitatea informațiilor necesare pentru efectuarea unei astfel de revizuiri, este necesar să se colecteze date și alte elemente de probă necesare care să acopere aspectele relevante.

(32)Având în vedere necesitatea de a adapta normele naționale în materie de răspundere civilă și de procedură pentru a promova introducerea produselor și serviciilor bazate pe IA în condiții benefice ale pieței interne, acceptarea de către societate și încrederea consumatorilor în tehnologia IA și în sistemul de justiție, este oportun să se stabilească un termen de cel mult [doi ani de la intrarea în vigoare] a prezentei directive pentru ca statele membre să adopte măsurile de transpunere necesare.

(33)În conformitate cu Declarația politică comună din 28 septembrie 2011 a statelor membre și a Comisiei privind documentele explicative 39 , statele membre s-au angajat ca, în cazuri justificate, să transmită alături de notificarea măsurilor lor de transpunere și unul sau mai multe documente care să explice relația dintre componentele unei directive și părțile corespunzătoare din instrumentele naționale de transpunere. În ceea ce privește prezenta directivă, legiuitorul consideră că transmiterea unor astfel de documente este justificată,

ADOPTĂ PREZENTA DIRECTIVĂ:

Articolul 1

Obiect și domeniu de aplicare

(1)Prezenta directivă stabilește norme comune cu privire la:

(a)divulgarea elementelor de probă privind sistemele de inteligență artificială (IA) cu grad ridicat de risc, pentru a permite unui reclamant să justifice o acțiune în despăgubire de drept civil extracontractuală bazată pe culpă;

(b)sarcina probei în cazul acțiunilor de drept civil extracontractuale bazate pe culpă introduse în fața instanțelor naționale pentru prejudiciile cauzate de un sistem de IA.

(2)Prezenta directivă se aplică acțiunilor în despăgubire de drept civil extracontractuale bazate pe culpă, în cazurile în care prejudiciile cauzate de un sistem de IA se produc ulterior [sfârșitul perioadei de transpunere].

Prezenta directivă nu se aplică răspunderii penale.

(3)Prezenta directivă nu afectează:

(a)normele de drept al Uniunii care reglementează condițiile de răspundere în domeniul transporturilor;

(b)niciun drept pe care o persoană prejudiciată l-ar putea avea în temeiul normelor naționale de punere în aplicare a Directivei 85/374/CEE;

(c)exonerările de răspundere și obligațiile de diligență, astfel cum sunt prevăzute în [Actul legislativ privind serviciile digitale] și

(d)normele naționale care stabilesc partea căreia îi revine sarcina probei, gradul de certitudine necesar în ceea ce privește nivelul probatoriu sau modul în care este definită culpa, în alte situații decât cele prevăzute la articolele 3 și 4.

(4)Statele membre pot adopta sau menține norme naționale care sunt mai favorabile reclamanților pentru a justifica o acțiune în despăgubire de drept civil extracontractuală pentru prejudiciile cauzate de un sistem de IA, cu condiția ca aceste norme să fie compatibile cu dreptul Uniunii.

Articolul 2

Definiții

În sensul prezentei directive, se aplică următoarele definiții:

(1)„sistem de IA” înseamnă un sistem de IA astfel cum este definit la [articolul 3 alineatul (1) din Legea privind IA];

(2)„sistem de IA cu grad ridicat de risc” înseamnă un sistem de IA menționat la [articolul 6 din Legea privind IA];

(3)„furnizor” înseamnă un furnizor astfel cum este definit la [articolul 3 alineatul (2) din Legea privind IA];

(4)„utilizator” înseamnă un utilizator astfel cum este definit la [articolul 3 alineatul (4) din Legea privind IA];

(5)„cerere pentru acordarea de despăgubiri” înseamnă o acțiune de drept civil având ca temei culpa extracontractuală prin care se urmărește compensarea prejudiciului cauzat de un rezultat al unui sistem de IA sau de incapacitatea unui astfel de sistem de a produce un rezultat, în cazul în care un astfel de rezultat ar fi trebuit să fie produs;

(6)„reclamant” înseamnă o persoană care introduce o cerere pentru acordarea de despăgubiri care:

(a)a fost prejudiciată de un rezultat al unui sistem de IA sau de incapacitatea unui astfel de sistem de a produce un rezultat în cazul în care un astfel de rezultat ar fi trebuit să fie produs;

(b) a succedat sau s-a subrogat în dreptul unei persoane prejudiciate în temeiul legii sau al unui contract sau

(c)acționează în numele uneia sau a mai multor persoane prejudiciate, în conformitate cu dreptul Uniunii sau cu dreptul intern.

(7)    „reclamant potențial” înseamnă o persoană fizică sau juridică care examinează posibilitatea de a introduce o cerere pentru acordarea de despăgubiri, dar nu a făcut-o încă;

(8)    „pârât” înseamnă persoana împotriva căreia se introduce o cerere pentru acordarea de despăgubiri;

(9)    „obligație de diligență” înseamnă un standard de conduită necesar, stabilit de dreptul intern sau de dreptul Uniunii, pentru a evita prejudicierea intereselor juridice recunoscute la nivelul dreptului intern sau la nivelul dreptului Uniunii, inclusiv viața, integritatea fizică, proprietatea și protecția drepturilor fundamentale.

Articolul 3

Divulgarea elementelor de probă și prezumția legală relativă de neconformitate

 

1.Statele membre se asigură că instanțele naționale sunt abilitate, fie la cererea unui reclamant potențial care a solicitat anterior unui furnizor, a unei persoane supuse obligațiilor unui furnizor în temeiul [articolului 24 sau articolului 28 alineatul (1) din Legea privind IA], fie a unui utilizator să divulge elementele de probă relevante aflate la dispoziția sa cu privire la un anumit sistem de IA cu grad ridicat de risc care este suspectat că a cauzat prejudicii, dar care a fost refuzat, sau a unui reclamant, să dispună divulgarea unor astfel elemente de probă de către persoanele respective.

În susținerea acestei cereri, reclamantul potențial trebuie să prezinte fapte și elemente de probă suficiente pentru a susține plauzibilitatea unei cereri pentru acordarea de despăgubiri.

2.În contextul unei cereri pentru acordarea de despăgubiri, instanța națională dispune divulgarea probelor de către una dintre persoanele enumerate la alineatul (1) numai dacă reclamantul a întreprins toate încercările proporționale de a strânge elementele de probă relevante de la pârât.

3.Statele membre se asigură că instanțele naționale, la cererea unui reclamant, sunt abilitate să dispună măsuri specifice pentru păstrarea elementelor de probă menționate la alineatul (1).

4.Instanțele naționale limitează divulgarea elementelor de probă la ceea ce este necesar și proporțional pentru a susține o eventuală cerere sau o acțiune în despăgubiri și păstrarea acestora la ceea ce este necesar și proporțional pentru a sprijini o astfel de cerere pentru acordarea de despăgubiri.

Pentru a stabili dacă un ordin de divulgare sau de păstrare a elementelor de probă este proporțional, instanțele naționale iau în considerare interesele legitime ale tuturor părților, inclusiv ale terților în cauză, în special în ceea ce privește protecția secretelor comerciale în sensul articolului 2 alineatul (1) din Directiva (UE) 2016/943 și a informațiilor confidențiale, ca de exemplu informațiile legate de siguranța publică sau securitatea națională.

Statele membre se asigură că, în cazul în care se dispune divulgarea unui secret comercial sau a unui presupus secret comercial pe care instanța l-a identificat drept confidențial în sensul articolului 9 alineatul (1) din Directiva (UE) 2016/943, instanțele naționale sunt abilitate, la cererea motivată corespunzător a unei părți sau din proprie inițiativă, să ia măsurile specifice necesare pentru a păstra confidențialitatea atunci când elementele de probă respective sunt utilizate sau menționate în cadrul procedurilor judiciare.

Statele membre se asigură, de asemenea, că persoana obligată să divulge sau să păstreze elementele de probă menționate la alineatul (1) sau (2) dispune de căi de atac procedurale adecvate ca răspuns la astfel de ordonanțe.

5.În cazul în care pârâtul nu se conformează unei ordonanțe emise de o instanță națională în cadrul unei cereri pentru acordarea de despăgubiri de a divulga sau de a păstra elementele de probă aflate la dispoziția sa în temeiul alineatului (1) sau (2), o instanță națională prezumă nerespectarea de către pârât a unei obligații de diligență relevante, în special în circumstanțele menționate la articolul 4 alineatul (2) sau (3), și că elementele de probă solicitate au fost menite să ofere dovezi în sensul cererii relevante pentru acordarea de despăgubiri.

Pârâtul are dreptul de a răsturna o astfel de prezumție.

Articolul 4

Prezumția legală relativă a cauzalității în caz de culpă

(1)Sub rezerva cerințelor prevăzute la prezentul articol, instanțele naționale prezumă, în scopul aplicării normelor în materie de răspundere în cazul unei cereri de despăgubiri, cauzalitatea dintre culpa pârâtului și rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat, în cazul în care sunt îndeplinite toate condițiile următoare:

(a) reclamantul a demonstrat sau instanța a prezumat, în temeiul articolului 3 alineatul (5), culpa pârâtului sau a unei persoane pentru al cărei comportament este responsabil pârâtul, constând în nerespectarea unei obligații de diligență prevăzute în dreptul Uniunii sau în dreptul intern, menite în mod direct să protejeze împotriva prejudiciului produs;

(b)se poate considera în mod rezonabil că este probabil, pe baza circumstanțelor cazului, ca culpa să fi influențat rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat;

(c)reclamantul a demonstrat că rezultatul produs de sistemul de IA sau incapacitatea sistemului de IA de a produce un rezultat a generat prejudiciul.

(2)În cazul unei cereri pentru acordarea de despăgubiri împotriva unui furnizor de sistem de IA cu grad ridicat de risc care face obiectul cerințelor prevăzute în capitolele 2 și 3 de la titlul III din [Legea privind IA] sau a unei persoane supuse obligațiilor furnizorului în temeiul [articolului 24 sau articolului 28 alineatul (1) din Legea privind IA], condiția prevăzută la alineatul (1) litera (a) este îndeplinită numai în cazul în care reclamantul a demonstrat că furnizorul sau, după caz, persoana care face obiectul obligațiilor furnizorului nu a respectat una dintre următoarele cerințe prevăzute în capitolele respective, ținând seama de măsurile întreprinse în cadrul sistemului de gestionare a riscurilor și de rezultatele acestuia în temeiul [articolului 9 și al articolului 16 litera (a) din Legea privind IA]:

(a) sistemul de IA este un sistem care utilizează tehnici ce implică antrenarea de modele cu date și care nu a fost elaborat pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la [articolul 10 alineatele (2)-(4) din Legea privind IA];

(b) sistemul de IA nu a fost conceput și dezvoltat într-un mod care să îndeplinească cerințele de transparență prevăzute la [articolul 13 din Legea privind IA];

(c)sistemul de IA nu a fost conceput și dezvoltat într-un mod care să permită o supraveghere eficace de către persoane fizice în perioada în care sistemul de IA este utilizat în temeiul [articolului 14 din Legea privind IA];

(d)sistemul de IA nu a fost conceput și dezvoltat astfel încât să atingă, având în vedere scopul său preconizat, un nivel adecvat de acuratețe, robustețe și securitate cibernetică în temeiul [articolului 15 și al articolului 16 litera (a) din Legea privind IA] sau

(e)acțiunile corective necesare nu au fost luate imediat pentru a aduce sistemul de IA în conformitate cu obligațiile prevăzute în [titlul III capitolul 2 din Legea privind IA] sau pentru a retrage sau a rechema sistemul, după caz, în temeiul [articolului 16 litera (g) și al articolului 21 din Legea privind IA].

(3)În cazul unei cereri pentru acordarea de despăgubiri împotriva unui utilizator al unui sistem de IA cu grad ridicat de risc care face obiectul cerințelor prevăzute în capitolele 2 și 3 de la titlul III din [Legea privind IA], condiția prevăzută la alineatul (1) litera (a) este îndeplinită în cazul în care reclamantul dovedește că utilizatorul:

(a)nu și-a respectat obligațiile de a utiliza sau de a monitoriza sistemul de IA în conformitate cu instrucțiunile de utilizare însoțitoare sau, după caz, de a suspenda sau de a întrerupe utilizarea acestuia în temeiul [articolului 29 din Legea privind IA] sau

(b)a expus sistemul de IA la date de intrare aflate sub controlul său care nu sunt relevante având în vedere scopul preconizat al sistemului, în conformitate cu [articolul 29 alineatul (3) din lege].

(4)În cazul unei cereri pentru acordarea de despăgubiri referitoare la un sistem de IA cu grad ridicat de risc, o instanță națională nu aplică prezumția prevăzută la alineatul (1) în cazul în care pârâtul demonstrează că reclamantul are acces în mod rezonabil la suficiente elemente de probă și expertiză pentru a dovedi cauzalitatea menționată la alineatul (1).

(5)În cazul unei cereri pentru acordarea de despăgubiri referitoare la un sistem de IA care nu este un sistem de IA cu grad ridicat de risc, prezumția prevăzută la alineatul (1) se aplică numai în cazul în care instanța națională consideră că este excesiv de dificil pentru reclamant să dovedească cauzalitatea menționată la alineatul (1).

(6)În cazul unei cereri pentru acordarea de despăgubiri împotriva unui pârât care a utilizat sistemul de IA în cursul unei activități personale, neprofesionale, prezumția prevăzută la alineatul (1) se aplică numai dacă pârâtul a intervenit în mod semnificativ în condițiile de funcționare a sistemului de IA sau în cazul în care pârâtului i s-a solicitat și acesta era în măsură să stabilească condițiile de funcționare a sistemului de IA, dar nu a făcut acest lucru.

(7)Pârâtul are dreptul să răstoarne prezumția prevăzută la alineatul (1).

Articolul 5

Evaluare și reexaminare specifică

(1)Până la [DATA: cinci ani de la încheierea perioadei de transpunere], Comisia reexaminează aplicarea prezentei directive și prezintă un raport Parlamentului European, Consiliului și Comitetului Economic și Social European, însoțit, după caz, de o propunere legislativă.

(2)Raportul examinează efectele articolelor 3 și 4 asupra realizării obiectivelor urmărite de prezenta directivă. În special, ar trebui să evalueze caracterul adecvat al normelor în materie de răspundere obiectivă în cazul cererilor pentru acordarea de despăgubiri depuse împotriva operatorilor anumitor sisteme de IA, atât timp cât nu sunt deja acoperite de alte norme ale Uniunii privind răspunderea, și necesitatea unei acoperiri prin asigurare, ținând cont în același timp de efectul și impactul asupra introducerii și adoptării sistemelor de IA, în special pentru IMM-uri.

(3)Comisia stabilește un program de monitorizare pentru pregătirea raportului în temeiul alineatelor (1) și (2), stabilind modul și intervalele de colectare a datelor și a altor elemente de probă necesare. Programul de monitorizare precizează măsurile care trebuie luate de Comisie și de statele membre pentru colectarea și analizarea datelor și a altor elemente de probă. În sensul programului respectiv, statele membre comunică Comisiei datele și elementele de probă relevante până la [data de 31 decembrie a celui de al doilea an complet care urmează după încheierea perioadei de transpunere] și până la sfârșitul fiecărui an ulterior.

Articolul 6

Modificare adusă Directivei (UE) 2020/1828

În anexa I la Directiva (UE) 2020/1828 40 se adaugă următorul punct 67:

„(67) Directiva (UE) .../... a Parlamentului European și a Consiliului din ... de adaptare a normelor în materie de răspundere civilă extracontractuală la inteligența artificială (Directiva privind răspunderea în materie de IA) (JO L..., ..., p. ...).”

Articolul 7

Transpunere

(1)Statele membre asigură intrarea în vigoare a actelor cu putere de lege și a actelor administrative necesare pentru a se conforma prezentei directive până cel târziu la [doi ani de la intrarea în vigoare]. Statele membre comunică de îndată Comisiei textul acestor acte.

Atunci când statele membre adoptă dispozițiile respective, acestea conțin o trimitere la prezenta directivă sau sunt însoțite de o asemenea trimitere la data publicării lor oficiale. Statele membre stabilesc modalitatea de efectuare a acestei trimiteri.

(2)Comisiei îi sunt comunicate de către statele membre textele principalelor dispoziții de drept intern pe care le adoptă în domeniul reglementat de prezenta directivă.

Articolul 8

Intrarea în vigoare

Prezenta directivă intră în vigoare în a douăzecea zi de la data publicării în Jurnalul Oficial al Uniunii Europene.

Articolul 9

Destinatari

Prezenta directivă se adresează statelor membre.

Adoptată la Bruxelles,

Pentru Parlamentul European,    Pentru Consiliu,

Președinta     Președintele 

(1)    „European enterprise survey on the use of technologies based on artificial intelligence” (Ancheta europeană realizată în rândul întreprinderilor privind utilizarea tehnologiilor bazate pe inteligența artificială), Ipsos 2020, Raport final, p. 58.
(
https://op.europa.eu/ro/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_ro.pdf .
(3)    Cartea albă „Inteligența artificială – O abordare europeană axată pe excelență și încredere”, 19.2.2020, COM(2020) 65 final.
(4)    Raportul Comisiei către Parlamentul European, Consiliu și Comitetul Economic și Social European privind implicațiile în materie de siguranță și răspundere ale inteligenței artificiale, ale internetului obiectelor și ale roboticii, 19.2.2020, COM(2020) 64 final.
(5)    Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind regimul de răspundere civilă pentru inteligența artificială (2020/2014(INL)).
(6)    Rezoluția Parlamentului European din 3 mai 2022 referitoare la inteligența artificială în era digitală (2020/2266(INI)).
(7)    Propunere de regulament al Parlamentului European și al Consiliului de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) [COM(2021206 final].
(8)    Legea privind IA interzice în mod expres doar un număr mic de cazuri de utilizare a IA.
(9)    Comisia, SWD(2021) 84 final, „Impact assessment accompanying the Artificial Intelligence Act” (Evaluarea impactului care însoțește Legea privind inteligența artificială), p. 88.
(10)    Propunere de regulament al Parlamentului European și al Consiliului privind siguranța generală a produselor (COM/2021/346 final).
(11)    Propunere de regulament al Parlamentului European și al Consiliului privind produsele asimilate mașinilor [COM(2021202 final].
(12)    Regulamentul delegat (UE) 2022/30 al Comisiei de completare a Directivei 2014/53/UE a Parlamentului European și a Consiliului în ceea ce privește aplicarea cerințelor esențiale menționate la articolul 3 alineatul (3) literele (d), (e) și (f) din directiva respectivă (JO L 7, 12.1.2022, p. 6).
(13)    Comunicarea Comisiei, „Conturarea viitorului digital al Europei”, COM/2020/67 final.
(14)    Propunere de regulament al Parlamentului European și al Consiliului privind cerințele orizontale de securitate cibernetică pentru produsele cu elemente digitale – COM(2022) 454 final.
(15)    Comunicarea Comisiei intitulată „O strategie europeană privind datele”, COM(2020) 66 final.
(16)    Comunicarea Comisiei către Parlamentul European, Consiliul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor, Pactul verde european [COM(2019) 640 final].
(17)    Deloitte, „Study to support the Commission’s IA on liability for artificial intelligence” (Studiu în sprijinul evaluării impactului efectuate de Comisie privind răspunderea în materie de inteligență artificială), 2021 (denumit în continuare „studiul economic”).
(18)    Strategia națională a Republicii Cehe privind inteligența artificială, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, „National Strategies on Artificial Intelligence – A European perspective” (Strategii naționale privind inteligența artificială – o perspectivă europeană), ediția 2021 – un raport al JRC-OCDE: https://op.europa.eu/ro/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , p. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;.
(20)    Deloitte, „Study to support the Commission’s IA on liability for artificial intelligence” (Studiu în sprijinul evaluării impactului efectuate de Comisie privind răspunderea în materie de inteligență artificială), 2021, p. 96.
(21)    A se vedea „Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 20192027” (Politica de dezvoltare a inteligenței artificiale în Polonia pentru perioada 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102-3.
(22)    IA Portugalia 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., p. 113.
(23)    În primul rând, răspunderea obiectivă, inversarea sarcinii probei sau reducerea sarcinii probei sub forma unor prezumții irefragabile sau relative.
(24)    Disponibil la adresa < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/F_ro >.
(25)    „Liability for artificial intelligence and other emerging digital technologies” (Răspunderea pentru inteligența artificială și alte tehnologii digitale emergente), noiembrie 2019, https://op.europa.eu/ro/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1 .
(26)    Karner/Koch/Geistfeld, „Comparative Law Study on Civil Liability for Artificial Intelligence” („Studiu de drept comparat privind răspunderea civilă pentru inteligența artificială”), 2021, https://op.europa.eu/ro/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1 .
(27)    Kantar, „Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services” („Studiu comportamental privind legătura dintre provocările inteligenței artificiale pentru normele statelor membre în materie de răspundere civilă și atitudinea consumatorilor față de produsele și serviciile bazate pe IA”), report final 2021.
(28)    Deloitte, „Study to support the Commission’s IA on liability for artificial intelligence” (Studiu în sprijinul evaluării impactului efectuate de Comisie privind răspunderea în materie de inteligență artificială), 2021.
(29)    JO C , , p. .
(30)    JO C , , p. .
(31)    [Propunere de regulament de stabilire a unor norme armonizate privind inteligența artificială (Legea privind inteligența artificială) – COM(2021)206 final].
(32)    [Propunere de regulament al Parlamentului European și al Consiliului privind siguranța generală a produselor (COM(2021)346 final)].
(33)    [Propunere de Regulament al Parlamentului European și al Consiliului privind produsele asimilate mașinilor (COM(2021)202 final)].
(34)    Regulamentul delegat (UE) 2022/30 al Comisiei de completare a Directivei 2014/53/UE a Parlamentului European și a Consiliului în ceea ce privește aplicarea cerințelor esențiale menționate la articolul 3 alineatul (3) literele (d), (e) și (f) din directiva respectivă (JO L 7, 12.1.2022, p. 6).
(35)    Directiva 85/374/CEE a Consiliului din 25 iulie 1985 de apropiere a actelor cu putere de lege și a actelor administrative ale statelor membre cu privire la răspunderea pentru produsele cu defect (JO L 210, 7.8.1985, p. 29).
(36)    [Propunere de regulament al Parlamentului European și al Consiliului privind o piață unică pentru serviciile digitale (Actul legislativ privind serviciile digitale) – COM(2020) 825 final].
(37)    Directiva (UE) 2016/943 a Parlamentului European și a Consiliului din 8 iunie 2016 privind protecția know-how-ului și a informațiilor de afaceri nedivulgate (secrete comerciale) împotriva dobândirii, utilizării și divulgării ilegale (JO L 157, 15.6.2016, p. 1).
(38)    Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind regimul de răspundere civilă pentru inteligența artificială (2020/2014(INL)) - JO C 404, 6.10.2021, p. 107.
(39)    JO C 369, 17.12.2011, p. 14.
(40)    Directiva (UE) 2020/1828 a Parlamentului European și a Consiliului din 25 noiembrie 2020 privind acțiunile în reprezentare pentru protecția intereselor colective ale consumatorilor și de abrogare a Directivei 2009/22/CE (JO L 409, 4.12.2020, p. 1).
Top