Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Avizul Comitetului Economic și Social European privind Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor – Cum construim încrederea cetățenilor într-o inteligență artificială centrată pe factorul uman[COM(2019) 168 final]

    EESC 2019/01830

    JO C 47, 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    RO

    Jurnalul Oficial al Uniunii Europene

    C 47/64


    Avizul Comitetului Economic și Social European privind Comunicarea Comisiei către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor – Cum construim încrederea cetățenilor într-o inteligență artificială centrată pe factorul uman

    [COM(2019) 168 final]

    (2020/C 47/09)

    Raportor: Franca SALIS-MADINIER

    Sesizare

    Comisia Europeană, 3.6.2019

    Temei juridic

    Articolul 304 din Tratatul privind funcționarea Uniunii Europene

    Secțiunea competentă

    Secțiunea pentru piața unică, producție și consum

    Data adoptării în secțiune

    18.10.2019

    Data adoptării în sesiunea plenară

    30.10.2019

    Sesiunea plenară nr.

    547

    Rezultatul votului

    (voturi pentru/voturi împotrivă/abțineri)

    198/1/4

    1.   Concluzii și recomandări

    1.1.

    Inteligența artificială (IA) nu este un scop în sine, ci un instrument care poate produce mutații pozitive radicale, dar care poate induce și riscuri. Din acest motiv, este necesară reglementarea utilizării sale.

    1.2.

    Comisia ar trebui să ia măsuri cu privire la aspectele de previziune, prevenire și interzicere a utilizării abuzive a inteligenței artificiale și a învățării automate și să reglementeze mai bine comercializarea cu intenții abuzive a produselor.

    1.3.

    UE trebuie mai ales să promoveze dezvoltarea unor sisteme de IA orientate către aplicații concrete, care să contribuie la accelerarea tranziției ecologice și climatice.

    1.4.

    Este necesar să se identifice provocările care pot fi abordate prin coduri de etică, prin autoreglementare și angajamente voluntare, și cele care vor trebui abordate prin mijloace legislative și de reglementare, însoțite de acțiuni de monitorizare și, în caz de nerespectare a obligațiilor, de sancțiuni. În orice caz, sistemele de IA trebuie să se conformeze legislației existente.

    1.5.

    Inteligența artificială necesită o abordare ce cuprinde aspecte tehnice, dar și aspecte societale și etice. CESE salută dorința UE de a concepe o abordare a IA centrată pe factorul uman și în conformitate cu valorile care stau la baza sa: respectarea demnității umane, a libertății, a democrației, a egalității și nediscriminării, a statului de drept și a drepturilor omului.

    1.6.

    CESE reiterează (1) nevoia de a-i consulta și informa pe lucrători și pe reprezentanții lor în momentul introducerii unor sisteme de IA de natură să conducă la schimbări în organizarea, în monitorizarea și în controlul muncii, precum și în sistemele de evaluare și de recrutare a lucrătorilor. Comisia trebuie să promoveze dialogul social în vederea implicării lucrătorilor în utilizarea sistemelor de IA.

    1.7.

    CESE subliniază că (2) o IA de încredere presupune controlul uman asupra mașinii și informarea cetățenilor cu privire la utilizările sale. Sistemele de IA trebuie să poată fi explicate, iar în cazurile în care acest lucru nu este posibil, trebuie să fie puse la dispoziția cetățenilor și consumatorilor informații cu privire la limitele și riscurile aferente.

    1.8.

    UE trebuie să abordeze riscurile emergente (3) legate de sănătate și de securitatea în muncă. Ar trebui stabilite standarde, pentru a evita ca sistemele autonome să aducă prejudicii sau să le provoace pagube indivizilor. Lucrătorii trebuie să fie instruiți să lucreze cu mașina și să o poată opri în caz de urgență.

    1.9.

    CESE pledează pentru elaborarea unui sistem solid de certificare, bazat pe proceduri de testare, prin care întreprinderile să poată declara fiabilitatea și siguranța propriilor sisteme de IA. Transparența, trasabilitatea și posibilitatea de a explica procesele algoritmice de luare a deciziilor sunt provocări tehnice care necesită sprijinul instrumentelor UE, cum ar fi programul Orizont Europa.

    1.10.

    Nivelul de încredere a cetățenilor și a consumatorilor în inteligența artificială va depinde de respectarea vieții private și de protecția datelor. Dreptul de proprietate asupra datelor, controlul și utilizarea lor de către întreprinderi și organizații sunt aspecte care mai trebuie reglate în mare măsură (mai ales în ceea ce privește internetul obiectelor). CESE îndeamnă Comisia să revizuiască periodic Regulamentul general privind protecția datelor (RGPD) (4) și reglementările aferente, în lumina evoluțiilor tehnologice.

    1.11.

    CESE consideră că este esențial să se aibă în vedere contribuția pe care o pot aduce sistemele de IA la reducerea emisiilor de gaze cu efect de seră, în special în sectoarele industriei, transporturilor, energiei, construcțiilor și agriculturii. El solicită ca tranziția climatică să fie interconectată cu cea digitală.

    1.12.

    În opinia CESE, controlul sistemelor de IA s-ar putea dovedi insuficient pentru a defini responsabilitățile și pentru a consolida încrederea. CESE recomandă să se acorde prioritate definirii unor norme clare, prin care să fie stabilită responsabilitatea persoanelor fizice sau juridice în caz de neconformare. De asemenea, CESE solicită Comisiei să examineze cu prioritate problema fundamentală a posibilității de asigurare a sistemelor de IA.

    1.13.

    CESE propune ca, pentru întreprinderile care respectă standardele, să se elaboreze un certificat european de „întreprindere demnă de încredere în materie de IA”, bazat, printre altele, pe lista de evaluare propusă de Grupul de experți la nivel înalt privind IA (GNI).

    1.14.

    În momentul promovării activităților relevante în cadrul G7, al G20 și al dialogurilor bilaterale, UE trebuie să încerce să se asigure că reglementările privind inteligența artificială depășesc frontierele europene. În acest scop, trebuie elaborat un acord internațional pentru o IA de încredere, astfel încât să poată fi elaborate standarde internaționale a căror relevanță să fie verificată regulat.

    2.   Rezumatul propunerii Comisiei

    2.1.

    Comunicarea supusă examinării se bazează pe lucrările GNI, pe care Comisia l-a instituit în iunie 2018. În comunicarea sa, Comisia identifică șapte cerințe-cheie pentru a se ajunge la o IA demnă de încredere, cerințe enumerate la punctul 4.

    2.2.

    Comisia a lansat o etapă-pilot, cu participarea unei game largi de părți interesate. Acest exercițiu se axează în special pe lista de evaluare elaborată de GNI pentru fiecare dintre cerințele-cheie. La începutul anului 2020, GNI va reanaliza și va actualiza lista de evaluare, iar Comisia va propune, la nevoie, noi măsuri.

    2.3.

    Comisia dorește să-și promoveze abordarea în domeniul IA pe scena internațională și va continua să joace un rol activ, inclusiv în cadrul G7 și G20.

    3.   Observații generale

    3.1.

    Inteligența artificială centrată pe factorul uman necesită o abordare care cuprinde elemente tehnice, dar și sociale și etice. CESE salută dorința instituțiilor UE de a concepe o abordare a IA în conformitate cu valorile care stau la baza Uniunii: respectarea demnității umane, a libertății, a democrației, a egalității, a nediscriminării, a statului de drept și a drepturilor omului. După cum subliniază Comisia (5), IA nu este un scop în sine, ci un instrument care poate induce mutații pozitive radicale. Ca orice instrument, acesta comportă în același timp oportunități și riscuri. Acesta este motivul pentru care UE trebuie să-i stabilească utilizarea și să definească în mod clar responsabilitățile.

    3.2.

    Încrederea în IA centrată pe factorul uman va rezulta din afirmarea valorilor și a principiilor, dintr-un cadru de reglementare bine stabilit și din orientări în materie de etică însoțite de cerințe-cheie.

    3.3.

    Printre numeroasele provocări generate de IA, trebuie identificate, împreună cu părțile interesate, cele care ar trebui abordate prin mijloace legislative și de reglementare însoțite de mecanisme normative de monitorizare și, în caz de neconformitate, de sancțiuni care pot fi impuse prin coduri de etică, autoreglementare și angajamente voluntare. CESE își exprimă satisfacția că principiile pe care le-a abordat inițial au fost preluate de Comisie, dar regretă că, în acest stadiu, aceasta nu propune nicio măsură specifică pentru a răspunde preocupărilor legitime în materie de drepturi ale consumatorilor, de securitate a sistemului, de responsabilitate.

    3.4.

    Sistemele de IA trebuie să respecte cadrul de reglementare existent, în special în ceea ce privește protecția datelor cu caracter personal, răspunderea pentru produse, protecția consumatorilor, nediscriminarea, calificările profesionale și informarea și consultarea lucrătorilor la locul de muncă. Trebuie să se garanteze că aceste legi sunt adaptate la noile provocări ale digitalizării și ale IA.

    3.5.

    Așa cum observă Comisia, „[a]r trebui instituite procese de clarificare și de evaluare a riscurilor potențiale asociate utilizării sistemelor IA, în diferite domenii de aplicare” (6). CESE acordă cea mai mare importanță modalităților viitoare de realizare a acestei evaluări și elaborării unor indicatori care să poată fi luați în considerare pentru realizarea ei. Proiectul de listă de evaluare elaborat de grupul la nivel înalt este un punct de plecare pentru punerea în aplicare a unor astfel de procese.

    3.6.

    Relevantă este, în acest context, și chestiunea distribuirii echitabile a valorii adăugate preconizate a sistemelor de IA. CESE consideră că toate țările și toți cetățenii lor trebuie să beneficieze de transformările pozitive induse de IA în termeni de dezvoltare economică, de durabilitate a proceselor de producție și consum (mai ales în privința energiei) și de îmbunătățire a utilizării resurselor.

    4.   Observații specifice

    4.1.   Implicarea și supravegherea umană

    4.1.1.

    Comisia dorește să se asigure că utilizarea sistemelor de IA nu poate în niciun caz să aducă atingere autonomiei omului sau să inducă efecte adverse. CESE împărtășește această abordare a controlului uman asupra mașinii, după cum a afirmat deja în avizele sale anterioare.

    4.1.2.

    Acest lucru presupune și informarea corectă a cetățenilor cu privire la utilizarea acestor sisteme, dacă pot fi explicate sau, în cazul în care acest lucru nu este posibil (de exemplu, în cazul „învățării profunde”), punerea la dispoziția utilizatorului a unor informații privind limitele și riscurile sistemului. În orice caz, cetățenii ar trebui să-și poată păstra libertatea de a decide altfel decât sistemul de IA.

    4.1.3.

    În cadrul întreprinderilor și administrațiilor publice, lucrătorii și reprezentanții lor trebuie să fie informați și consultați în mod corespunzător în momentul introducerii sistemelor de IA care pot schimba organizarea muncii și îi pot afecta din perspectiva controlului, a monitorizării, a evaluării și a recrutării. Comisia ar trebui să promoveze un dialog social în vederea implicării lucrătorilor în utilizarea sistemelor de IA, sporind astfel încrederea în aceste sisteme.

    4.1.4.

    În ceea ce privește resursele umane, ar trebui să se acorde atenție deosebită riscurilor de utilizare abuzivă a sistemelor de IA, precum monitorizarea nelimitată, colectarea de date cu caracter personal și de date medicale, schimbul de astfel de date cu părți terțe, precum și riscurilor emergente în materie de sănătate și de securitate în muncă (7). Trebuie stabilite standarde clare pentru a evita ca interacțiunea om-mașină să le provoace daune oamenilor. Standardul creat de Organizația Internațională de Standardizare (ISO) pentru roboții colaborativi (8), care se adresează producătorilor, integratorilor și utilizatorilor, oferă orientări pentru proiectarea și organizarea spațiului de lucru și reducerea riscurilor la care pot fi expuși oamenii. Lucrătorii trebuie să fie instruiți să utilizeze IA și robotica, să colaboreze cu aceste componente și, mai ales, să le oprească în caz de urgență [principiul „opririi de urgență” („emergency brake”)].

    4.2.   Robustețe tehnică și siguranță

    4.2.1.

    CESE solicită introducerea unor standarde europene de siguranță și dezvoltarea unui sistem solid de certificare, bazat pe proceduri de testare, prin care întreprinderile să poată declara fiabilitatea propriilor sisteme de IA. De asemenea, CESE dorește să evidențieze importanța posibilității de a asigura sistemele de IA.

    4.2.2.

    Comisia tratează în mică măsură aspectele de previziune, prevenire și interzicere a utilizării abuzive a IA și a învățării automate, în legătură cu care mulți cercetători trag un semnal de alarmă (9). Ar trebui să se țină seama de recomandările lor, mai ales de cele privind utilizarea duală a acestor tehnologii, care se poate referi la securitatea digitală (extinderea atacurilor cibernetice, exploatarea vulnerabilităților prezentate de om și de IA, „data poisoning”), la securitatea fizică (piratarea sistemelor autonome, inclusiv a vehiculelor autonome, a dronelor sau a armelor automate) sau la securitatea politică (colectarea masivă de date cu caracter personal, propaganda țintită, manipularea video etc.). Cercetătorii, inginerii și autoritățile publice trebuie să colaboreze strâns pentru a preveni aceste riscuri; experții și alte părți interesate, precum utilizatorii și consumatorii, trebuie să participe la dezbaterile privind aceste provocări.

    4.3.   Respectarea vieții private și guvernanța datelor

    4.3.1.

    Comisia solicită ca accesul la date să fie „gestionat și controlat în mod adecvat” (10). CESE consideră că trebuie depășite declarațiile generale. Evoluția IA va depinde și de gradul de încredere pe care îl acordă cetățeanul sistemelor de IA. Mai trebuie clarificate în mare măsură aspectele legate de proprietatea asupra datelor, de controlul și de utilizarea lor de către întreprinderi și organizații. De exemplu, cantitatea de date transmise producătorilor de autoturisme prin intermediul mașinilor și tipul de date transmise sunt aspecte care atrag atenția (11). În pofida existenței conceptului de protejare a vieții private încă din faza de proiectare (privacy by design), la care trebuie să se conformeze obiectele conectate în temeiul RGPD, este de remarcat că consumatorul dispune de foarte puține informații sau este complet lipsit de informații pe această temă și că nu are niciun mijloc de control asupra acestor date. Ca atare, CESE îndeamnă Comisia să revizuiască periodic RGPD și reglementările aferente, în lumina evoluțiilor tehnologice (12).

    4.4.   Transparență

    4.4.1.

    În opinia CESE, capacitatea de a explica procesul decizional algoritmic este esențială pentru înțelegerea, nu a mecanismelor ca atare, ci a raționamentului care stă la baza proceselor de luare a deciziilor și a modului în care aceste decizii sunt influențate de sistemele de IA. Elaborarea unor proceduri standard de testare pentru sistemele de învățare automată a rămas o provocare din punct de vedere tehnic și ar trebui să fie sprijinită prin instrumente ale UE, cum ar fi programul Orizont Europa.

    4.4.2.

    CESE împărtășește opinia Comisiei, conform căreia sistemele de IA trebuie să fie identificabile ca atare „astfel încât utilizatorii să știe că interacționează cu un sistem IA” (13), inclusiv în contextul relației dintre pacient și personalul medical și al serviciilor profesionale legate de îngrijirea medicală și de starea de bine a cetățenilor. CESE subliniază, de asemenea, că utilizatorul sau consumatorul trebuie să fie informat și cu privire la serviciile furnizate de oameni. Multe sisteme de IA implică, de fapt, un volum mare de muncă depusă de om, care rămâne însă adesea necunoscută utilizatorilor finali (14). Există o miză în spatele acestei chestiuni, cea a lipsei de transparență la adresa utilizatorilor și a consumatorilor de servicii, dar și cea a unei forme de utilizare a muncii ascunse și nerecunoscute.

    4.4.3.

    În plus, în opinia CESE, consumatorii trebuie să fie întotdeauna informați cu privire la integrarea sistemelor de IA în produsele pe care le cumpără, să poată avea acces la propriile date și să le controleze.

    4.5.   Diversitate, nediscriminare și echitate

    4.5.1.

    Riscurile de discriminare sunt prezente mai ales în anumite aplicații de IA care permit profilarea cetățenilor, a utilizatorilor și a consumatorilor (de exemplu, la angajare, la închirierea de bunuri imobiliare sau pentru anumite servicii personale). UE a adoptat un corpus legislativ privind egalitatea de tratament și nediscriminarea (15), iar sistemele de IA trebuie să i se conformeze. Cu toate acestea, o astfel de legislație trebuie să fie și adaptată și, dacă este necesar, consolidată (inclusiv la nivelul monitorizării respectării ei), pentru a face față noilor practici. Riscul real este ca profilarea algoritmică să devină un nou instrument puternic de discriminare. UE trebuie să prevină acest risc.

    4.5.2.

    Directiva privind combaterea rasismului (16) și Directiva privind egalitatea de gen (17) în afara locului de muncă prevăd înființarea unor organisme speciale și competente de promovare a egalității între femei și bărbați. CESE solicită ca aceste organisme să joace un rol activ în monitorizarea și controlul sistemelor de IA din perspectiva riscurilor de discriminare directă sau indirectă.

    4.6.   Bunăstarea societală și de mediu

    4.6.1.

    Comisia nu prezintă modalitățile specifice în care pot fi interconectate tranziția climatică și transformarea digitală, în special în cazul utilizării sistemelor de IA. Este esențial să se aibă în vedere contribuția pe care o pot aduce sistemele de IA la reducerea emisiilor de gaze cu efect de seră, în special în sectoarele industriei, transporturilor, energiei, construcțiilor și agriculturii.

    4.6.2.

    Comisia afirmă că sistemele de IA pot fi utilizate pentru consolidarea competențelor sociale, dar riscă să contribuie și la deteriorarea lor. CESE consideră că UE trebuie să depună mai multe eforturi pentru a face față anumitor provocări societale. Studiile au arătat, de exemplu, că anumite aplicații care integrează sisteme de IA sunt astfel concepute încât să îi păstreze conectați cât mai mult timp cu putință pe utilizatorii serviciilor online (rețele sociale, jocuri, materiale video etc.). Scopul urmărit este de a putea colecta cât mai multe date despre comportamentul lor, iar strategiile utilizate variază de la reînnoirea continuă a recomandărilor algoritmice, la jocuri, rapeluri și notificări etc. Au fost studiate efectele utilizării excesive a internetului și a suprasolicitării aferente (18) asupra copiilor, iar rezultatele au scos la iveală creșterea anxietății și a agresivității, somnul insuficient, precum și consecințe asupra educației, a relațiilor sociale, a sănătății și stării de bine. Pentru a construi o IA de încredere, UE trebuie să țină seama de astfel de efecte și să le prevină.

    4.6.3.

    În cele din urmă, unul dintre factorii de stare de bine socială este legat de sentimentul de siguranță la locul de muncă. Efectele digitalizării se pot dovedi însă generatoare de nesiguranță și o sursă de stres (19). Prin urmare, ar trebui prevăzute strategii de anticipare a schimbărilor (înainte de orice eventuală restructurare) și de formare continuă pentru toți lucrătorii. Acest lucru necesită, în cadrul întreprinderilor, un dialog social de înaltă calitate între angajatori și reprezentanții lucrătorilor, care să facă posibilă, printre altele, implementarea noilor tehnologii, în special a IA și a roboticii, într-un mod favorabil incluziunii. Pentru a consolida încrederea dintre conducere și lucrători, este nevoie ca sistemele de IA asociate gestionării, evaluărilor și monitorizării lucrătorilor să poată fi explicate, parametrii lor să fie cunoscuți, iar funcționarea lor să fie transparentă.

    4.7.   Responsabilitate

    4.7.1.

    Deciziile luate de sistemele complexe de învățare automată nu pot fi explicate în termeni simpli și, în plus, sunt actualizate periodic. În opinia CESE, controlul sistemelor de IA s-ar putea dovedi insuficient pentru a defini responsabilitățile și pentru a consolida încrederea. De aceea, se recomandă definirea unor norme prin care să fie stabilită responsabilitatea persoanelor fizice sau juridice în caz de neconformare. CESE recomandă să se recurgă mai degrabă la întreprinderi sau persoane de încredere decât la algoritmi și, ca atare, pentru întreprinderile care respectă toate standardele, propune să se elaboreze un certificat european de „întreprindere demnă de încredere în materie de IA”, bazat, printre altele, pe lista de evaluare propusă de GNI.

    4.7.2.

    Directiva privind răspunderea pentru produse (20) stabilește principiul „răspunderii fără vinovăție” a producătorilor europeni: dacă un produs care prezintă un defect cauzează un prejudiciu unui consumator, producătorul poate fi făcut răspunzător chiar dacă nu i se poate atribui nicio greșeală sau neglijență. Proiectarea, implementarea și utilizarea pe scară tot mai largă a sistemelor de IA necesită adoptarea de către UE a unor norme adaptate privind răspunderea pentru situațiile în care produsele cu conținut digital și serviciile oferite consumatorilor se pot dovedi periculoase și dăunătoare. Consumatorii ar trebui să poată avea acces la justiție în caz de daune cauzate de un sistem de IA.

    5.   Necesitatea reglementării în afara Europei

    5.1.

    Într-o lume globalizată, reglementarea IA trebuie să depășească granițele Europei. În cadrul G7 și al G20, Europa ar trebui să promoveze un consens larg cu privire IA și să continue dialogurile bilaterale, astfel încât majoritatea țărilor să poată participa la procesele de standardizare a IA, verificându-le regulat relevanța.

    Bruxelles, 30 octombrie 2019.

    Președintele

    Comitetului Economic și Social European

    Luca JAHIER


    (1)  JO C 440, 6.12.2018, p. 1.

    (2)  JO C 288, 31.8.2017, p. 1; JO C 440, 6.12.2018, p. 1.

    (3)  https://osha.europa.eu/ro/emerging-risks

    (4)  Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) (JO L 119, 4.5.2016, p. 1).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, p. 5.

    (7)  Cf. mai ales OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces (SSM și viitorul muncii: beneficii și riscuri reprezentate la locul de muncă de instrumentele de IA).

    (8)  ISO/TS 15066, 2016.

    (9)  Cf. raportul The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, februarie 2018.

    (10)  COM(2019) 168 final, p. 6.

    (11)  „Your car knows when you gain weight”, The New York Times (ediția internațională), 22.5.2019.

    (12)  JO C 190, 5.6.2019, p. 17.

    (13)  COM(2019) 168 final, p. 6.

    (14)  Cf., de exemplu: „A white-collar sweatshop’: Google Assistant contractors allege wage theft”, The Guardian, 29.5.2019, și „Bot technology impressive, except when it’s not the bot”, The New York Times (ediția internațională), 24.5.2019.

    (15)  JO L 180, 19.7.2000, p. 22; JO L 303, 2.12.2000, p. 16; JO L 373, 21.12.2004, p. 37; JO L 204, 26.7.2006, p. 23.

    (16)  Directiva 2000/43/CE a Consiliului din 29 iunie 2000 de punere în aplicare a principiului egalității de tratament între persoane, fără deosebire de rasă sau origine etnică (JO L 180, 19.7.2000, p. 22).

    (17)  Directiva 2004/113/CE a Consiliului din 13 decembrie 2004 de aplicare a principiului egalității de tratament între femei și bărbați privind accesul la bunuri și servicii și furnizarea de bunuri și servicii (JO L 373, 21.12.2004, p. 37).

    (18)  Cf., mai ales, Kidron, Evans, Afia (2018), Disrupted Childhood – The Cost of Persuasive Design, Fundația 5Rights.

    (19)  Raportul grupului la nivel înalt privind impactul transformării digitale asupra piețelor forței de muncă din UE, 2019.

    (20)  Directiva Consiliului din 25 iulie 1985 de apropiere a actelor cu putere de lege și a actelor administrative ale statelor membre cu privire la răspunderea pentru produsele cu defect (JO L 210, 7.8.1985, p. 29).


    Top