EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om meddelelse fra Kommissionen til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Opbygning af tillid til menneskecentreret kunstig intelligens[COM(2019) 168 final]

EESC 2019/01830

EUT C 47 af 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

11.2.2020   

DA

Den Europæiske Unions Tidende

C 47/64


Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om meddelelse fra Kommissionen til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Opbygning af tillid til menneskecentreret kunstig intelligens

[COM(2019) 168 final]

(2020/C 47/09)

Ordfører: Franca SALIS-MADINIER

Anmodning om udtalelse

Kommissionen, 3.6.2019

Retsgrundlag funktionsmåde

Artikel 304 i traktaten om Den Europæiske Unions

Kompetence

Sektionen for Det Indre Marked, Produktion og Forbrug

Vedtaget i sektionen

18.10.2019

Vedtaget på plenarforsamlingen

30.10.2019

Plenarforsamling nr.

547

Resultat af afstemningen

(for/imod/hverken for eller imod)

198/1/4

1.   Konklusioner og anbefalinger

1.1.

Kunstig intelligens (artificial intelligence = AI) er ikke et mål i sig selv, men derimod et værktøj til at opnå positive radikale ændringer. Det kan dog også indebære risici, og derfor bør brugen af AI reguleres.

1.2.

Kommissionen bør træffe foranstaltninger til forudsigelse og forebyggelse af samt forbud mod ondsindet brug af AI og maskinlæring og bedre regulere markedsføringen af produkter forbundet med ondsindede hensigter.

1.3.

EU bør navnlig fremme udviklingen af AI-systemer, der tager sigte på konkrete anvendelser med henblik på at fremskynde den økologiske og klimamæssige omstilling.

1.4.

Det bør fastlægges, hvilke udfordringer der kan imødegås ved hjælp af etiske kodekser, selvregulering og frivillige tilsagn, og hvilke der bør tackles med regler og lovgivning med supplerende opfølgning og — i tilfælde af manglende overholdelse — sanktioner. Under alle omstændigheder skal AI-systemer være i overensstemmelse med den eksisterende lovgivning.

1.5.

AI kræver en tilgang, der tager højde for såvel de tekniske som de samfundsmæssige og etiske aspekter. EØSU glæder sig over EU's vilje til at skabe en tilgang til AI, som er menneskecentreret og i overensstemmelse med de værdier, EU bygger på, nemlig respekt for den menneskelige værdighed, frihed, demokrati, lighed og ikkediskrimination, retsstatsprincippet og respekt for menneskerettighederne.

1.6.

EØSU gentager (1) nødvendigheden af at informere og høre arbejdstagerne og deres repræsentanter ved indførelse af AI-systemer, der kan medføre ændringer i tilrettelæggelsen af samt tilsynet og kontrollen med arbejdet og i systemerne til evaluering og rekruttering af arbejdstagere. Kommissionen skal fremme den sociale dialog med henblik på at inddrage arbejdstagerne i brugen af AI-systemer.

1.7.

EØSU understreger (2), at det, hvis AI skal kunne betragtes som pålidelig, er nødvendigt, at mennesket har kontrol med maskinerne, og at borgerne informeres om anvendelsen heraf. AI-systemerne skal være forklarlige, og hvis dette ikke er muligt, skal borgerne og forbrugerne informeres om deres begrænsninger og risici.

1.8.

EU bør tage fat på »risiciene i fremvækst« (3) med hensyn til sundhed og sikkerhed på arbejdspladsen. Der bør fastsættes standarder for at undgå, at autonome systemer er til fare eller skade for mennesker. Arbejdstagerne skal uddannes til at arbejde med maskinerne og til at standse dem i nødstilfælde.

1.9.

EØSU går ind for udviklingen af en solid certificeringsordning baseret på testprocedurer, som gør det muligt for virksomhederne at fastslå pålideligheden og sikkerheden af deres AI-systemer. De algoritmiske beslutningsprocessers gennemsigtighed samt sporbarhed og forklarlighed er en teknisk udfordring, der kræver støtte fra EU-instrumenter som f.eks. Horisont Europa-programmet.

1.10.

Beskyttelse af privatlivets fred og databeskyttelse er af afgørende betydning for, hvor stor tillid borgerne og forbrugerne har til AI. Dataenes ejerskab, kontrollen med dem samt virksomhedernes og organisationernes anvendelse af dem er spørgsmål, som der endnu ikke er skabt ordentlig klarhed omkring (navnlig med tingenes internet). EØSU opfordrer Kommissionen til i lyset af den teknologiske udvikling jævnligt at revidere den generelle forordning om databeskyttelse (GDPR) (4) og den tilhørende lovgivning.

1.11.

Efter EØSU's opfattelse er det vigtigt at overveje, hvordan AI-systemer kan bidrage til at reducere drivhusgasemissionerne, navnlig inden for sektorer som industri, transport, energi, bygge- og anlægsvirksomhed og landbrug. Udvalget opfordrer til at lade den klimapolitiske og den digitale omstilling gå hånd i hånd.

1.12.

Efter EØSU's mening er kontrol med AI-systemer muligvis ikke tilstrækkelig til at fastlægge ansvar og skabe tillid. Udvalget anbefaler, at det prioriteres at fastsætte klare regler, hvor ansvaret i tilfælde af manglende overholdelse tillægges fysiske eller juridiske personer. EØSU opfordrer ligeledes Kommissionen til som en prioritet at undersøge det grundlæggende spørgsmål om forsikring af AI-systemer.

1.13.

EØSU foreslår, at der for virksomheder, som overholder standarderne, udvikles et »europæisk certifikat for betroede virksomheder til AI« på baggrund af bl.a. den evalueringsliste, som Ekspertgruppen på højt Niveau vedrørende Kunstig Intelligens (ekspertgruppen) har foreslået.

1.14.

Ved at fremme arbejdet på dette område i forbindelse med G7, G20 og de bilaterale dialoger må EU bestræbe sig på at sikre, at reguleringen af AI rækker ud over de europæiske grænser. Der skal arbejdes hen imod en international aftale om pålidelig AI, som gør det muligt at udvikle internationale standarder og regelmæssigt kontrollere, om disse er formålstjenlige.

2.   Resumé af Kommissionens forslag

2.1.

Denne meddelelse bygger på arbejdet i den ekspertgruppe, som Kommissionen oprettede i juni 2018. I meddelelsen angiver Kommissionen syv centrale krav til pålidelig AI, som er anført i punkt 4.

2.2.

Kommissionen har iværksat en pilotfase med deltagelse af en lang række interessenter. I den forbindelse fokuseres der især på den evalueringsliste, som ekspertgruppen har udarbejdet for hvert af de centrale krav. I begyndelsen af 2020 vil ekspertgruppen gennemgå og ajourføre evalueringslisten, og Kommissionen vil om nødvendigt foreslå nye foranstaltninger.

2.3.

Kommissionen ønsker at vise sin tilgang til AI på den internationale scene og vil fortsat spille en aktiv rolle, herunder i forbindelse med G7 og G20.

3.   Generelle bemærkninger

3.1.

Menneskecentreret AI kræver en tilgang, hvor der tages hensyn til såvel de tekniske som de samfundsmæssige og etiske aspekter. EØSU glæder sig over, at EU-institutionerne har givet udtryk for deres vilje til at skabe en tilgang til AI, som er i overensstemmelse med de værdier, Unionen bygger på, nemlig respekt for den menneskelige værdighed, frihed, demokrati, lighed og ikkediskrimination, retsstatsprincippet og respekt for menneskerettighederne. Som Kommissionen (5) understreger, er AI ikke et mål i sig selv, men derimod et værktøj til at opnå positive radikale ændringer. I lighed med alle andre værktøjer indebærer det både risici og muligheder. Derfor bør EU regulere brugen af og klart fastlægge ansvaret for AI.

3.2.

Tilliden til menneskecentreret AI skal bygge på en bekræftelse af værdierne og principperne, en klar lovgivningsramme og etiske retningslinjer, som tager højde for de centrale krav.

3.3.

Sammen med alle interessenterne bør det fastlægges, hvilke af de mange udfordringer ved AI-systemer, der skal imødegås ved hjælp af regler og lovgivning ledsaget af reguleringsmæssige opfølgningsmekanismer, hvilke sanktioner der skal være gældende i tilfælde af manglende overholdelse, og hvilke udfordringer der kan imødegås ved hjælp af etiske kodekser, selvregulering og frivillige tilsagn. EØSU glæder sig over, at Kommissionen har overtaget nogle af de principper, som EØSU oprindeligt tog op, men beklager, at Kommissionen på nuværende tidspunkt ikke foreslår nogen specifikke bestemmelser for at tackle de legitime bekymringer med hensyn til forbrugerrettigheder, systemernes sikkerhed og ansvar.

3.4.

AI-systemer skal overholde den eksisterende lovgivning, navnlig hvad angår beskyttelse af personoplysninger, produktansvar, forbrugerbeskyttelse, ikkediskrimination, faglige kvalifikationer samt information til og høring af arbejdstagere på arbejdspladsen. Det skal sikres, at disse love tilpasses de nye udfordringer ved digitalisering og AI.

3.5.

Som Kommissionen har bemærket, bør der »indføres procedurer til afklaring og vurdering af potentielle risici i forbindelse med anvendelsen af kunstig intelligens-systemer på tværs af forskellige anvendelsesområder« (6). EØSU lægger stor vægt på de kommende bestemmelser vedrørende denne evaluering og på fastlæggelsen af de indikatorer, der kunne tages højde for i forbindelse med evalueringen. Udkastet til evalueringsliste, som ekspertgruppen har udarbejdet, danner udgangspunkt for iværksættelsen af sådanne processer.

3.6.

Dette vedrører ligeledes spørgsmålet om en retfærdig fordeling af den merværdi, som AI-systemerne forventes at give. EØSU mener, at de positive ændringer, som AI-systemerne medfører med hensyn til økonomisk udvikling, fremstillings- og forbrugsprocessernes bæredygtighed (navnlig på energiområdet) og en mere hensigtsmæssig brug af ressourcerne, bør komme alle lande og deres borgere til gode.

4.   Særlige bemærkninger

4.1.   Den menneskelige faktor og menneskelig kontrol

4.1.1.

Kommissionen ønsker at sikre, at anvendelsen af AI-systemer under ingen omstændigheder kan underminere den menneskelige autonomi eller have skadelige virkninger. Som EØSU allerede har givet udtryk for i tidligere udtalelser, bifalder udvalget denne tilgang til menneskelig kontrol med maskinerne.

4.1.2.

Det er desuden nødvendigt, at borgerne informeres korrekt om brugen af systemerne, at disse er forklarlige eller — hvis dette ikke er muligt (f.eks. når der er tale om »dyb læring«) — at brugerne informeres om deres begrænsninger og risici. Borgerne bør i alle tilfælde bevare friheden til at træffe andre beslutninger end AI-systemerne.

4.1.3.

Arbejdstagerne og deres repræsentanter i virksomhederne og de offentlige myndigheder bør behørigt informeres og høres ved indførelsen af AI-systemer, der kan medføre ændringer i arbejdets tilrettelæggelse og påvirke dem med hensyn til kontrol, tilsyn, evaluering og rekruttering. Kommissionen skal fremme en social dialog med henblik på arbejdstagernes inddragelse i brugen af AI-systemer.

4.1.4.

Hvad de menneskelige ressourcer angår, bør der være særligt fokus på risikoen for misbrug af AI-systemer, f.eks. ubegrænset overvågning, indsamling af personoplysninger og sundhedsoplysninger og deling af sådanne oplysninger med tredjemand, og på risiciene i fremvækst med hensyn til sundhed og sikkerhed på arbejdspladsen (7). Der bør fastsættes klare standarder for at undgå, at samarbejdet mellem menneske og maskine bliver til fare eller skade for mennesker. Den standard, som Den Internationale Standardiseringsorganisation (ISO) har fastlagt for samarbejdende robotter (8), og som er henvendt til fabrikanter, integratorer og brugere, indeholder retningslinjer for udformningen og tilrettelæggelsen af et arbejdsområde og for reduktion af risiciene for mennesker. Arbejdstagerne skal uddannes til at bruge AI og robotteknologi, til at arbejde med den og ikke mindst til at kunne standse den i nødstilfælde (»nødbremseprincippet«).

4.2.   Teknologisk robusthed og sikkerhed

4.2.1.

EØSU går ind for indførelsen af europæiske sikkerhedsstandarder og udviklingen af en robust certificeringsordning, der er baseret på testprocedurer, som kan gøre det muligt for virksomhederne at fastslå pålideligheden af deres AI-systemer. EØSU ønsker ligeledes at understrege betydningen af spørgsmålet vedrørende forsikring af AI-systemer.

4.2.2.

Kommissionen kommer kun i begrænset omfang ind på forudsigelse og forebyggelse af samt forbud mod ondsindet brug af AI og maskinlæring, som en lang række forskere advarer imod (9). Det ville være hensigtsmæssigt at lytte til deres anbefalinger, navnlig når det gælder den dobbelte brug af disse teknologier, der kan vedrøre digital sikkerhed (et øget antal cyberangreb, udnyttelse af sårbarheden hos mennesker og AI samt »data poisoning«), fysisk sikkerhed (overtagelse af autonome systemer, herunder selvkørende køretøjer, droner og automatvåben) eller politisk sikkerhed (massiv indsamling af personoplysninger, målrettet propaganda, videomanipulation osv.). Forskere, ingeniører og offentlige myndigheder bør arbejde tæt sammen for at forebygge disse risici, og eksperter og andre interessenter såsom brugerne og forbrugerne skal have mulighed for at deltage i debatten om disse udfordringer.

4.3.   Privatlivets fred og datastyring

4.3.1.

Kommissionen opfordrer til, at adgangen til data »styres og kontrolleres på passende vis« (10). EØSU mener, at man skal gå længere end de generelle udtalelser. Den grad af tillid, som borgerne har til AI-systemer, vil også være afgørende for systemernes udvikling. Der er endnu ikke skabt ordentlig klarhed omkring spørgsmålene vedrørende dataenes ejerskab, kontrollen med dem samt virksomhedernes og organisationernes anvendelse af dem. Mængden af data, der indberettes, f.eks. fra biler til bilfabrikanter, og den type data, der overføres, giver rigeligt stof til eftertanke (11). På trods af konceptet »indbygget privatlivsbeskyttelse«, som opkoblede genstande skal følge i henhold til den generelle forordning om databeskyttelse, kan man konstatere, at forbrugerne kun modtager meget få eller slet ingen oplysninger om dette emne, og at de ikke har nogen kontrol med dataene. Derfor opfordrer EØSU kraftigt Kommissionen til at revidere den generelle forordning om databeskyttelse og den tilhørende lovgivning i lyset af den teknologiske udvikling (12).

4.4.   Gennemsigtighed

4.4.1.

Efter EØSU's mening er de algoritmiske beslutningsprocessers forklarlighed vigtig for forståelsen — ikke af mekanismerne som sådan, men af den logik, der ligger bag beslutningsprocesserne, og den måde, som AI-systemer påvirker dem på. Udviklingen af standardtestprocedurer for automatiske læringssystemer er fortsat en teknisk udfordring, som bør støttes med EU-instrumenter som f.eks. Horisont Europa-programmet.

4.4.2.

EØSU deler Kommissionens opfattelse af, at AI-systemer bør kunne identificeres som sådanne »og dermed sikre, at brugerne ved, at de interagerer med et system med kunstig intelligens, samt hvilke personer der er ansvarlige for det« (13), også når det gælder forholdet mellem patienter og sundhedspersonale og professionelle ydelser i tilknytning til borgernes sundhed og velfærd. Udvalget understreger desuden, at brugerne og forbrugerne også skal informeres om ydelser, der leveres af mennesker. Mange AI-systemer kræver i virkeligheden et omfattende arbejde udført af mennesker, hvilket slutbrugerne ofte ikke er klar over (14). Bag dette spørgsmål ligger der en udfordring, nemlig den indlysende mangel på gennemsigtighed over for tjenesternes brugere og forbrugere, men også en form for anvendelse af skjult arbejdskraft, der ikke anerkendes.

4.4.3.

EØSU mener i øvrigt, at forbrugerne altid bør informeres om anvendelsen af AI-systemer i det produkt, de køber, og altid bør have adgang til og kontrol med deres data.

4.5.   Mangfoldighed, ikkediskrimination og retfærdighed

4.5.1.

Risikoen for diskrimination gør sig gældende i visse AI-applikationer, der gør det muligt at profilere borgerne, brugerne og forbrugerne (f.eks. i forbindelse med ansættelse, udlejning af ejendomme samt visse personlige tjenesteydelser). EU har vedtaget et lovgivningskorpus, som vedrører ligebehandling og ikkediskrimination (15). AI-systemer skal være i overensstemmelse hermed. En sådan lovgivning bør dog også tilpasses og om nødvendigt styrkes (også med hensyn til håndhævelse) for at håndtere nye former for praksis. Der er en reel risiko for, at algoritmisk profilering bliver et nyt effektivt redskab til forskelsbehandling. EU skal forebygge denne risiko.

4.5.2.

I direktivet om ligebehandling af alle uanset race (16) og direktivet om ligebehandling af mænd og kvinder uden for arbejdsmarkedet (17) er der taget højde for særlige organer, som er kompetente med hensyn til fremme af ligestilling mellem mænd og kvinder. EØSU mener, at disse organer bør spille en aktiv rolle i opfølgningen på og kontrollen med AI-systemer, når det gælder risikoen for direkte eller indirekte diskrimination.

4.6.   Social og miljømæssig velfærd

4.6.1.

Kommissionen fremsætter ingen konkrete forslag til, hvordan den klimapolitiske og den digitale omstilling kan gå hånd i hånd, navnlig i forbindelse med brugen af AI-systemer. Det er vigtigt at overveje, hvorledes AI-systemer kan bidrage til en reduktion af drivhusgasemissionerne, navnlig inden for sektorer som industri, transport, energi, bygge- og anlægsvirksomhed og landbrug.

4.6.2.

Kommissionen fastholder, at AI-systemer kan anvendes til at forbedre sociale færdigheder, men også bidrage til deres forværring. EØSU mener, at EU skal gøre mere for at løse visse samfundsmæssige udfordringer. Undersøgelser har f.eks. vist, at udformningen af visse applikationer, hvori der indgår AI-systemer, udformes med henblik på at holde brugerne af onlinetjenester (sociale netværk, spil, videoer osv.) online så længe som muligt. Formålet er at indsamle flest mulige data om deres adfærd. De anvendte strategier går lige fra tidsubegrænset fornyelse af algoritme-anbefalinger til påmindelser og notifikationer, spil osv. Det er blevet undersøgt, hvordan det påvirker børn at være alt for meget online og modtage alt for mange henvendelser (18), og resultaterne var øget angst, aggressivitet, søvnmangel og indvirkning på skolegang, sociale relationer, sundhed og velfærd. For at opbygge en pålidelig AI bør EU tage højde for disse påvirkninger og forebygge dem.

4.6.3.

Endelig er en af faktorerne for samfundsmæssig trivsel forbundet med en følelse af sikkerhed på arbejdspladsen. Digitaliseringens indvirkning kan imidlertid være meget foruroligende og udgøre en kilde til stress (19). Derfor bør der fastlægges strategier for at foregribe ændringer, før eventuelle omstruktureringer finder sted og sørge for efter- og videreuddannelse til alle arbejdstagere. Dette kræver, at der i virksomhederne finder en god social dialog sted mellem arbejdsgivere og arbejdstagerrepræsentanter, som navnlig muliggør en inkluderende anvendelse af nye teknologier, ikke mindst AI og robotteknologi. For at øge tilliden mellem ledelse og arbejdstager skal AI-systemer, der vedrører ledelse, evalueringer og kontrol med arbejdstagerne, være forklarlige, deres parametre kendte og deres måde at fungere på gennemsigtig.

4.7.   Ansvarlighed

4.7.1.

De beslutninger, der træffes af automatiske læringssystemer, har ingen enkel forklaring og opdateres i øvrigt regelmæssigt. Efter EØSU's mening er kontrol med AI-systemer muligvis ikke tilstrækkelig til at fastlægge ansvar og skabe tillid. Derfor anbefaler udvalget, at der fastsættes regler, hvor ansvaret i tilfælde af manglende overholdelse tillægges fysiske eller juridiske personer. EØSU anbefaler, at der i højere grad gøres brug af pålidelige virksomheder og fagfolk end af algoritmer og foreslår, at der for virksomheder, som opfylder alle standarder, udvikles et »europæisk certifikat for betroede virksomheder til AI« på baggrund af bl.a. den evalueringsliste, som ekspertgruppen har foreslået.

4.7.2.

I direktivet om produktansvar (20) fastlægges princippet om objektivt ansvar for europæiske producenter: Hvis et defekt produkt volder en forbruger skade, kan producenten stilles til ansvar, selv om der ikke er tale om fejl eller uagtsomhed fra dennes side. Udformningen, ibrugtagningen og den stadig mere udbredte anvendelse af AI-systemer kræver, at EU vedtager tilpassede regler for ansvaret i situationer, hvor produkter med digitalt indhold og tjenesteydelser til forbrugerne kan vise sig at være farlige og skadelige. Forbrugerne bør have adgang til domstolsprøvelse i tilfælde af skader forvoldt af AI-systemer.

5.   Behovet for regulering, som ikke kun er europæisk

5.1.

I en global verden bør reguleringen af AI ske på tværs af de europæiske grænser. EU burde fremme en bred aftale om AI i forbindelse med G7 og G20 og fortsætte de bilaterale dialoger, for at det størst mulige antal lande kan deltage i AI-standardiseringsprocessen og jævnligt kontrollere dens relevans.

Bruxelles, den 30. oktober 2019.

Luca JAHIER

Formand

for Det Europæiske Økonomiske og Sociale Udvalg


(1)  EUT C 440 af 6.12.2018, s. 1.

(2)  EUT C 288 af 31.8.2017, s. 1, EUT C 440 af 6.12.2018, s. 1.

(3)  https://osha.europa.eu/da/emerging-risks

(4)  Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).

(5)  COM(2019) 168 final.

(6)  COM(2019) 168 final, s. 5.

(7)  Se især »OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces«.

(8)  ISO/TS 15066, 2016.

(9)  Se rapporten »The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation«, februar 2018.

(10)  COM(2019) 168 final, s. 6.

(11)  »Your car knows when you gain weight«, The New York Times (International Edition), 22.5.2019.

(12)  EUT C 190 af 5.6.2019, s. 17.

(13)  COM(2019) 168 final, s. 6.

(14)  Se f.eks. »A white-collar sweatshop: Google Assistant contractors allege wage theft«, The Guardian, 29.5.2019, og »Bot technology impressive, except when it's not the bot«, The New York Times (International Edition), 24.5.2019.

(15)  EFT L 180 af 19.7.2000, s. 22, EFT L 303 af 2.12.2000, s. 16, EUT L 373 af 21.12.2004, s. 37, EUT L 204 af 26.7.2006, s. 23.

(16)  Rådets direktiv 2000/43/EF af 29. juni 2000 om gennemførelse af princippet om ligebehandling af alle uanset race eller etnisk oprindelse (EFT L 180 af 19.7.2000, s. 22).

(17)  Rådets direktiv 2004/113/EF af 13. december 2004 om gennemførelse af princippet om ligebehandling af mænd og kvinder i forbindelse med adgang til og levering af varer og tjenesteydelser (EUT L 373 af 21.12.2004, s. 37).

(18)  Se navnlig Kidron, Evans, Afia (2018), »Disrupted Childhood — The Cost of Persuasive Design«, 5Rights Foundation.

(19)  Rapport fra Ekspertgruppen på Højt Niveau vedrørende den digitale omstillings indvirkning på EU's arbejdsmarkeder, 2019.

(20)  Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).


Top