|
21.4.2023 |
DA |
Den Europæiske Unions Tidende |
C 140/28 |
Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om »forslag til Europa-Parlamentets og Rådets direktiv om tilpasning af reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens (Direktivet om AI-ansvar)«
(COM(2022) 496 final — 2022/0303 (COD))
(2023/C 140/05)
|
Hovedordfører: |
Wautier ROBYNS DE SCHNEIDAUER |
|
Anmodning om udtalelse |
Europa-Parlamentet, 6.10.2022 |
|
|
Rådet for den Europæiske Union, 14.10.2022 |
|
Retsgrundlag |
Artikel 114 i traktaten om Den Europæiske Unions funktionsmåde |
|
Kompetence |
Sektionen for Det Indre Marked, Produktion og Forbrug |
|
Præsidiets henvisning |
20.9.2023 |
|
Vedtaget på plenarforsamlingen |
24.1.2023 |
|
Plenarforsamling nr. |
575 |
|
Resultat af afstemningen (for/imod/hverken for eller imod) |
154/1/0 |
1. Konklusioner og anbefalinger
|
1.1. |
EØSU har beskæftiget sig med kunstig intelligens (AI) siden sit pionerarbejde i 2017 og insisterer på, at menneskelig kontrol af AI-anvendelser også skal omfatte spørgsmål om ansvar og skabe tillid til teknologien. Udvalget efterlyste i sin udtalelse fra 2019 (1) klare regler, herunder — i tilfælde af uretmæssig (eller formodet uretmæssig) brug — for fysiske personers og juridiske personers ansvar. |
|
1.2. |
EØSU bifalder og støtter Kommissionens forslag om at forbedre rettighederne for ofre, der i henhold til national lovgivning har lidt skade som følge af en sådan uretmæssig anvendelse af kunstig intelligens, ved at fastsætte specifikke rettigheder ud over den eksisterende nationale erstatningsbaserede eller objektive ansvarslovgivning, bestemmelserne i direktivet om produktansvar og strafferetten. |
|
1.3. |
EØSU erkender, at minimumsharmonisering er den bedste metode til at nå dette mål, men er på vagt over for risikoen for, at aktører i udviklings- og forsyningskæden og dommere kan tolke dette forskelligt. Udvalget insisterer derfor på klare juridiske definitioner og mener, at der er behov for at styrke den juridiske ekspertise hos dem, der skal anvende denne nye lovgivning i EU, yderligere med de rette digitale færdigheder. Kommissionens endelige mål bør være at forfølge og udvikle en ansvarsordning, der kan anvendes så ensartet som muligt i hele EU. |
|
1.4. |
EØSU er klar over, at der er en vekselvirkning mellem forebyggelse og sikkerhedsregler på den ene side og klagemuligheder på den anden. Hertil kommer de offentlige myndigheders tilsynsrolle, når det gælder om at sikre overholdelsen af EU's og de nationale standarder for ansvarlig udvikling af kunstig intelligens. Udvalget opfordrer til, at der oprettes et netværk af alternative tvistbilæggelsesorganer, så det bliver nemmere for skadelidte at udøve deres rettigheder, og at indsamle mere dokumentation om resultaterne af direktivet. |
|
1.5. |
EØSU påskønner balancen i direktivet mellem skadelidtes rettigheder og AI-udviklernes interesser. Dette gør det muligt at høste fordelene ved den digitale omstilling og kan sætte en standard for tredjelande, der overvejer at gå samme vej. |
|
1.6. |
EØSU opfordrer Kommissionen til at holde nøje øje med udviklingen af finansielle garantier og forsikringer, der dækker AI-ansvar, og tage behørigt højde for, hvor tilgængelige de er, og hvor meget de dækker, da den nye ramme bør skabe retssikkerhed for både operatører og forsikringsselskaber. Dokumentation for hændelser er afgørende for at vurdere, om der er brug for foranstaltninger i denne henseende, og det er derfor vigtigt, at disse hændelser dokumenteres og indberettes. |
|
1.7. |
EØSU opfordrer Kommissionen til, at de rettigheder, som gives til ofre for skader forårsaget af kunstig intelligens, medtages i kommunikationsstrategien for at øge tilliden til den digitale omstilling. |
|
1.8. |
I betragtning af den hurtige teknologiske udvikling støtter EØSU hensigten om at revidere lovgivningen, så snart der er belæg for det. Udvalget mener dog, at fem år efter direktivets ikrafttrædelse er alt for sent, og anbefaler, at revisionen foretages tre år efter ikrafttrædelsen. EØSU er villig til at gøre status under denne revision og vurdere de europæiske civilsamfundsorganisationers erfaringer, mere specifikt feedback fra slutbrugerne om bevisbyrden og potentielt divergerende definitioner af erstatningsberettigede skader i henhold til national lovgivning. |
|
1.9. |
Da brugen af kunstig intelligens kan indebære, at der skal træffes politiske beslutninger af følsom karakter, som ikke udelukkende bør overlades til de parter, der er involveret i AI-forsyningskæden, beder EØSU om også at blive inddraget og hørt i fastsættelsen af etiske standarder. |
2. Resumé af forslaget
|
2.1. |
Forslaget til direktiv om civilretligt ansvar uden for kontraktforhold til kunstig intelligens (direktivet om AI-ansvar) bygger på Kommissionens hvidbog fra 2020 om kunstig intelligens, den samtidige rapport om sikkerhed og ansvar inden for kunstig intelligens og forslaget til forordning om kunstig intelligens fra 2021, hvori der fokuseres på forebyggelse og sikkerhed. Det er knyttet til revisionen af direktivet om produktansvar fra 1985 (det reviderede produktansvarsdirektiv), som blev fremlagt samme dag som direktivet om AI-ansvar, der behandles i denne udtalelse. Begge forslag giver sagsøgerne mulighed for at gøre krav gældende over for bestemte parter — dog er der visse forskelle i anvendelsesområdet for de to instrumenter. |
|
2.2. |
Formålet med direktivet om AI-ansvar er at fastsætte ensartede regler for visse aspekter af ansvar uden for kontraktforhold for skader forvoldt ved brug af AI-systemer. Derved har det til formål at forbedre det indre markeds funktion og sikre en mere omfattende beskyttelse af skadelidte (både enkeltpersoner og virksomheder) og fremme tilliden til kunstig intelligens gennem harmoniserede regler. Dette omfatter f.eks. brud på privatlivets fred, tab af data eller skader som følge af sikkerhedsproblemer. De nye regler vil f.eks. gøre det nemmere at opnå erstatning, hvis man har været udsat for forskelsbehandling under en ansættelsesprocedure, hvor der blev gjort brug af AI-teknologi, selvom der stadig udestår flere (juridiske) forhindringer. For at fjerne den resterende retsusikkerhed anbefaler EØSU, at der fastsættes en juridisk definition af beslutninger truffet af maskiner, der anvender kunstig intelligens. |
|
2.3. |
Med direktivet foreslår Kommissionen for første gang en målrettet harmonisering af de nationale ansvarsregler for kunstig intelligens, således at det bliver lettere for ofre for AI-relaterede skader at opnå erstatning. I overensstemmelse med målene i hvidbogen om kunstig intelligens og Kommissionens forslag til forordning om kunstig intelligens fra 2021 — der fastsætter retsstatsprincippet gennem en ramme for pålidelighed og tillid til kunstig intelligens — vil de nye regler sikre, at ofre nyder samme beskyttelse, hvis de lider skade som følge af brugen af AI-produkter eller -tjenester, som hvis de havde lidt skade under andre omstændigheder. |
|
2.4. |
Direktivet sikrer, at de teknologiske fremskridt i Europa ikke bringes i fare eller kastes over bord, men indfører samtidig en harmoniseret retlig ramme, der tager hånd om kompleksiteten af AI-systemer fra laboratorium til marked og forenkler den retlige proces for ofre for skader forårsaget af AI-systemer gennem to vigtige juridiske innovationer, der opfylder de eksisterende behov:
|
Med disse to foranstaltninger hjælper forslaget til direktiv skadelidte med at søge individuel eller kollektiv erstatning (hvis det er relevant) uden at afskaffe begrebet årsagssammenhæng.
3. Sikring af menneskecentreret teknologisk udvikling
|
3.1. |
EØSU er opmærksom på fordele og potentielle risici ved kunstig intelligens. Kunstig intelligens bør ikke udelukkende bruges til at øge produktiviteten ved at erstatte opgaver, der har været udført af mennesker, og til at nedbringe omkostningerne. Denne udvikling kræver, at der er fokus på de risici, der er forbundet med kunstig intelligens' indvirkning på sundheden som følge af ændrede arbejdsvilkår og rettigheder såsom privatlivets fred, og at balancen mellem brugen af maskiner og mennesker på arbejdspladsen tags op til genovervejelse, da menneskelig kontrol skal prioriteres. Samtidig skal der tages tilstrækkeligt højde for, at mennesker muligvis stadig vil have fordomme og være partiske over for den måde, maskiner fungerer på. Det bør fortsat være mennesker, som har ansvaret for den indledende udformning og det endelige ansvar for eventuelle fejl, som anerkendt af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens i dens etiske retningslinjer. Mange andre udviklingstendenser er i dag mindre veldokumenterede, f.eks. nanoteknologiernes miljøpåvirkning. EØSU mener, at både AI-operatører og andre interessenter, f.eks. risikostyringskonsulenter og forsikringsselskaber samt offentlige myndigheder og arbejdstagerrepræsentanter, bør overvåge den potentielle indvirkning ved hjælp af risikoanalyse, revision og sikkerhedsteknik, hvor der testes i et miljø, der ligner virkeligheden. Som EØSU har givet udtryk for i sin tidligere udtalelse (2), ser udvalget positivt på certificeringsprocedurer, der skaber sikkerhed og er i menneskers interesse. |
|
3.2. |
EØSU er bevidst om, at AI-anvendelser kan være fejlbehæftede og udsat for cyberangreb og henviser til sine seneste udtalelser om forordningen om digital operationel modstandsdygtighed (DORA-forordningen) (3) og om forslagene til direktiv om cybersikkerhed og modstandsdygtighed i forbindelse med kritiske enheder (4). Disse risici og trusler berettiger tydeligvis de eksisterende krav om forebyggelse og overvågning samt fremtidige udviklinger, idet der kan opstå nye sårbarheder. |
|
3.3. |
EØSU støtter intentionen om at holde trit med den hurtige udvikling fremover og gennemgå direktivets virkninger, når der er belæg derfor. Afhængigt af nødvendighed og proportionalitet kan dette føre til en opdatering. Udvalget mener, at de fem år, der er fastsat i forslaget, ligger for langt ude i fremtiden, og foreslår, at der gribes tidligere ind, højst tre år efter direktivets ikrafttrædelse. Udvalget insisterer på, at civilsamfundet inddrages i denne evaluering, da EØSU på en helt særlig måde afspejler borgernes, forbrugernes, arbejdstagernes og store og små virksomheders synspunkter under behørig hensyntagen til de grundlæggende menneskerettigheder, herunder arbejdstagernes rettigheder, samt økonomiske muligheder og hindringer. |
4. Beskyttelse af EU's grundlæggende værdier
|
4.1. |
EØSU støtter Kommissionens tilgang i forordningen om kunstig intelligens, som skelner mellem forbudte anvendelser af kunstig intelligens som f.eks. indgribende regeringers »sociale pointsystemer« for borgerne, virksomheders højrisikoanvendelser, bl.a. i forbindelse med ansættelse og meritvurdering, samt kritisk infrastruktur og teknisk udstyr, der anvendes i sundhedssektoren, og en lang række mindre risikofyldte aktiviteter. EØSU efterlyser en entydig definition af højrisikoaktiviteter. EØSU gentager sin opfordring om at tilføje potentielle skader på miljøet som en af de faktorer, der skal medtages i højrisikokategorien. EØSU bemærker, at der bør ydes erstatning til ofre, uanset om en AI-anvendelse er klassificeret som risikabel eller mindre risikabel. |
|
4.2. |
Som anført i udtalelsen fra 2020 om hvidbogen om kunstig intelligens insisterer EØSU på sit tilsagn om at beskytte de grundlæggende rettigheder og på, at mennesker skal have kontrollen med den endelige beslutningsproces. Dette er hjørnesten i en ansvarlig udvikling af kunstig intelligens i Den Europæiske Union. Valg og beslutninger, der træffes af maskiner, kan mangle den menneskelige forståelse for utilsigtede konsekvenser, navnlig når disse valg og beslutninger påvirker sårbare personer såsom børn og ældre. |
|
4.3. |
EØSU understreger, hvor vigtigt det er, at borgerne har tillid til udviklingen inden for kunstig intelligens i forhold til beskyttelse af privatlivets fred, retfærdig behandling og eventuelle klagemuligheder. Forslaget til direktiv har til formål at sikre mindst lige så stor erstatning for skader, der er forårsaget eller delvis forårsaget af brugen af AI-systemer, som skader, hvor AI-systemer ikke er involveret. Det er vigtigt, at Kommissionen, medlemsstaterne og brugerne af AI-systemer gør en fælles indsats for at formidle dette budskab til et bredt publikum. |
5. Lettere adgang til erstatning til ofre for skader forårsaget af kunstig intelligens
|
5.1. |
Direktivet om AI-ansvar indeholder bestemmelser om øget beskyttelse af borgere, arbejdstagere og økonomiske aktører mod skader som anerkendt i de nationale retlige rammer for disse ofre, idet beskyttelsen udvides til at omfatte mere end blot fysisk skade og materielle tab som fastsat i forslaget til direktiv om produktansvar. Denne udvidelse giver mulighed for kompensation for rent økonomiske skader, f.eks. i tilfælde af urimelig forskelsbehandling, nægtelse af adgang til pleje eller uddannelse, forkert profilering fra politiets side eller som følge af tab af data. EØSU understreger, at det for at undgå uønskede fortolkningsforskelle i national retspraksis er nødvendigt at klarlægge, hvilken type skade der giver ret til erstatning, og at tilvejebringe uddannelse på dette område til jurister, bl.a. nationale dommere, gennem anvendelse af de rette midler. EØSU påpeger, at de nationale domstole har mulighed for at anmode EU-Domstolen om at træffe foreløbige afgørelser om spørgsmål, der fortolkes forskelligt. |
|
5.2. |
EØSU mener ikke, at borgere, forbrugere, arbejdstagere og virksomheder har lige adgang til klagemuligheder og erstatning overalt i Den Europæiske Union. Goodwill over for sagsøgere, procedureregler, omkostningerne forbundet med en retssag og det omfang, hvori sagsøgere er forsikret mod juridiske omkostninger i civilretlige ansvarssager varierer betydeligt afhængigt af medlemsstat og social klasse. Derfor mener EØSU, som allerede formuleret som et princip i den mere generelle udtalelse om forordningen om kunstig intelligens (5), at der bør oprettes lettilgængelige, gratis og obligatoriske alternative tvistbilæggelsesordninger i sager om civilretligt ansvar i forbindelse med AI-anvendelser på nationalt plan, og at disse bør koordineres inden for hele EU, som det f.eks. er tilfældet inden for finansielle tjenesteydelser (FIN-NET), og at dette bør gøres i samarbejde med relevante repræsentative civilsamfundsorganer. Sådanne tjenester vil bidrage til at vurdere direktivets virkninger ved at holde styr på de udenretslige forlig, som de får kendskab til. |
|
5.3. |
EØSU glæder sig over arbejdet for at give ofre bedre muligheder for at kræve rimelig erstatning, når de lider skade på grund af AI-anvendelser, da dette ellers kan være umuligt eller kompliceret eller dyrt som følge af uigennemsigtige og komplekse AI-anvendelser. Mange borgere og forbrugere er mistænksomme over for »robotter« og algoritmer. EØSU anbefaler, at der som led i Kommissionens kommunikationsstrategi gøres en indsats for at fremme borgernes tillid, navnlig gennem vejledninger på de mest populære sociale medier. |
|
5.4. |
Ofre for skader forårsaget af AI-systemer vil kunne påberåbe sig formodningen om, at operatørerne ikke har overholdt nationale eller europæiske krav. Operatører skal registrere deres overholdelse af disse regler, hvilket vil beskytte mod uforsvarlig adfærd. |
6. Integration af nye retsprincipper i det indre marked
|
6.1. |
Direktivet om AI-ansvar kommer på et tidspunkt, hvor ansvaret for fejl forårsaget af kunstig intelligens er på flere medlemsstaters lovgivningsmæssige dagsorden. EØSU forstår tilgangen i forslaget med på nuværende tidspunkt at beskytte de nationale retsprincipper og støtter anvendelsen af et direktiv både for at undgå for store uoverensstemmelser i ansvarsprincipperne i EU og for at give medlemsstaterne mulighed for at finjustere, hvor høj en grad af beskyttelse der er nødvendig og forholdsmæssig i almenhedens interesse. Udvalget gør de politiske beslutningstagere opmærksom på ulemperne ved fragmenterede retlige rammer, som hindrer gennemførelsen af et ægte digitalt indre marked, opretholder forskelle mellem europæiske borgere og virksomheder og kan hæmme den teknologiske innovation i Europa. Udvalget mener ikke, at man bør undervurdere risikoen for fejlfortolkning af princippet om almen interesse, da proceduren for at anfægte det er besværlig og kun gælder for de enkelte sager, der bringes for Domstolen. |
|
6.2. |
EØSU er bevidst om de store forskelle i medlemsstaternes nationale retsregler for civilretlige erstatningskrav og har i årenes løb fulgt nøje med i arbejdet for at komme disse forskelle til livs, f.eks. med et alternativ til de nationale standarder (28. ordning). Med dette in mente forstår udvalget det valg af retsakt, som Kommissionen foreslår på nuværende tidspunkt, men peger på risikoen for, at flere begreber kan give anledning til forskellige fortolkninger i forskellige nationale retssystemer. EØSU insisterer på, at Kommissionen som det endelige mål bør tilstræbe en så ensartet ansvarsordning som muligt i hele EU. |
|
6.3. |
EØSU understreger, at sagsøgte, herunder navnlig (små) detailhandlere, har et retskrav over for leverandøren eller relevante interessenter tidligere i forsyningskæden, og at sidstnævnte bærer ansvaret for konsekvenserne af deres uagtsomme eller formodede uretmæssige adfærd. Leverandørerne bør i sådanne tilfælde være juridisk forpligtet til at yde erstatning til sagsøgte. |
7. Fremme af den europæiske AI-udviklings konkurrenceevne
|
7.1. |
EØSU opfatter retssikkerhed som et økonomisk incitament for europæisk forskning og udvikling i forskningscentre, hos offentlige myndigheder og i virksomheder og mener, at den bidrager til banebrydende innovation i et globalt miljø. Forslaget til direktiv om AI-ansvar giver på det helt rigtige tidspunkt innovatorer den vejledning, der er nødvendig for i højere grad at forsikre dem om de juridiske risici, især hvis de opererer i flere lande, da de enkelte retssystemer har deres egne ansvarsordninger. Dette vil være af stor værdi for nystartede virksomheder og SMV'er, som ikke har samme adgang til juridisk rådgivning som større virksomheder. Den nye ramme kan også hjælpe udviklere med at lancere nye AI-anvendelser med en bedre forståelse af de juridiske konsekvenser og bidrage til EU-strategien for digital og grøn omstilling. |
|
7.2. |
Forslaget til direktiv om AI-ansvar omfatter på nuværende tidspunkt ikke obligatorisk forsikring af AI-anvendelser. Da AI-anvendelser stadig er under udvikling, især de mere komplicerede systemer, er det på grund af manglen på tidligere erfaringer vanskeligt at fastlægge bedømmelsesmetoder, der er pålidelige nok til at være repræsentative for fremtidige skader og erstatningskrav, især da der kan være en sammenhæng mellem forekomsten af skader og erstatningskrav, hvilket kan føre til gentagne fejl og dermed til mere alvorlige hændelser og flere tab, samtidig med at (gen-)forsikringsselskabernes kapacitet på nuværende tidspunkt er begrænset. EØSU forstår derfor Kommissionens beslutning om ikke at gå dybere ind i spørgsmålet om, hvorvidt og for hvilke aktiviteter og i hvilket omfang der bør indføres obligatorisk forsikring eller andre finansielle garantier på nuværende tidspunkt, men opfordrer Kommissionen til nøje at overvåge adgangen til forsikring og dækningen heraf. Der er behov for en overvågningsordning, der giver indsigt i hændelser, der involverer AI-systemer, for at kunne vurdere, om der er behov for yderligere tiltag såsom objektivt ansvar eller obligatorisk forsikring. |
|
7.3. |
EØSU bemærker, at flere risici er omfattet af obligatorisk forsikring eller andre finansielle garantier i henhold til national lovgivning eller EU-lovgivning. Dette er mere specifikt tilfældet med motorkøretøjer, hvor udviklingen af selvkørende køretøjer er i fuld gang. I tilfælde hvor den obligatoriske forsikring ikke kun dækker førerens eller passagerernes adfærd, men også udstyrsfejl, nærmere bestemt under kørsel med autopilot, er skadelidte i de fleste tilfælde (6) garanteret erstatning i henhold til gældende lovgivning og kontrakter. Forsikringsselskaber kan i så fald kræve, at fabrikanterne godtgør deres omkostninger. Dette bør nedbringe omkostningerne for bilister og flytte det økonomiske tyngdepunkt for de relevante forsikringstyper fra et business-to-consumer-marked til en business-to-business-model. EØSU mener derfor ikke, at der er behov for flere særlige lovgivningsmæssige tiltag på områder, hvor der allerede findes eller skal indføres lovpligtig forsikring på EU-plan. EØSU vil dog nøje overvåge de etiske valg, der ligger til grund for spørgsmål som forebyggelse af kollisioner og scenarier for håndtering af ulykker. |
|
7.4. |
EØSU anser overholdelses- og risikostyringskravene i direktivet om AI-ansvar og formodningen om årsagssammenhæng, som lægger bevisbyrden på udbydere, personer, der handler på deres vegne og brugere af AI-systemer, for at være forholdsmæssige og rettet mod det rigtige niveau af risiko for skade forårsaget af AI-anvendelser. |
|
7.5. |
Med hensyn til adgang til bevismateriale bifalder EØSU de foranstaltninger, der er truffet for at beskytte forretningshemmeligheder, som er et vigtigt aspekt af europæiske innovatorers konkurrenceevne, samt fortrolige oplysninger, når de påberåbes lovligt og med behørig respekt for fastlagte rettigheder som f.eks. whistlebloweres juridisk anerkendte rettigheder på arbejdspladsen. |
|
7.6. |
EØSU mener, at indførelsen af en moderat formodning frem for et objektivt ansvar gør det nemmere at udvikle AI-teknologi i Den Europæiske Union og kan cementere EU's rolle som globalt førende, da andre lande meget vel vil tilpasse deres lovgivning til denne ordning. Dette aspekt bør også indgå i den fremtidige revision sammen med en præcisering af de begreber, der kan være nødvendige som følge af de første erfaringer. |
Bruxelles, den 24. januar 2023.
Christa SCHWENG
Formand for Det Europæiske Økonomiske og Sociale Udvalg
(1) Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om meddelelse fra Kommissionen til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Opbygning af tillid til menneskecentreret kunstig intelligens (COM(2019) 168 final) (EUT C 47 af 11.2.2020, s. 64).
(2) Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om meddelelse fra Kommissionen til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Opbygning af tillid til menneskecentreret kunstig intelligens (COM(2019) 168 final) (EUT C 47 af 11.2.2020, s. 64).
(3) Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om forslag til Europa-Parlamentets og Rådets forordning om digital operationel modstandsdygtighed i den finansielle sektor og om ændring af forordning (EF) nr. 1060/2009, (EU) nr. 648/2012, (EU) nr. 600/2014 og (EU) nr. 909/2014 (COM(2020) 595 final — 2020/0266 (COD)) — forslag til Europa-Parlamentets og Rådets direktiv om ændring af direktiv 2006/43/EF, 2009/65/EF, 2009/138/EF, 2011/61/EU, 2013/36/EU, 2014/65/EU, (EU) 2015/2366 og (EU) 2016/2341 (COM(2020) 596 final — 2020/0268 (COD)) (EUT C 155 af 30.4.2021, s. 38).
(4) Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om »forslag til Europa-Parlamentets og Rådets direktiv om foranstaltninger til sikring af et højt fælles cybersikkerhedsniveau i hele Unionen og om ophævelse af direktiv (EU) 2016/1148, og forslag til Europa-Parlamentets og Rådets direktiv om kritiske enheders modstandsdygtighed« (COM(2020) 823 final — 2020/0359 (COD) — COM(2020) 829 final — 2020/0365 (COD)) (EUT C 286 af 16.7.2021, s. 170).
(5) Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter (COM(2021) 206 final — 2021/106 (COD)) (EUT C 517 af 22.12.2021, s. 61).
(6) Føreren af køretøjet har ret til at indgive et erstatningskrav i henhold til produktansvarslovgivningen.