This document is an excerpt from the EUR-Lex website
Document 52020IP0275
European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies (2020/2012(INL))
Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier (2020/2012(INL))
Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier (2020/2012(INL))
EUT C 404 af 6.10.2021, p. 63–106
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.10.2021 |
DA |
Den Europæiske Unions Tidende |
C 404/63 |
P9_TA(2020)0275
Ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier
Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier (2020/2012(INL))
(2021/C 404/04)
Europa-Parlamentet,
— |
der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde, |
— |
der henviser til artikel 114 i traktaten om Den Europæiske Unions funktionsmåde, |
— |
der henviser til Den Europæiske Unions charter om grundlæggende rettigheder, |
— |
der henviser til Rådets forordning (EU) 2018/1488 af 28. september 2018 om oprettelse af et europæisk fællesforetagende for højtydende databehandling (1), |
— |
der henviser til Rådets direktiv 2000/43/EF af 29. juni 2000 om gennemførelse af princippet om ligebehandling af alle uanset race eller etnisk oprindelse (2) (direktivet om racelighed), |
— |
der henviser til Rådets direktiv 2000/78/EF af 27. november 2000 om generelle rammebestemmelser om ligebehandling med hensyn til beskæftigelse og erhverv (3) (direktivet om ligebehandling med hensyn til beskæftigelse), |
— |
der henviser til Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger, og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (4) og til Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA (5), |
— |
der henviser til den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning (6), |
— |
der henviser til forslag af 6. juni 2018 til Europa-Parlamentets og Rådets forordning om programmet for et digitalt Europa for perioden 2021-2027 (COM(2018)0434), |
— |
der henviser til Kommissionens meddelelse til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget af 11. december 2019 om den europæiske grønne pagt (COM(2019)0640), |
— |
der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om kunstig intelligens — en europæisk tilgang til ekspertise og tillid (COM(2020)0065), |
— |
der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om en europæisk strategi for data (COM(2020)0066), |
— |
der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om Europas digitale fremtid i støbeskeen (COM(2020)0067), |
— |
der henviser til Rådet for Den Europæiske Unions konklusioner om Europas digitale fremtid i støbeskeen fra juni 2020, |
— |
der henviser til sin beslutning af 16. februar 2017 med henstillinger til Kommissionen om civilretlige bestemmelser om robotteknologi (7), |
— |
der henviser til sin beslutning af 1. juni 2017 om digitalisering af den europæiske industri (8), |
— |
der henviser til sin beslutning af 12. september 2018 om autonome våbensystemer (9), |
— |
der henviser til sin beslutning af 11. september 2018 om ligebehandling af sprog i en digital tidsalder (10), |
— |
der henviser til sin beslutning af 12. februar 2019 om en omfattende europæisk industripolitik om kunstig intelligens og robotteknologi (11), |
— |
der henviser til rapporten af 8. april 2019 fra ekspertgruppen på højt plan om kunstig intelligens nedsat af Kommissionen med titlen »Ethics Guidelines for Trustworthy AI« (Etiske retningslinjer vedrørende pålidelig kunstig intelligens), |
— |
der henviser til den undersøgelse af den europæiske merværdi, som Europa-Parlamentets Forskningstjeneste har gennemført, med titlen »En europæisk ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier: Europæisk merværdivurdering« (12), |
— |
der henviser til de briefinger og undersøgelser, der er udarbejdet på anmodning fra Europa-Parlamentets Panel for Fremtidens Videnskab og Teknologi (STOA-panelet), der forvaltes af Enheden for Videnskabeligt Fremsyn under Europa-Parlamentets Forskningstjeneste, med titlen: »What if algorithms could abide by ethical principles?« (hvad hvis algoritmer kunne efterleve etiske principper?), »Artificial Intelligence ante portas: Legal & ethical reflections« (kunstig intelligens står for døren: juridiske og etiske overvejelser), »Should we fear artificial intelligence?« (skal vi være bange for kunstig intelligens?) og »The ethics of artificial intelligence: Issues and initiatives« (de etiske aspekter ved kunstig intelligens: Spørgsmål og initiativer"), |
— |
der henviser til Europarådets rammekonvention om beskyttelse af nationale mindretal, protokol nr. 12 til konventionen til beskyttelse af menneskerettigheder og grundlæggende frihedsrettigheder samt den europæiske pagt om regionale sprog eller mindretalssprog, |
— |
der henviser til OECD-Rådets henstilling vedrørende kunstig intelligens, som blev vedtaget 22. maj 2019, |
— |
der henviser til forretningsordenens artikel 47 og 54, |
— |
der henviser til udtalelser fra Udenrigsudvalget, Udvalget om det Indre Marked og Forbrugerbeskyttelse, Transport- og Turismeudvalget, Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender, Udvalget om Beskæftigelse og Sociale Anliggender, Udvalget om Miljø, Folkesundhed og Fødevaresikkerhed og Kultur- og Uddannelsesudvalget, |
— |
der henviser til betænkning fra Retsudvalget (A9-0186/2020), |
Indledning
A. |
der henviser til, at udvikling, udbredelse og anvendelse af »kunstig intelligens« (også kaldet »AI«), robotteknologi og relaterede teknologier udføres af mennesker, og at deres valg afgør teknologiens potentiale for at være til gavn for samfundet; |
B. |
der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier, der har potentiale til at skabe muligheder for virksomheder og fordele for borgerne, og som direkte kan påvirke alle aspekter af vores samfund, herunder grundlæggende rettigheder og sociale og økonomiske principper og værdier, og som ligeledes har varig indflydelse på alle aktivitetsområder, fremmes og udvikles i hastigt tempo; |
C. |
der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier medfører store ændringer på arbejdsmarkedet og på arbejdspladserne; der henviser til, at de potentielt kan erstatte arbejdstagere, der udfører repetitivt arbejde, fremme arbejdssystemer, hvor menneske og maskine arbejder sammen, øge konkurrenceevnen og den økonomiske fremgang og skabe nye jobmuligheder for kvalificerede arbejdstagere, samtidig med at de udgør en alvorlig udfordring med hensyn til omstrukturering af arbejdsstyrken; |
D. |
der henviser til, at udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier også kan bidrage til at nå bæredygtighedsmålene fra den europæiske grønne pagt inden for mange forskellige sektorer; der henviser til, at digitale teknologier kan booste effekten af politikker for så vidt angår miljøbeskyttelse; der henviser til, at de også kan bidrage til at reducere trafikpropper og emissioner af drivhusgasser og luftforurenende stoffer; |
E. |
der henviser til, at AI-understøttede intelligente transportsystemer i sektorer såsom offentlig transport kan anvendes til at minimere køer, optimere rutelægning, gøre personer med handicap mere uafhængige og øge energieffektiviteten og dermed intensivere dekarboniseringsbestræbelserne og reducere miljøaftrykket; |
F. |
der henviser til, at disse teknologier skaber nye forretningsmuligheder, som kan bidrage til genopretningen af Unionens industri efter den nuværende sundhedsmæssige og økonomiske krise, hvis vi gør mere brug af dem, f.eks. inden for transportindustrien; der henviser til, at sådanne muligheder kan skabe nye arbejdspladser, eftersom udbredelsen af disse teknologier har potentiale til at øge virksomhedernes produktivitetsniveauer og bidrage til effektivitetsgevinster; der henviser til, at innovationsprogrammer på dette område kan få regionale klynger til at blomstre; |
G. |
der henviser til, at Unionen og medlemsstaterne har et særligt ansvar for at udnytte, fremme og øge merværdien af kunstig intelligens og sikre, at AI-teknologier er sikre og bidrager til deres borgeres velfærd og almene interesse, da de kan yde et stort bidrag til at nå det fælles mål om at forbedre borgernes liv og fremme velstanden i Unionen ved at bidrage til udviklingen af bedre strategier og innovation inden for en række områder og sektorer; der henviser til, at det for at udnytte den kunstige intelligens fulde potentiale og gøre brugerne opmærksomme på de fordele og udfordringer, som AI-teknologier medfører, er nødvendigt at inddrage AI eller digitale færdigheder i undervisningsmæssig sammenhæng, herunder med henblik på at fremme digital inklusion, og at det er nødvendigt at gennemføre informationskampagner på EU-plan, der giver et nøjagtigt billede af alle aspekter af udviklingen af AI; |
H. |
der henviser til, at en fælles EU-retlig ramme for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier (en »lovgivningsmæssig ramme for AI«) bør give borgerne mulighed for at nyde godt af fordelene ved deres potentiale, men samtidig beskytte borgerne mod de eventuelle risici ved sådanne teknologier og fremme pålideligheden af sådanne teknologier både i Unionen og andre steder; der henviser til, at denne ramme bør være baseret på Unionens love og værdier og styret af principperne om gennemsigtighed, forklarlighed, retfærdighed, ansvarlighed og ansvar; |
I. |
der henviser til, at en sådan lovgivningsmæssig ramme er af afgørende betydning for at undgå en opsplitning af det indre marked som følge af forskellig national lovgivning, og at den vil bidrage til at fremme hårdt tiltrængte investeringer, udvikle datainfrastruktur og støtte forskning; der henviser til, at den bør bestå af fælles retlige forpligtelser og etiske principper som fastlagt i det forslag til forordning, som der anmodes om i bilaget til denne beslutning; der henviser til, at den bør udarbejdes i henhold til princippet om bedre lovgivning; |
J. |
der henviser til, at Unionen har en streng lovgivningsmæssig ramme på plads til at sikre bl.a. beskyttelsen af personoplysninger og privatlivets fred og beskyttelsen mod diskrimination, samt for at fremme ligestilling mellem kønnene, miljøbeskyttelse og forbrugernes rettigheder; der henviser til, at en sådan lovgivningsmæssig ramme, der består af en omfattende mængde horisontal og sektorbaseret lovgivning, herunder de eksisterende regler for produktsikkerhed og produktansvar, fortsat vil være gældende i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier, omend det kan være nødvendigt at udføre visse justeringer af specifikke juridiske instrumenter med henblik på at afspejle den digitale omstilling og håndtere nye udfordringer, der opstår som følge af brugen af kunstig intelligens; |
K. |
der henviser til, at der er alvorlige bekymringer for, at den nuværende lovgivningsmæssige ramme i Unionen, herunder den gældende forbrugerlovgivning, regelsættet på beskæftigelsesområdet og det sociale område, databeskyttelseslovgivningen, lovgivningen om produktsikkerhed og markedsovervågning samt lovgivningen om bekæmpelse af forskelsbehandling, muligvis ikke længere vil være tilstrækkelige til effektivt at håndtere de risici, der skabes ved brug af kunstig intelligens, robotteknologi og relaterede teknologier. |
L. |
der henviser til, at juridiske og etiske spørgsmål vedrørende AI-teknologier ud over ændringer af eksisterende lovgivning også bør håndteres gennem en effektiv, omfattende og fremtidssikret lovgivningsmæssig ramme for Unionen, der afspejler Unionens principper og værdier som nedfældet i traktaterne og Den Europæiske Unions charter om grundlæggende rettigheder (»chartret«), der bør afstå fra overregulering og udelukkende lukke eksisterende juridiske smuthuller og skabe øget retssikkerhed for både virksomheder og borgere, navnlig ved at omfatte obligatoriske tiltag til at forhindre praksisser, der utvivlsomt ville undergrave grundlæggende rettigheder; |
M. |
der henviser til, at der i enhver form for ny lovgivningsmæssig ramme skal tages højde for alle interesser; der henviser til, at en grundig undersøgelse af konsekvenserne af enhver ny lovgivningsmæssig ramme for alle aktører gennem en konsekvensanalyse bør være en forudsætning for yderligere retlige skridt; der henviser til, at den afgørende rolle, som små og mellemstore virksomheder (SMV'er) og nystartede virksomheder spiller, særligt inden for den europæiske økonomi, retfærdiggør en strengt forholdsmæssig tilgang for at give dem mulighed for udvikling og innovation; |
N. |
der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier kan have alvorlige konsekvenser for enkeltpersoners, gruppers og hele samfundets materielle og immaterielle integritet, og at en sådan individuel og kollektiv skade skal imødegås med lovgivningsinitiativer; |
O. |
der henviser til, at det kan blive nødvendigt at vedtage specifikke regler for Unionens transportsektor for at respektere Unionens lovgivningsmæssige ramme for AI; |
P. |
der henviser til, at AI-teknologier er af strategisk betydning for transportsektoren, bl.a. fordi de øger sikkerheden og tilgængeligheden til alle transportformer og skaber nye beskæftigelsesmuligheder og mere bæredygtige forretningsmodeller; der henviser til, at en EU-tilgang til udviklingen af AI, robotteknologi og relaterede teknologier inden for transportsektoren har potentiale til at øge Unionens økonomis globale konkurrenceevne og strategiske autonomi; |
Q. |
der henviser til, at der stadig er menneskelige fejl involveret i ca. 95 % af alle trafikulykker i Unionen; der henviser til, at Unionen havde til hensigt at reducere det årlige antal trafikdræbte i Unionen med 50 % i 2020 i forhold til 2010, men på baggrund af stagnerende fremskridt fornyede sine bestræbelser i sin rammepolitik for EU-færdselssikkerhed 2021-2030 ("EU Road Safety Policy Framework 2021-2030 — Next steps towards »Vision Zero«); der henviser til, at AI, automatisering og andre nye teknologier i denne henseende har stort potentiale til og er yderst vigtig for at øge færdselssikkerheden ved at reducere risikoen for menneskelige fejl; |
R. |
der henviser til, at Unionens lovgivningsmæssige ramme for AI også bør afspejle behovet for at sikre, at arbejdstagernes rettigheder respekteres; der henviser til, at der bør tages hensyn til de europæiske arbejdsmarkedsparters rammeaftale om digitalisering fra juni 2020; |
S. |
der henviser til, at Unionens lovgivningsmæssige ramme om AI bør være tilstrækkelig, forholdsmæssig og grundigt evalueret; der henviser til, at den bør omfatte en bred vifte af teknologier og komponenter hertil, herunder algoritmer, software og data, der anvendes eller produceres af disse, og at det er nødvendigt at have en målrettet risikobaseret tilgang for at undgå at hæmme fremtidig innovation og skabelse af unødige byder, specielt for SMV'er; der henviser til, at diversiteten af applikationer drevet af kunstig intelligens, robotteknologi og relaterede teknologier gør det mere vanskeligt at finde én løsning, som er velegnet til hele risikospekret; |
T. |
der henviser til, at dataanalyse og AI i stigende grad har indflydelse på de oplysninger, der stilles til rådighed for borgerne; der henviser til, at disse teknologier, hvis de misbruges, kan true de grundlæggende rettigheder til ytringsfrihed, information såvel som mediefrihed og -pluralisme; |
U. |
der henviser til, at det geografiske anvendelsesområde for Unionens lovgivningsmæssige ramme for AI bør omfatte alle elementer af kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, herunder i tilfælde, hvor en del af teknologierne kan være placeret uden for Unionen eller ikke hører til et specifikt sted; |
V. |
der henviser til, at Unionens lovgivningsmæssige ramme for AI bør omfatte alle relevante faser, nemlig udvikling, udbredelse og anvendelse af de relevante teknologier og komponenter heraf, hvilket kræver behørig hensyntagen til de relevante retlige forpligtelser og etiske principper, og bør fastsætte betingelserne for at sikre, at udviklere, udbredere og brugere er i fuld overensstemmelse med sådanne forpligtelser og principper; |
W. |
der henviser til, at en harmoniseret tilgang til etiske principper vedrørende kunstig intelligens, robotteknologi og relaterede teknologier kræver en fælles forståelse i Unionen af de koncepter, der danner grundlag for teknologierne såsom algoritmer, software, data eller biometrisk genkendelse; |
X. |
der henviser til, at foranstaltninger på EU-plan er begrundet i behovet for at undgå uensartet lovgivning eller en række nationale lovbestemmelser uden fællesnævner og at sikre en ensartet anvendelse af fælles etiske lovfæstede principper i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko; der henviser til, at der er behov for klare regler, hvis der er betydelige risici; |
Y. |
der henviser til, at fælles etiske principper kun er effektive, hvis de også er nedfældet i lovgivningen, og hvis de, der skal være ansvarlige for at sikre, at reglerne overholdes, identificeres; |
Z. |
der henviser til, at etiske retningslinjer, såsom de principper, der er vedtaget af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, giver et godt udgangspunkt, men at de ikke kan sikre, at udviklere, udbredere og brugere handler redeligt og garanterer effektiv beskyttelse af privatpersoner; der henviser til, at sådanne retningslinjer er så meget desto mere relevante med hensyn til kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko; |
AA. |
der henviser til, at hver enkelt medlemsstat bør udpege en national tilsynsmyndighed, der skal være ansvarlig for at sikre, vurdere og kontrollere, at udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko overholder Unionens lovgivningsmæssige ramme for AI, og for at muliggøre drøftelse og udveksling af synspunkter i tæt samarbejde med de berørte interessenter og civilsamfundet; der henviser til, at de nationale tilsynsmyndigheder bør samarbejde med hinanden; |
AB. |
der henviser til, at det med henblik på at sikre en harmoniseret tilgang i hele Unionen og et velfungerende digitalt indre marked bør sikres, at koordinering på EU-plan foretaget af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, som måtte blive udpeget i denne forbindelse, evalueres med hensyn til de nye muligheder og udfordringer, navnlig muligheder og udfordringer på tværs af grænserne, der opstår som følge af den løbende teknologiske udvikling; med henblik herpå bør Kommissionen have til opgave at finde en passende løsning med henblik på at strukturere denne koordinering på EU-plan; |
Menneskecentreret og menneskeskabt kunstig intelligens
1. |
er af den opfattelse, at det med forbehold af sektorspecifik lovgivning er nødvendigt med effektive og harmoniserede lovgivningsmæssige rammer baseret på EU-retten, chartret og den internationale menneskerettighedslovgivning, der navnlig finder anvendelse på højrisikoteknologier, med henblik på at fastsætte ensartede standarder i hele Unionen og effektivt beskytte Unionens værdier; |
2. |
mener, at enhver ny lovgivningsmæssig ramme for AI, der består af retlige forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, fuldt ud bør respektere chartret og derved respektere individets menneskelige værdighed, autonomi og selvbestemmelse, forhindre skade, fremme retfærdighed, inklusion og gennemsigtighed, eliminere forudindtagethed og forskelsbehandling, herunder i forbindelse med minoritetsgrupper, samt respektere og overholde principperne om begrænsning af de negative eksterne virkninger af den anvendte teknologi, sikring af teknologiernes forklarlighed og garantien for, at teknologierne er til for at tjene mennesker, ikke for at erstatte dem eller tage beslutninger for dem, med det ultimative mål at øge den menneskelige trivsel for alle; |
3. |
fremhæver asymmetrien mellem dem, der anvender AI-teknologier, og dem, der interagerer med dem og er underlagt dem; understreger i denne forbindelse, at borgernes tillid til AI kun kan være baseret på indbyggede rammer for etiske standarder og etisk design, der sikrer, at enhver AI-teknologi, der tages i brug, fuldt ud respekterer og efterlever traktaterne, chartret og afledt EU-ret; mener, at en sådan strategi bør være i overensstemmelse med det forsigtighedsprincip, der er retningsgivende for EU-lovgivningen, og bør være kernen i enhver lovgivningsmæssig ramme for AI; opfordrer i den henseende til etablering af en klar og sammenhængende styringsmodel, der sætter virksomheder og innovatorer i stand til at videreudvikle kunstig intelligens, robotteknologi og relaterede teknologier; |
4. |
mener, at enhver juridisk handling, navnlig i forbindelse med kunstig intelligens og relaterede teknologier, bør være i tråd med principperne om nødvendighed og proportionalitet; |
5. |
mener, at en sådan tilgang vil give virksomheder mulighed for at introducere innovative produkter på markedet og skabe nye muligheder, samtidig med, at de europæiske værdier beskyttes, idet den vil føre til udvikling af AI-systemer, der inkorporerer Unionens etiske principper som standard; mener, at en sådan værdibaseret lovgivningsmæssig ramme ville udgøre en merværdi, idet den ville give Unionen en unik konkurrencefordel og yde et vigtigt bidrag til de europæiske borgeres og virksomheders trivsel og velstand og sætte skub i det indre marked; understreger, at en sådan lovgivningsmæssig ramme for AI også vil udgøre en merværdi for så vidt angår fremme af innovation på det indre marked; mener, at denne tilgang f.eks. i transportsektoren giver EU-virksomheder mulighed for at blive førende på verdensplan på dette område; |
6. |
bemærker, at Unionens lovgivningsmæssige ramme bør gælde for kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier: |
7. |
bemærker, at de muligheder, der baserer sig på kunstig intelligens, robotteknologi og relaterede teknologier, er afhængige af »big data«, idet der er behov for en kritisk mængde data til at træne algoritmer og forfine deres resultater; bifalder i den forbindelse Kommissionens forslag om, at der oprettes et fælles dataområde i Unionen for at styrke dataudveksling og støtte forskning med fuld respekt for Unionens databeskyttelsesregler. |
8. |
mener, at Unionens nuværende lovgivningsmæssige rammer, navnlig vedrørende beskyttelse af privatlivets fred og personoplysninger, vil skulle finde fuld anvendelse på AI, robotteknologi og relaterede teknologier, og at de regelmæssigt skal revideres og gennemgås og om nødvendigt ajourføres for effektivt at tackle de risici, der skabes af disse teknologier, ligesom de i denne forbindelse kunne have gavn af at blive suppleret med solide vejledende principper af etisk karakter; påpeger, at der bør anvendes en blød lovgivningsmæssig ramme, hvis det er for tidligt at vedtage retsakter; |
9. |
forventer, at Kommissionen indarbejder en stærk etisk tilgang i det lovgivningsforslag, der anmodes om i bilaget til denne beslutning som opfølgning på hvidbogen om kunstig intelligens, herunder om sikkerhed, ansvar og grundlæggende rettigheder, med henblik på at maksimere mulighederne og minimere risiciene ved AI-teknologier; forventer, at det lovgivningsforslag, der anmodes om, vil omfatte politiske løsninger på de største anerkendte risici ved kunstig intelligens, herunder bl.a. om etisk indsamling og brug af big data samt spørgsmålet om algoritmisk gennemsigtighed og algoritmisk forudindtagethed; opfordrer Kommissionen til at udvikle kriterier og indikatorer for mærkning af AI-teknologi med henblik på at fremme gennemsigtighed, forklarlighed og ansvarlighed og tilskynde udviklere til at træffe ekstra forholdsregler; understreger behovet for at investere i integrering af ikke-tekniske discipliner i AI-studier og -forskning under hensyntagen til den sociale kontekst; |
10. |
mener, at kunstig intelligens, robotteknologi og relaterede teknologier skal skræddersys til menneskelige behov i overensstemmelse med princippet om, at deres udvikling, udbredelse og anvendelse altid bør være til gavn for mennesker og aldrig omvendt, og at de bør søge at øge trivslen og den individuelle frihed samt bevare freden, forebygge konflikter og styrke den internationale sikkerhed og samtidig maksimere de fordele, der tilbydes, og forebygge og mindske risiciene; |
11. |
erklærer, at udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder, men ikke udelukkende foretaget af mennesker, altid bør følge etiske retningslinjer og være udarbejdet til at respektere og give mulighede for menneskelig indgriben og demokratisk kontrol, når det er nødvendigt, gennem implementering af tilstrækkelige kontrolforanstaltninger; |
Risikovurdering
12. |
understreger, at enhver fremtidig regulering bør følge en differentieret og fremtidsorienteret risikobaseret tilgang til regulering af kunstig intelligens, robotteknologi og relaterede teknologier, herunder teknologineutrale standarder for alle sektorer, med sektorspecifikke standarder, hvor det er relevant; bemærker, at der er behov for en udtømmende og kumulativ liste over højrisikosektorer og højrisikoanvendelser eller -formål for at sikre en ensartet gennemførelse af systemet med risikovurdering, og at de tilknyttede retlige forpligtelser overholdes for at sikre lige vilkår mellem medlemsstaterne og forhindre fragmentering af det indre marked; understreger, at en sådan liste skal evalueres med jævne mellemrum, og bemærker, at det i betragtning af den vekslende karakter af disse teknologier kan være nødvendigt at tage den måde, hvorpå deres risikovurdering foretages, op til fornyet overvejelse i fremtiden; |
13. |
mener, at fastlæggelsen af, hvorvidt kunstig intelligens, robotteknologi og relaterede teknologier bør anses for at være højrisikobetonede og dermed skal være underlagt obligatorisk overholdelse af retlige forpligtelser og etiske principper som fastlagt i den lovgivningsmæssige ramme for AI, altid bør følge af en upartisk, reguleret og ekstern forhåndsvurdering baseret på konkrete og fastlagte kriterier; |
14. |
mener i den forbindelse, at kunstig intelligens, robotteknologi og relaterede teknologier bør betragtes som højrisikobetonede, hvis deres udvikling, udbredelse og anvendelse indebærer en betydelig risiko for kvæstelser eller anden skade på enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten; mener, at den sektor, hvor de udvikles, udbredes eller anvendes, deres specifikke anvendelse eller formål samt alvoren af de kvæstelser eller den skade, der kan forventes at forekomme, bør tages i betragtning for at vurdere, om AI-teknologier indebærer en sådan risiko; det første og andet kriterium, nemlig sektoren og den specifikke anvendelse eller formålet, bør betragtes samlet; |
15. |
understreger, at risikovurderingen af disse teknologier bør foretages på grundlag af en udtømmende og kumulativ liste over højrisikosektorer og højrisikoanvendelser og -formål; er stærkt overbevist om, at der bør være sammenhæng inden for Unionen for så vidt angår risikovurderingen af disse teknologier, navnlig hvis de vurderes både på baggrund af deres overensstemmelse med den lovgivningsmæssige ramme for AI og i overensstemmelse med enhver anden gældende sektorspecifik lovgivning. |
16. |
mener, at denne risikobaserede tilgang bør udarbejdes på en måde, der begrænser den administrative byrde for virksomheder, særligt for SMV'er, mest muligt ved at anvende eksisterende værktøjer; sådanne værktøjer omfatter, men er ikke begrænset til, den i forordning (EU) 2016/679 omhandlede liste over konsekvensanalyser vedrørende databeskyttelse; |
Sikkerhedsaspekter, gennemsigtighed og ansvarlighed
17. |
minder om, at forbrugeres ret til information er forankret som et nøgleprincip i EU-retten og understreger, at dette derfor bør implementeres fuldt ud i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier; mener, at det navnlig bør omfatte gennemsigtighed med hensyn til interaktion med systemer for kunstig intelligens, herunder automatisering, og med hensyn til deres funktionsmåde og kapacitet, f.eks. hvordan information filtreres og præsenteres, samt deres nøjagtighed og begrænsninger; mener, at sådanne oplysninger bør gives til de nationale tilsynsmyndigheder og de nationale forbrugerbeskyttelsesmyndigheder; |
18. |
understreger, at forbrugernes tillid er afgørende for udviklingen og implementeringen af disse teknologier, som kan være forbundet med iboende risici, når de er baseret på uigennemskuelige algoritmer og forudindtagede datasæt; mener, at forbrugerne bør have ret til at blive tilstrækkeligt informeret på en forståelig, rettidig, standardiseret, præcis og tilgængelig måde om algoritmiske systemers eksistens, hvordan de tænker, mulige output og følger for forbrugerne samt om, hvordan man kan få fat i en person med beslutningsbeføjelser, og hvordan systemets afgørelser kan kontrolleres, bestrides på meningsfuld vis og korrigeres; understreger i denne forbindelse, at det er nødvendigt at tage hensyn til og respektere de principper om information og offentliggørelse, som forbrugerlovgivningen er bygget på; mener, at det er nødvendigt at give slutbrugerne detaljerede oplysninger om driften af transportsystemer og AI-baserede køretøjer; |
19. |
bemærker, at det er af afgørende betydning, at de algoritmer og datasæt, der anvendes eller fremstilles af kunstig intelligens, robotteknologi og relaterede teknologier, kan forklares og — hvor det er strengt nødvendigt, og under fuld overholdelse af EU-lovgivningen om databeskyttelse, privatlivets fred og intellektuelle ejendomsrettigheder og forretningshemmeligheder — er tilgængelige for offentlige myndigheder såsom nationale tilsynsmyndigheder og markedsovervågningsmyndigheder; bemærker endvidere, at der i overensstemmelse med de højest mulige og gældende branchestandarder bør opbevares dokumentation hos dem, der er involveret i de forskellige faser af udviklingen af højrisikoteknologier; bemærker, at markedsovervågningsmyndigheder kan have yderligere beføjelser i denne henseende; understreger den rolle lovlig reverse-engineering spiller i denne kontekst; mener, at det kan være nødvendigt med en undersøgelse af den gældende lovgivning om markedsovervågning for at sikre, at den på en etisk forsvarlig måde kan håndtere den stigende anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier; |
20. |
opfordrer til, at der stilles krav om, at udviklere og udbydere af højrisikoteknologier skal forsyne offentlige myndigheder med relevant dokumentation om deres brugs- og design- og sikkerhedsinstrukser, hvis en risikovurdering taler derfor, herunder, når det er strengt nødvendigt og under fuld overholdelse af EU-lovgivningen om databeskyttelse, privatlivets fred, intellektuelle ejendomsrettigheder og forretningshemmeligheder, kildekode, udviklingsværktøjer og data anvendt af systemet; bemærker, at en sådan forpligtelse vil gøre det muligt at vurdere, om de overholder EU-retten og de etiske principper, og bemærker i denne forbindelse eksemplet med et nationalbiblioteks pligtaflevering af publikationer; bemærker den vigtige skelnen mellem gennemsigtighed af algoritmer og gennemsigtighed i brugen af algoritmer; |
21. |
bemærker endvidere, at der for at respektere den menneskelige værdighed, autonomi og sikkerhed bør tages behørigt hensyn til vitale og avancerede medicinske apparater og behovet for, at uafhængige betroede myndigheder bevarer de midler, der er nødvendige for at yde tjenesteydelser til personer, der bærer disse apparater, hvis den oprindelige udvikler eller udbreder ikke længere yder dem; for eksempel: sådanne tjenester omfatter vedligeholdelse, reparation og forbedringer, herunder softwareopdateringer, der afhjælper fejl og mangler. |
22. |
fastholder, at kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, uanset på hvilket felt de udvikles, udbredes og anvendes, som standard bør designes på en sikker, sporbar, teknisk robust, pålidelig, etisk og juridisk bindende måde og være underlagt uafhængig kontrol og uafhængigt tilsyn; mener især, at alle deltagere i udviklings- og forsyningskæderne i forbindelse med produkter og tjenester forbundet med kunstig intelligens, skal være juridisk ansvarlige, og understreger, at der er brug for mekanismer til at sikre ansvar og ansvarlighed; |
23. |
understreger, at der skal være regulering og retningslinjer vedrørende forklarlighed, mulighed for revision, sporbarhed og gennemsigtighed samt, hvor det er påkrævet på grund af en risikovurdering og strengt nødvendigt og under fuld overholdelse af EU-retten om bl.a. databeskyttelse, privatlivets fred, intellektuelle ejendomsrettigheder og forretningshemmeligheder, da adgang for offentlige myndigheder til teknologier, data og computersystemer, der ligger til grund for sådanne teknologier, er afgørende for at sikre borgernes tillid til disse teknologier, selv om graden af forklarlighed er afhængig af teknologiernes kompleksitet; påpeger, at det ikke altid er muligt at forklare, hvorfor en model har ført til et bestemt resultat eller en bestemt afgørelse, som det er tilfældet med black box-algoritmer; mener derfor, at respekten for disse principper er en forudsætning for at kunne garantere ansvarlighed; |
24. |
mener, at borgere, herunder forbrugere, hvis de interagerer med et system, der anvender kunstig intelligens, navnlig til at personliggøre et produkt eller en tjeneste over for brugeren, bør informeres om, hvorvidt og hvordan en sådan personliggørelse kan slås fra eller begrænses; |
25. |
påpeger i denne sammenhæng, at kunstig intelligens, robotteknologi og relaterede teknologier bør være teknisk robuste og præcise, hvis de skal være pålidelige. |
26. |
understreger, at det er vigtigt at beskytte netværk af indbyrdes forbundne AI- og robotteknologier, at der skal træffes vigtige og stærke foranstaltninger for at forhindre sikkerhedsbrud, dataudslip, dataforgiftning, cyberangreb og misbrug af personoplysninger, og at dette vil kræve, at de relevante agenturer, organer og institutioner på såvel europæisk som nationalt plan samarbejder indbyrdes og med slutbrugerne af disse teknologier; opfordrer Kommissionen og medlemsstaterne til at sikre, at Unionens værdier og respekten for grundlæggende rettigheder til enhver tid iagttages, når der udvikles og indføres AI-teknologi med henblik på at sikre Unionens digitale infrastrukturs sikkerhed og modstandsdygtighed; |
Ikke-forudindtagethed og ikke-forskelsbehandling
27. |
minder om, at kunstig intelligens, afhængigt af hvordan den udvikles og anvendes, har potentiale til at skabe og styrke forudindtagethed, herunder gennem en forudindtagethed, der er indbygget i de underliggende datasæt, og dermed skabe forskellige former for automatiseret forskelsbehandling, herunder indirekte forskelsbehandling, navnlig af særlige grupper af personer med beslægtede karakteristika; opfordrer Kommissionen og medlemsstaterne til at træffe alle mulige foranstaltninger for at undgå en sådan forudindtagethed og sikre fuld beskyttelse af de grundlæggende rettigheder; |
28. |
er bekymret over risikoen for forudindtagethed og forskelsbehandling i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier; minder om, at de under alle omstændigheder skal overholde EU-retten samt alle menneskerettigheder og respektere den menneskelige værdighed, selvstændighed og uafhængighed og sikre ligebehandling af alle uden forskelsbehandling; |
29. |
understreger, at AI-teknologier bør være designet til at respektere, tjene og beskytte Unionens værdier og fysiske og mentale integritet, fremme Unionens kulturelle og sproglige mangfoldighed og bidrage til at opfylde essentielle behov; understreger nødvendigheden af at undgå enhver anvendelse, der kan føre til uacceptabel direkte eller indirekte tvang, true med at undergrave den psykologiske autonomi og det mentale helbred eller føre til uberettiget overvågning, vildledning eller uacceptabel manipulation; |
30. |
er af den faste overbevisning, at de grundlæggende menneskerettigheder, der er nedfældet i chartret, nøje bør respekteres for at sikre, at disse fremspirende teknologier ikke skaber mangler med hensyn til beskyttelse; |
31. |
bekræfter, at eventuel forudindtagethed og forskelsbehandling i software, algoritmer og data kan forårsage åbenbar skade på individer og på samfundet, og at de derfor bør imødegås ved at opfordre til udvikling og deling af strategier som modvirker disse, f.eks. datasæt, der modvirker forudindtagethed inden for forskning og udvikling, og udvikling af regler for databehandling; mener, at denne tilgang potentielt kan gøre software, algoritmer og data til et aktiv i bekæmpelsen af forudindtagethed og forskelsbehandling i visse situationer og en drivkraft for lige rettigheder og positiv social forandring; |
32. |
fastholder, at de etiske værdier retfærdighed, nøjagtighed, fortrolighed og gennemsigtighed bør ligge til grund for disse teknologier, hvilket i denne sammenhæng betyder, at de skal operere på en måde, så de ikke genererer forudindtagede resultater; |
33. |
understreger vigtigheden af kvaliteten af de datasæt, der anvendes i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier, afhængigt af deres kontekst, særligt hvad angår den repræsentative karakter af de anvendte læringsdata, af datasæt, der modvirker forudindtagethed, af de anvendte algoritmer og af data- og aggregeringsstandarder; understreger, at disse datasæt bør kunne revideres af de kompetente tilsynsmyndigheder, når de anmodes om at sikre deres overensstemmelse med de tidligere nævnte principper; |
34. |
fremhæver, at AI-teknologier i forbindelse med den udbredte desinformationskrig, der især drives af ikke-europæiske aktører, kan have etisk negative virkninger ved at udnytte forudindtagethed i data og algoritmer eller ved bevidst at ændre læringsdata fra et tredjeland, og at de også risikerer at blive udsat for andre former for farlig, ondsindet manipulation på uforudsigelige måder og med uoverskuelige konsekvenser; der er derfor et stigende behov for, at Unionen fortsætter med at investere i forskning, analyse, innovation og overførsel af viden på tværs af grænser og sektorer med henblik på at udvikle AI-teknologier, som tydeligt vil være uden nogen form for profilering, forudindtagethed og forskelsbehandling, og som effektivt kan bidrage til at bekæmpe falske nyheder og desinformation og samtidig respektere databeskyttelse og Unionens lovgivningsmæssige rammer; |
35. |
minder om, at det er vigtigt at sikre, at individer har adgang til effektive retsmidler, og opfordrer medlemsstaterne til at sikre, at der er tilgængelige, økonomisk overkommelige, uafhængige og effektive procedurer og gennemgangsmekanismer til rådighed for at sikre en upartisk menneskelig gennemgang af alle påstande om krænkelser af borgeres rettigheder som f.eks. forbrugerrettigheder eller borgerlige rettigheder gennem brug af algoritmiske systemer, hvad enten de kan tilskrives aktører i den offentlige eller den private sektor; understreger vigtigheden af udkastet til Europa-Parlamentets og Rådets direktiv om adgang til indbringelse af sager til varetagelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF, som der blev nået politisk enighed om den 22. juni 2020, for så vidt angår fremtidige sager, hvor der gøres indsigelse mod indførelse eller igangværende anvendelse af et AI-system, der indebærer en risiko for krænkelse af forbrugernes rettigheder, eller for at rette op på en krænkelse af rettigheder; anmoder Kommissionen og medlemsstaterne om at sikre, at nationale og europæiske forbrugerorganisationer har tilstrækkelige midler til at hjælpe forbrugerne med at udøve deres ret til adgang til retsmidler i tilfælde, hvor deres rettigheder er blevet krænket; |
36. |
mener derfor, at enhver fysisk eller juridisk person skal kunne søge erstatning i forbindelse med en afgørelse, der er truffet med brug af kunstig intelligens, robotteknologi eller relateret teknologi, til skade for vedkommende og i strid med EU-retten eller national ret; |
37. |
mener, at de nationale tilsynsmyndigheder som et første kontaktpunkt i tilfælde af formodede overtrædelser af Unionens lovgivningsmæssige ramme i denne forbindelse ligeledes bør kunne modtage henvendelser fra forbrugere med anmodninger om erstatning med henblik på at sikre en effektiv håndhævelse af ovennævnte ramme; |
Social ansvarlighed og ligestilling mellem kønnene
38. |
understreger, at socialt ansvarlig kunstig intelligens, robotteknologi og relaterede teknologier spiller en rolle med hensyn til at bidrage til at finde løsninger, der sikrer og fremmer grundlæggende rettigheder og værdier i vores samfund såsom demokrati, retsstatsprincippet, forskelligartede og uafhængige medier og objektive og frit tilgængelige oplysninger, sundhed og økonomisk velstand, lige muligheder, arbejdstagerrettigheder og sociale rettigheder, uddannelse af høj kvalitet, beskyttelse af børn, kulturel og sproglig mangfoldighed, ligestilling mellem kønnene, digitale færdigheder, innovation og kreativitet; understreger, at det er nødvendigt at sikre, at der tages tilstrækkeligt hensyn til alle borgeres interesser, også interesser hos personer, der er marginaliserede eller i sårbare situationer såsom personer med handicap, og at disse interesser bliver repræsenteret; |
39. |
understreger, at det er vigtigt at opnå et højt niveau af generelle digitale færdigheder og at uddanne velkvalificerede fagfolk på dette område og sikre gensidig anerkendelse af sådanne kvalifikationer i hele Unionen; understreger, at der er behov for at have forskellige hold af udviklere og ingeniører, der arbejder sammen med samfundets hovedaktører for at forebygge, at kønsskævheder og kulturelle fordomme utilsigtet bliver inkluderet i AI-algoritmer, -systemer og -applikationer; bakker op om udviklingen af undervisningsplaner og oplysningskampagner om de samfundsmæssige, juridiske og etiske konsekvenser af kunstig intelligens; |
40. |
understreger den afgørende betydning af at garantere tanke- og ytringsfriheden, men sikre, at disse teknologier ikke fremmer hadefuld tale eller vold; anser det således for ulovligt at forhindre eller begrænse udøvelsen af ytringsfrihed digitalt i overensstemmelse med Unionens grundlæggende principper, medmindre udøvelsen af denne grundlæggende ret indebærer ulovlige handlinger; |
41. |
understreger, at kunstig intelligens, robotteknologi og relaterede teknologier kan bidrage til at mindske sociale uligheder og gør gældende, at den europæiske udviklingsmodel skal være baseret på borgernes tillid og større social samhørighed; |
42. |
understreger, at udbredelsen af enhver form for systemer baseret på kunstig intelligens ikke unødigt må begrænse brugernes adgang til offentlige tjenester som f.eks. social sikring; opfordrer derfor Kommissionen til at vurdere, hvordan dette mål kan nås; |
43. |
understreger vigtigheden af ansvarlig forskning og udvikling med henblik på at maksimere det fulde potentiale, der ligger inden for kunstig intelligens, robotteknologi og relaterede teknologier til fordel for borgere og offentligheden; opfordrer Unionen og medlemsstaterne til at mobilisere ressourcer med henblik på udvikling og understøttelse af ansvarlig innovation; |
44. |
understreger, at teknologiske kvalifikationer bliver stadig vigtigere, og at det derfor er nødvendigt løbende at ajourføre uddannelsesudbuddet, specielt for de kommende generationer, og fremme omskolingen af allerede erhvervsaktive personer; fastholder i denne forbindelse, at innovation og uddannelse må fremmes, ikke kun i den private sektor, men også i den offentlige; |
45. |
insisterer på, at udvikling, udbredelse og anvendelse af disse teknologier ikke må forvolde kvæstelser eller skade af nogen art for enkeltpersoner, samfundet eller miljøet, og at udviklere, udbredere og brugere af disse teknologier derfor bør holdes ansvarlige for disse kvæstelser eller denne skade i overensstemmelse med de relevante EU-regler og nationale regler om erstatningsansvar; |
46. |
opfordrer medlemsstaterne til at vurdere, om tab af arbejdspladser som følge af anvendelsen af disse teknologier bør føre til passende offentlige politikker såsom en nedsættelse af arbejdstiden; |
47. |
fastholder, at en designtilgang baseret på Unionens værdier og etiske principper er stærkt påkrævet for at skabe betingelserne for udbredt social accept af kunstig intelligens, robotteknologi og relaterede teknologier; mener, at denne tilgang, der sigter mod at udvikle pålidelig, etisk forsvarlig og teknisk robust kunstig intelligens er en vigtig katalysator for bæredygtig og intelligent mobilitet, der er sikker og tilgængelig; |
48. |
henleder opmærksomheden på den store merværdi, som selvkørende biler giver personer med nedsat bevægelighed, fordi sådanne biler giver dem mulighed for at deltage mere effektivt i den individuelle vejtransport og dermed letter deres dagligdag; understreger betydningen af tilgængelighed, især i forbindelse med udformningen af MaaS-systemer (mobilitet som en tjenesteydelse); |
49. |
opfordrer Kommissionen til yderligere at støtte udviklingen af pålidelige AI-systemer for at gøre transport sikrere, mere effektiv, tilgængelig, prismæssigt overkommelig og inklusiv, herunder for personer med nedsat mobilitet, navnlig personer med handicap, idet der tages hensyn til Europa-Parlamentets og Rådets direktiv (EU) 2019/882 om passagerers rettigheder (13); |
50. |
mener, at AI kan bidrage til en bedre udnyttelse af handicappedes færdigheder og kompetencer, og at anvendelsen af AI på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og højere beskæftigelsesfrekvenser for personer med handicap; |
Miljø og bæredygtighed
51. |
fastslår, at kunstig intelligens, robotteknologi og relaterede teknologier bør anvendes af regeringer og virksomheder til gavn for befolkningen og planeten, bidrage til opnåelse af bæredygtig udvikling, miljøbeskyttelse, klimaneutralitet og mål for den cirkulære økonomi; mener, at udviklingen, udbredelsen og anvendelsen af disse teknologier bør bidrage til den grønne omstilling, være miljøvenlig og minimere og udligne eventuelle skader på miljøet i løbet af deres livscyklus og i hele deres forsyningskæde i overensstemmelse med EU-retten; |
52. |
i betragtning af den betydelige indvirkning på miljøet, jf. foregående stykke, kan den miljømæssige virkning af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, hvor det er relevant og hensigtsmæssigt, vurderes over hele deres levetid af sektorspecifikke myndigheder; en sådan vurdering kan omfatte et skøn over virkningerne af udvindingen af de nødvendige materialer og det energiforbrug og de drivhusgasemissioner, der er forårsaget af deres udvikling, udbredelse og anvendelse; |
53. |
foreslår, for at få udviklet ansvarlige og banebrydende løsninger med kunstig intelligens, at det potentiale, der ligger i kunstig intelligens, robotteknologi og relaterede teknologier bør udforskes, stimuleres og maksimeres gennem ansvarlig forskning og innovation, der kræver mobilisering af ressourcer fra Unionen og medlemsstaterne; |
54. |
fremhæver, at udviklingen, udbredelsen og anvendelsen af disse teknologier giver muligheder for at fremme verdensmålene for bæredygtig udvikling, som er fastsat af FN, global energiomstilling og dekarbonisering; |
55. |
mener, at målene om social ansvarlighed, kønsligestilling, miljøbeskyttelse og bæredygtighed skal være med forbehold for eksisterende generelle og sektionsrelevante forpligtelser inden for disse områder; mener, at der bør fastsættes ikke-bindende gennemførelsesretningslinjer for udviklere, udbredere og brugere, navnlig for så vidt angår højrisikoteknologier, for så vidt angår metoden til vurdering af deres overholdelse af denne forordning og opnåelsen af disse mål; |
56. |
opfordrer Unionen til at fremme og finansiere udviklingen af menneskecentreret kunstig intelligens, robotteknologi og relaterede teknologier, som beskæftiger sig med miljø- og klimamæssige udfordringer, og som sikrer overholdelse af grundlæggende rettigheder gennem brugen af afgifter, udbud og andre incitamenter; |
57. |
understreger, at udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder automatiserede afgørelser og maskinlæring, på trods af det nuværende høje CO2-fodaftryk godt kan bidrage til at mindske IKT-sektorens nuværende miljøaftryk; understreger, at disse og andre behørigt regulerede teknologier bør være vigtige katalysatorer for opfyldelse af målene i den grønne pagt, FN's verdensmål for bæredygtig udvikling og Parisaftalen inden for mange forskellige sektorer og bør fremme virkningerne af politikker, der sikrer miljøbeskyttelse, f.eks. politikker vedrørende affaldsreduktion og miljøforringelse; |
58. |
opfordrer Kommissionen til at foretage en undersøgelse af indvirkningen fra AI-teknologiers CO2-fodaftryk og de positive og negative virkninger af forbrugernes omstilling til brug af AI-teknologi; |
59. |
bemærker, at der bør ses på AI-systemers miljømæssige konsekvenser gennem hele deres livscyklus i betragtning af den stigende udvikling af AI-applikationer, som kræver ressourcer til beregning, lagring og energiforbrug; |
60. |
mener, at ansvaret på bl.a. sundhedsområdet i sidste instans skal påhvile en fysisk eller juridisk person; fremhæver behovet for sporbare og offentligt tilgængelige indlæringsdata til algoritmer; |
61. |
støtter kraftigt Kommissionens forslag i sin meddelelse om en europæisk strategi for data om at oprette et europæisk sundhedsdataområde, der har til formål at fremme udveksling af sundhedsdata og støtte forskning under fuld hensyntagen til databeskyttelsen, bl.a. i forbindelse med behandling af data ved hjælp af AI-teknologi, og som styrker og udbreder anvendelsen og genanvendelsen af sundhedsdata; opfordrer til at opskalere den grænseoverskridende udveksling af sundhedsdata, og brugen af sådanne date og specifikke former for sundhedsoplysninger såsom elektroniske patientjournaler (EPJ'er), genominformationer og digitale diagnostiske billeder ved brug af sikre og forbundne registre for at fremme udbredelsen af interoperable registre eller databaser inden for bl.a. forsknings-, videnskabs- og sundhedssektorer i hele Unionen; |
62. |
fremhæver fordelene ved AI i forbindelse med forebyggelse, behandling og bekæmpelse af sygdomme, hvilket illustreres ved, at AI varslede covid-19-epidemien før WHO; opfordrer indtrængende Kommissionen til at udstyre ECDC tilstrækkeligt med retlige rammer og ressourcer til uafhængigt og sammen med medlemsstaterne at indsamle de nødvendige anonymiserede overordnede sundhedsoplysninger i realtid, blandt andet for at løse nogle af de problemer, der kom frem i lyset under covid-19-krisen; |
Privatlivets fred og biometrisk genkendelse
63. |
bemærker, at datafremstilling og -brug, herunder personoplysninger såsom biometriske data, der er resultatet af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, er hastigt stigende, hvilket understreger behovet for at respektere borgernes ret til privatlivets fred og beskyttelse af personoplysninger i overensstemmelse med EU-retten; |
64. |
påpeger, at den mulighed, som disse teknologier giver for at anvende data af personlig og ikkepersonlig karakter til at kategorisere personer og mikromålrette indhold til dem, identificere enkeltpersoners sårbarheder eller udnytte præcis, forudsigelsesbaseret viden om dem, skal modvejes af effektiv håndhævelse af principperne om data- og privatlivsbeskyttelse, herunder princippet om dataminimering, retten til at gøre indsigelse mod profilering og til at have kontrol over egne data, retten til at få en forklaring på en afgørelse baseret på automatiseret behandling og databeskyttelse gennem design samt principperne om proportionalitet, nødvendighed og begrænsning i forhold til et præcist defineret formål i overensstemmelse med den generelle forordning om databeskyttelse; |
65. |
understreger, at anvendelse af fjerngenkendelsesteknologier, f.eks. genkendelse af biometriske træk, særligt ansigtsgenkendelse, fra offentlige myndigheders side til væsentlige formål af almen interesse altid bør være åbenlys, forholdsmæssig, målrettet og begrænset til specifikke mål, tidsbegrænset og udført i henhold til EU-retten og tage behørigt hensyn til den menneskelige værdighed og selvstændighed samt de grundlæggende rettigheder som fastsat i chartret; mener, at kriterierne og begrænsningerne for den pågældende anvendelse bør underlagt domstolskontrol og demokratisk kontrol og skal tage hensyn til den psykologiske og sociokulturelle indvirkning på civilsamfundet. |
66. |
påpeger, at anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i forbindelse med myndighedsbeslutninger ganske vist har fordele, men at den kan resultere i betydeligt misbrug, f.eks. masseovervågning, forudsigende politiarbejde og krænkelser af retten til en retfærdig rettergang; |
67. |
mener, at teknologier, der kan træffe automatiserede afgørelser, der således erstatter afgørelser truffet af offentlige myndigheder, skal håndteres med størst mulig forsigtighed, inden for retspleje og retshåndhævelse; |
68. |
mener, at medlemsstater kun bør anvende sådanne teknologier, hvis der er tilstrækkelig evidens af disses pålidelighed, og hvis der er mulighed for menneskelig indgriben eller verificering eller systematisk verificering, hvis der er tale om grundlæggende frihedsrettigheder; understreger vigtigheden af, at nationale myndigheder udfører en streng konsekvensanalyse for grundlæggende rettigheder i forbindelse med systemer baseret på kunstig intelligens, der anvendes i disse sager, navnlig i tilfælde, hvor disse teknologier vurderes som højrisikobetonede; |
69. |
har den holdning, at enhver afgørelse, der træffes af kunstig intelligens, robotteknologi eller relaterede teknologier i offentlige myndigheders regi, skal give mulighed for meningsfuld menneskelig indgriben og retfærdig proces, navnlig i tilfælde, hvor disse teknologier vurderes som højrisikobetonede; |
70. |
mener, at den teknologiske udvikling ikke bør føre til, at der anvendes kunstig intelligens, robotteknologi og relaterede teknologier til selvstændigt at træffe afgørelser i den offentlige sektor, som har en direkte og væsentlig indvirkning på borgernes rettigheder og pligter; |
71. |
bemærker, at AI, robotteknologi og relaterede teknologier inden for retshåndhævelse og grænsekontrol kan øge den offentlige sikkerhed, men også kræver omfattende og streng offentlig kontrol og den størst mulige grad af gennemsigtighed med hensyn til såvel risikovurderingen af individuelle applikationer som den generelle anvendelse af AI, robotteknologi og relaterede teknologier på området for retshåndhævelse og grænsekontrol; mener, at disse teknologier er forbundet med betydelige etiske risici, der skal imødegås på passende vis under hensyntagen til de mulige negative konsekvenser for enkeltpersoner, navnlig for deres ret til privatlivets fred, databeskyttelse og ikke-forskelsbehandling; understreger, at misbrug af disse teknologier kan blive en direkte trussel mod demokratiet, og at indførelsen og anvendelsen heraf skal overholde principperne om proportionalitet og nødvendighed, chartret om grundlæggende rettigheder samt den relevante afledte EU-ret, såsom databeskyttelsesregler; understreger, at AI aldrig bør erstatte mennesker i afsigelse af domme; mener, at afgørelser om eksempelvis løsladelse mod kaution eller prøveløsladelse med afhøring i en retssal eller afgørelser, der udelukkende er baseret på automatisk behandling og som har retsvirkning for enkeltpersoner eller berører dem i væsentlig grad, altid skal omfatte en meningsfuld vurdering og bedømmelse foretaget af et menneske; |
God forvaltningspraksis
72. |
understreger, at hensigtsmæssig forvaltning af udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, navnlig højrisikoteknologier, gennem indførelse af foranstaltninger med fokus på ansvarlighed og håndtering af potentielle risici for forudindtagethed og forskelsbehandling, kan øge borgernes sikkerhed og tillid til disse teknologier; |
73. |
mener, at en fælles ramme til styring af disse teknologier, som koordineres af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer eller -agenturer, der måtte være udpeget til denne opgave i det konkrete tilfælde, og som skal gennemføres af nationale tilsynsmyndigheder i den enkelte medlemsstat, ville sikre en sammenhængende EU-tilgang og forhindre fragmentering af det indre marked; |
74. |
bemærker, at der anvendes data i store mængder inden for udvikling af kunstig intelligens, robotteknologi og relaterede teknologier, og at behandling, deling af, adgang til og brug af sådanne data skal ske i overensstemmelse med loven og de krav om kvalitet, integritet, interoperabilitet, gennemsigtighed, sikkerhed, privatlivets fred og kontrol, som er fastsat deri; |
75. |
minder om, at adgang til data er en vigtig komponent i den digitale økonomis vækst; påpeger i denne sammenhæng, at datainteroperabilitet ved at begrænse lock-in-effekter, spiller en vigtig rolle, hvis man vil sikre retfærdige markedsbetingelser og fremme et retfærdigt digitalt indre marked; |
76. |
understreger, at der er behov for at sikre, at persondata beskyttes tilstrækkeligt, særligt data, der omhandler eller tilhører sårbare grupper såsom personer med handicap, patienter, børn, ældre, minoriteter, migranter og andre grupper, der er i risiko for eksklusion; |
77. |
bemærker, at offentlige myndigheders udvikling, udbredelse og brug af kunstig intelligens, robotteknologi og relaterede teknologier ofte outsources til private parter; mener, at dette ikke bør kompromittere beskyttelsen af offentlige værdier og grundlæggende rettigheder på nogen måde; mener, at vilkår og betingelser for offentlige udbud bør afspejle de etiske standarder, der pålægges offentlige myndigheder, hvor dette er relevant; |
Forbrugere og det indre marked
78. |
understreger, at det er vigtigt, at en lovgivningsmæssig ramme for AI finder anvendelse, når forbrugere i Unionen er brugere af, bliver genstand for, underlagt, udsat for eller styret mod et algoritmisk system, uanset hvor de enheder, der udvikler, sælger eller anvender systemet, er etableret; mener desuden, at de fastsatte regler i en sådan ramme af hensyn til retssikkerheden bør finde anvendelse på alle udviklere og i hele værdikæden, nemlig udvikling, udbredelse og anvendelse af de relevante teknologier og komponenter hertil, og bør garantere et højt niveau af forbrugerbeskyttelse; |
79. |
bemærker den iboende forbindelse mellem kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, og områder som tingenes internet, maskindlæring, regelbaserede systemer eller automatiserede og assisterede beslutningsprocesser; bemærker desuden, at der bør udvikles standardiserede ikoner til at forklare disse systemer for forbrugerne, når disse systemer er karakteriseret ved kompleksitet eller i stand til at træffe afgørelser, der har en betydelig indvirkning på forbrugernes liv; |
80. |
minder om, at Kommissionen bør undersøge den eksisterende lovgivningsmæssige ramme og dens anvendelse, herunder gældende forbrugerlovgivning, produktansvarslovgivning, produktsikkerhedslovgivning og markedsovervågningslovgivning med henblik på at identificere huller i lovgivningen samt eksisterende lovgivningsmæssige forpligtelser; mener, at dette er nødvendigt for at fastslå, om den er i stand til at reagere på de nye udfordringer, der opstår med fremkomsten af kunstig intelligens, robotteknologi og relaterede teknologier, og om den er i stand til at sikre et højt niveau af forbrugerbeskyttelse; |
81. |
understreger, at det er nødvendigt effektivt at tackle de udfordringer, som kunstig intelligens, robotteknologi og relaterede teknologier giver anledning til, og sikre, at forbrugerne får indflydelse og beskyttes behørigt; understreger, at det er nødvendigt at se ud over de traditionelle principper om information og offentliggørelse, som ligger til grund for forbrugerlovgivningen, da der vil være brug for stærkere forbrugerrettigheder og klare grænser for udviklingen og brugen af kunstig intelligens, robotteknologi og relaterede teknologier for at sikre, at teknologien bidrager til at forbedre forbrugernes liv og udvikler sig på en måde, der respekterer de grundlæggende rettigheder og forbrugerrettighederne samt Unionens værdier; |
82. |
påpeger, at det regelsæt, der blev indført med afgørelse nr. 768/2008/EF (14), fastsætter en harmoniseret liste over forpligtelser for producenter, importører og distributører, tilskynder til brug af standarder og fastsætter flere kontrolniveauer afhængigt af produktets farlighed; mener, at denne ramme også bør finde anvendelse på produkter med indbygget AI; |
83. |
bemærker, at adgang til data med henblik på at analysere virkningerne af kunstig intelligens, robotteknologi og relaterede teknologier på forbrugerne kan udvides til at omfatte nationale kompetente myndigheder, når dette sker under fuld overholdelse af EU-retten såsom den, der vedrører databeskyttelse, privatlivets fred og forretningshemmeligheder; minder om, at forbrugerne har brug for uddannelse for at kunne håndtere kunstig intelligens, robotteknologi og relaterede teknologier på en mere informeret og kvalificeret måde, for at beskytte dem mod potentielle risici og for at beskytte deres rettigheder; |
84. |
opfordrer Kommissionen til at foreslå foranstaltninger til sporbarhed af data under hensyntagen til både lovligheden af dataindsamling og beskyttelse af forbrugerrettigheder og grundlæggende rettigheder under fuld overholdelse af EU-retten såsom den, der vedrører databeskyttelse, privatlivets fred og forretningshemmeligheder; |
85. |
bemærker, at disse teknologier bør være brugercentrerede og udformet på en måde, der gør det muligt for alle at bruge AI-produkter eller -tjenesteydelser, uanset alder, køn, evner eller egenskaber; bemærker, at deres tilgængelighed for personer med handicap er af særlig betydning; bemærker, at der ikke bør anvendes en standardtilgang, og at der bør tages højde for principperne om design for alle, der henvender sig til den bredest mulige brugergruppe og følger relevante standarder for tilgængelighed; understreger, at dette vil gøre det muligt for den enkelte at få lige adgang til og deltage aktivt i eksisterende og nye computerformidlede menneskelige aktiviteter og hjælpeteknologier; |
86. |
understreger, at hvis midler fra offentlige kilder sammen med standarder for offentlige udbudsprocedurer og kontrakter betydeligt bidrager til udbredelse eller anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, kan det overvejes at lade koden, de genererede data — for så vidt som de ikke er personoplysninger — og den afprøvede model automatisk være offentligt tilgængelige som standard efter aftale med udvikleren for at sikre gennemsigtighed, øge cybersikkerheden og muliggøre genbrug for at fremme innovation; understreger, at det indre markeds fulde potentiale dermed kan udnyttes, uden at der opstår markedsfragmentering; |
87. |
mener, at AI, robotteknologi og relaterede teknologier har enormt potentiale til at skabe muligheder for, at forbrugere kan få adgang til en lang række faciliteter inden for mange aspekter af deres liv samt bedre varer og tjenesteydelser og få gavn af bedre markedsovervågning, så længe de gældende principper, betingelser, herunder gennemsigtighed og mulighed for revision, og forskrifter fortsat finder anvendelse; |
Sikkerhed og forsvar
88. |
fremhæver, at Den Europæiske Unions og dens medlemsstaters sikkerheds- og forsvarspolitik styres af principperne i chartret og af principperne i FN-pagten og af en fælles forståelse af de universelle værdier: respekt for det enkelte menneskes ukrænkelige og umistelige rettigheder, menneskelig værdighed samt frihed, demokrati, lighed og retsstaten; understreger, at alle forsvarsrelaterede bestræbelser inden for Unionens ramme skal respektere disse universelle værdier og samtidig fremme fred, sikkerhed og fremskridt i Europa og i verden; |
89. |
glæder sig over godkendelsen på 2019-mødet mellem høje kontraherende parter i FN's konvention om visse konventionelle våben (CCW) af 11 vejledende principper for udvikling og anvendelse af autonome våbensystemer; beklager imidlertid, at der ikke er opnået enighed om et juridisk bindende instrument til regulering af dødbringende automatvåben med en effektiv håndhævelsesmekanisme; glæder sig over og støtter Kommissionens rapport med titlen »Etiske retningslinjer for pålidelig kunstig intelligens« fra Kommissionens Ekspertgruppe på Højt Niveau om Kunstig Intelligens, der blev offentliggjort den 9. april 2019, og dens holdning til dødbringende autonome våbensystemer; opfordrer indtrængende medlemsstaterne til at udvikle nationale strategier for definition af og status for dødbringende autonome våbensystemer hen imod en omfattende strategi på EU-plan og til sammen med Unionens højtstående repræsentant/næstformanden i Kommissionen (»HR/NF«) og Rådet at fremme drøftelserne om dødbringende autonome våbensystemer i FN's CCW-ramme og andre relevante fora og indførelsen af internationale normer vedrørende de etiske og juridiske parametre for udvikling og anvendelse af fuld- og halvautonome og fjernstyrede dødbringende våbensystemer; minder i denne forbindelse om sin beslutning om autonome våbensystemer af 12. september 2018 og opfordrer endnu en gang til en hurtig udvikling og vedtagelse af en fælles holdning om dødbringende autonome våbensystemer, til et internationalt forbud mod udvikling, fremstilling og anvendelse af dødbringende autonome våbensystemer, der gør det muligt at udføre angreb uden meningsfuld menneskelig kontrol og uden respekt for princippet om menneskelig medvirken i overensstemmelse med erklæringen fra verdens mest fremtrædende AI-forskere i deres åbne brev fra 2015; glæder sig over, at Rådet og Parlamentet er blevet enige om at udelukke dødbringende autonome våben, »der ikke giver mulighed for en meningsfuld menneskelig kontrol over beslutningerne angående udvælgelse og angreb i forbindelse med gennemførelse af angreb« fra foranstaltninger, der finansieres under Den Europæiske Forsvarsfond; mener, at der ikke må ses bort fra etiske aspekter af AI-applikationer på forsvarsområdet, f.eks. efterretning, overvågning og rekognoscering eller cyberoperationer, og at der skal lægges særlig vægt på udvikling og anvendelse af droner i militære operationer; |
90. |
understreger, at nye teknologier inden for forsvars- og sikkerhedssektoren, som ikke er omfattet af folkeretten, bør vurderes under hensyntagen til princippet om respekt for menneskeheden og de offentlige samvittighedsbud; |
91. |
anbefaler, at enhver europæisk ramme, der regulerer anvendelsen af AI-baserede systemer inden for forsvaret, både i og uden for kamphandlinger, skal overholde alle gældende retlige ordninger, navnlig den humanitære folkeret og den internationale menneskerettighedslovgivning, og være i overensstemmelse med EU-retten og Unionens principper og værdier, under hensyntagen til forskellene i tekniske og sikkerhedsmæssige infrastrukturer i hele Unionen; |
92. |
anerkender, at kritiske AI-innovationer i modsætning til forsvarsindustrielle baser kunne komme fra små medlemsstater, og derfor bør en FSFP-standardiseret tilgang sikre, at mindre medlemsstater og SMV'er ikke fortrænges; understreger, at et sæt fælles EU-AI-kapaciteter, der matches med en medlemsstats driftskoncepter, kan afhjælpe de tekniske mangler, der kan efterlade stater uden den relevante teknologi, ekspertise inden for industrien eller evnen til at implementere AI-systemer i deres forsvarsministerier; |
93. |
mener, at nuværende og fremtidige sikkerheds- og forsvarsrelaterede aktiviteter inden for Unionens ramme vil trække på AI, robotteknologi og autonomi samt relaterede teknologier, og at pålidelig og robust kunstig intelligens kan bidrage til et moderne og effektivt militær; mener, at Unionen derfor må indtage en førende rolle inden for forskning i og udvikling af AI-systemer på sikkerheds- og forsvarsområdet; mener, at anvendelsen af AI-baserede sikkerheds- og forsvarsapplikationer kan give en række direkte fordele for den øverstbefalende for en operation, såsom indsamlede data af højere kvalitet, større situationskendskab, øget hastighed for beslutningstagning, reduceret risiko for indirekte skader takket være bedre kabelføring, beskyttelse af styrker på stedet samt større pålidelighed af militært udstyr og dermed reduceret risiko for mennesker og tab af menneskeliv; understreger, at udviklingen af pålidelig AI på forsvarsområdet er af afgørende betydning for at sikre europæisk strategisk uafhængighed inden for de kapacitetsmæssige og operationelle områder; minder om, at AI-systemer også er ved at blive centrale elementer i bekæmpelsen af nye sikkerhedstrusler såsom cyberkrigsførelse og hybrid krigsførelse, både i online- og offlinesfærer; understreger samtidig alle risici og udfordringer i forbindelse med ureguleret anvendelse af AI; bemærker, at AI kan blive udsat for manipulation, fejl og unøjagtigheder; |
94. |
understreger, at AI-teknologier i det væsentlige har dobbelt anvendelse, og at udviklingen af kunstig intelligens i forbindelse med forsvarsrelaterede aktiviteter drager fordel af udvekslinger mellem militære og civile teknologier; fremhæver, at AI i forbindelse med forsvarsrelaterede aktiviteter er en tværgående, disruptiv teknologi, hvis udvikling kan skabe muligheder for Unionens konkurrenceevne og strategiske autonomi; |
95. |
anerkender, at i en tid med hybrid og avanceret krigsførelse kan mængden og hastigheden af oplysninger under de tidlige faser af en krise være overvældende for menneskelige analytikere, og at et AI-system kan behandle oplysningerne for at sikre, at de menneskelige beslutningstagere følger det fulde spektrum af information inden for en passende tidsramme for en hurtig indsats; |
96. |
understreger betydningen af at investere i udvikling af menneskelig kapital til kunstig intelligens, fremme de nødvendige færdigheder og den nødvendige uddannelse inden for AI-teknologier på sikkerheds- og forsvarsområdet med særlig fokus på etik i forbindelse med halvautonome og autonome operationelle systemer, der er baseret på menneskelig ansvarlighed i en AI-baseret verden; understreger især, at det er vigtigt at sikre, at etikere på dette område har de rette kvalifikationer og modtager en passende uddannelse; opfordrer Kommissionen til snarest muligt at fremlægge sin »optrapning af dagsordenen for færdigheder«, der blev bebudet i hvidbogen om kunstig intelligens den 19. februar 2020; |
97. |
understreger, at kvantedatabehandling kan være den mest revolutionerende forandring i konflikter siden indførelsen af atomvåben, og opfordrer derfor indtrængende til, at den videre udvikling af kvantecomputerteknologier prioriteres højt af Unionen og medlemsstaterne; anerkender, at angrebshandlinger, herunder angreb på kritisk infrastruktur, hvortil der ydes kvantedatabehandling, vil skabe et konfliktmiljø, hvor fristen for at træffe beslutninger vil blive presset drastisk fra dage og timer til minutter og sekunder, hvilket vil tvinge medlemsstaterne til at udvikle kapaciteter, der beskytter sig selv, og uddanne både beslutningstagere og militært personale til at reagere effektivt inden for disse tidsrammer; |
98. |
opfordrer til øgede investeringer i europæisk AI på forsvarsområdet og i den kritiske infrastruktur, som understøtter det; |
99. |
minder om, at størstedelen af de nuværende militære magter på verdensplan allerede har været involveret i betydelige F&U-tiltag i forbindelse med den militære dimension af AI; mener, at Unionen må sørge for, at den ikke sakker agterud i denne henseende; |
100. |
opfordrer Kommissionen til at indarbejde kapacitetsopbygning inden for cybersikkerhed i sin industripolitik for at sikre udvikling og udbredelse af sikre, modstandsdygtige og robuste AI-baserede og robotteknologiske systemer; opfordrer Kommissionen til at undersøge brugen af blockchainbaserede cybersikkerhedsprotokoller og -applikationer for at forbedre modstandsdygtigheden, pålideligheden og robustheden ved samt tilliden til AI-infrastrukturer gennem ikkeregistrerede modeller for datakryptering; opfordrer europæiske interessenter til at forske i og udvikle avancerede funktioner, der kan lette afsløringen af korrupte og ondsindede AI-baserede og robotteknologiske systemer, som kan undergrave sikkerheden for Unionen og borgerne; |
101. |
understreger, at alle AI-systemer på forsvarsområdet skal have en konkret og veldefineret ramme for missionen, således at mennesker bevarer magten til at opdage og udskille eller deaktivere anvendte systemer, hvis de bevæger sig ud over den ramme for missionen, der er defineret og tildelt af en menneskelig øverstbefalende, eller foretager en eskalerende eller utilsigtet handling; mener, at systemer, produkter og teknologi, der er baseret på AI, og som er beregnet til militær anvendelse, bør forsynes med en »sort boks« til registrering af enhver datatransaktion udført af maskinen; |
102. |
understreger, at hele ansvaret for beslutningen om at udforme, udvikle, anvende og benytte AI-systemer skal påhvile menneskelige operatører, da der skal være en meningsfuld menneskelig overvågning og kontrol af ethvert våbensystem og menneskelig hensigt i beslutningen om at anvende magt i forbindelse med gennemførelsen af enhver afgørelse om AI-baserede våbensystemer, der kan have dødelige konsekvenser; understreger, at den menneskelige kontrol fortsat bør være effektiv til kommando over og kontrol af AI-baserede systemer, i overensstemmelse med principperne for menneskelig medvirken, menneskelig overvågning og menneskelig kontrol på det militære ledelsesniveau; understreger, at AI-baserede systemer skal give hæres militære lederskab mulighed for at påtage sig det fulde ansvar for brugen af dødbringende magtmidler og udøve den grad af vurdering, der er nødvendig for at begå dødbringende eller storstilede destruktive handlinger gennem sådanne systemer, og som ikke kan overlades til maskiner, da en sådan vurdering skal være baseret på sondring, proportionalitet og forsigtighed; understreger behovet for at etablere klare og sporbare tilladelses- og ansvarlighedsrammer for indførelsen af intelligente våben og andre AI-baserede systemer ved hjælp af unikke brugerkarakteristika såsom biometriske specifikationer, der udelukkende giver autoriseret personale mulighed for at anvende dem; |
Transport
103. |
fremhæver potentialet ved at anvende kunstig intelligens, robotteknologi og relaterede teknologier til alle selvkørende transportmidler til vej-, jernbane-, vandvejs- og lufttransport og også til at fremme trafikoverflytning og intermodalitet, eftersom sådanne teknologier kan bidrage til at finde den optimale kombination af transportformer til transport af gods og passagerer; understreger endvidere deres potentiale til at gøre transport, logistik og trafikstrømme mere effektive og gøre alle transportformer sikrere, mere intelligente og mere miljøvenlige; påpeger, at en etisk tilgang til AI også kan ses som et system for tidlig varsling, navnlig for så vidt angår transportsikkerhed og -effektivitet; |
104. |
fremhæver, at den globale konkurrence mellem virksomheder og økonomiske regioner betyder, at Unionen er nødt til at fremme investeringer og styrke transportvirksomheders internationale konkurrenceevne ved at skabe et gunstigt miljø for udvikling og anvendelse af AI-løsninger og andre innovationer, hvor EU-baserede virksomheder kan blive førende på verdensplan inden for udvikling af AI-teknologier; |
105. |
understreger, at Unionens transportsektor har behov for en ajourføring af den reguleringsmæssige ramme for sådanne fremspirende teknologier og anvendelsen heraf i transportsektoren og en klar etisk ramme for opnåelsen af pålidelig AI, der omfatter sikkerhed, respekt for den menneskelige autonomi, tilsyn og ansvarsspørgsmål, hvilket vil øge de fordele, der er fælles for alle, og være afgørende for at fremme investeringer i forskning og innovation, udvikling af færdigheder og udbredelse af AI i offentlige tjenesteydelser, SMV'er, nystartede virksomheder og andre virksomheder, idet der samtidig sikres databeskyttelse og interoperabilitet, uden at virksomheder og forbrugere pålægges unødige administrative byrder; |
106. |
bemærker, at udviklingen og indførelsen af AI i transportsektoren ikke er mulig uden en moderne infrastruktur, som er en vigtig del af intelligente transportsystemer; understreger, at de vedvarende forskelle i udviklingsniveauet mellem medlemsstaterne skaber en risiko for, at de mindst udviklede regioner og deres indbyggere ikke opnår de fordele, der følger af udviklingen af autonom mobilitet; opfordrer til, at moderniseringen af transportinfrastrukturen i Unionen, herunder integrationen heraf i 5G-netværket, finansieres tilstrækkeligt; |
107. |
henstiller, at der udvikles EU-dækkende etiske standarder for alle transportformer, herunder bilindustrien, vedrørende sikkerhed, teknisk robusthed, privatlivets fred og gennemsigtighed og for testning af AI-baserede køretøjer samt relaterede produkter og tjenesteydelser; |
108. |
bemærker, at AI-systemer kan bidrage til at reducere antallet af trafikdræbte markant, f.eks. gennem bedre reaktionstider og bedre overholdelse af reglerne; mener imidlertid, at anvendelsen af selvkørende køretøjer umuligt kan føre til, at der ikke sker nogen ulykker, og understreger, at dette i stigende grad gør det vigtigt, at beslutninger om AI kan forklares, således at deres mangler og utilsigtede konsekvenser kan begrundes; |
Beskæftigelse, arbejdstagerrettigheder, digitale færdigheder og arbejdspladsen
109. |
bemærker, at anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og indvirke på sundheden og sikkerheden på arbejdspladsen, samtidig med at det også kan anvendes til at overvåge, evaluere, forudsige og guide arbejdstagernes præstationer med direkte og indirekte konsekvenser for deres karriere; mener, at AI bør have en positiv indvirkning på arbejdsvilkårene og være styret af respekt for menneskerettighederne og Unionens grundlæggende rettigheder og værdier; påpeger, at AI bør være menneskecentreret, styrke folks trivsel og velfærdssamfundet og bidrage til en fair og retfærdig omstilling; mener, at sådanne teknologier derfor bør have en positiv indvirkning på arbejdsvilkårene og være styret af respekt for menneskerettighederne og Unionens grundlæggende rettigheder og værdier; |
110. |
fremhæver behovet for kompetenceudvikling gennem uddannelse og information af arbejdstagere og deres repræsentanter med hensyn til AI på arbejdspladsen for bedre at forstå konsekvenserne af AI-løsninger; understreger, at ansøgere og arbejdstagere i forbindelse med ansættelsesprocedurer og andre HR-beslutninger, hvor der anvendes AI, skriftligt bør informeres behørigt herom, herunder om, hvordan der i givet fald kan anmodes om, at et menneske gennemgår sagen med henblik på at omgøre en automatisk afgørelse; |
111. |
understreger, at det er nødvendigt at sikre, at produktivitetsgevinster som følge af udviklingen og anvendelsen af AI og robotteknologi ikke kun kommer virksomhedsejere og aktionærer til gode, men også gavner virksomheder og ansatte via en forbedring af arbejds- og beskæftigelsesforhold, herunder med hensyn til løn, økonomisk vækst og udvikling, og endvidere er til fordel for samfundet som helhed, navnlig når sådanne gevinster opnås på bekostning af arbejdspladser; opfordrer medlemsstaterne til nøje at undersøge den potentielle indvirkning af AI på arbejdsmarkedet og de sociale sikringsordninger og til at udvikle strategier til sikring af langsigtet stabilitet ved at reformere skatter og bidrag samt andre foranstaltninger i tilfælde af, at staten får færre indtægter; |
112. |
understreger betydningen af virksomheders investeringer i formel og uformel uddannelse samt livslang læring for at sikre en retfærdig omstilling til den digitale økonomi; fremhæver i denne forbindelse, at de virksomheder, der anvender AI, har ansvaret for at sikre passende omskoling og opkvalificering af alle berørte ansatte, således at de kan lære at anvende digitale værktøjer og arbejde med cobotter og andre nye teknologier og dermed tilpasse sig arbejdsmarkedets skiftende behov og forblive i beskæftigelse; |
113. |
mener, at der bør lægges særlig vægt på nye former for arbejde, såsom gig- og platformsarbejde, der er resultatet af anvendelsen af nye teknologier i denne forbindelse; understreger at reguleringen af vilkårene for telearbejde i hele Unionen og sikringen af anstændige arbejds- og ansættelsesvilkår i den digitale økonomi ligeledes skal tage højde for virkningen af AI; opfordrer Kommissionen til at høre arbejdsmarkedets parter, AI-udviklere, forskere og andre interessenter i denne henseende; |
114. |
understreger, at kunstig intelligens, robotteknologi og relaterede teknologier på ingen måde må påvirke udøvelsen af de grundlæggende rettigheder, der anerkendes i medlemsstaterne og på EU-plan, herunder retten eller friheden til at strejke eller gribe til andre aktioner, der er omfattet af de specifikke arbejdsmarkedsordninger i medlemsstaterne i overensstemmelse med national lovgivning og/eller praksis, eller påvirke retten til at forhandle, indgå og håndhæve kollektive overenskomster eller til at tage kollektive skridt i overensstemmelse med national lovgivning og/eller praksis; |
115. |
minder om betydningen af uddannelse og vedvarende læring for at udvikle de kvalifikationer, der er nødvendige i den digitale tidsalder, og for at imødegå digital udstødelse; opfordrer medlemsstaterne til at investere i velfungerende og inkluderende systemer af høj kvalitet for almen og erhvervsrettet uddannelse og livslang læring samt politikker for omskoling og opkvalificering for arbejdstagere i sektorer, der potentielt kan rammes hårdt af AI; fremhæver behovet for at sikre den nuværende og fremtidige arbejdsstyrke de nødvendige læse-, skrive- og regnefærdigheder samt digitale færdigheder og kompetencer inden for naturvidenskab, teknologi, ingeniørvirksomhed og matematik (STEM) og tværgående bløde færdigheder såsom kritisk tænkning, kreativitet og iværksætterånd; understreger, at der bør lægges særlig vægt på at inddrage dårligt stillede grupper i denne henseende; |
116. |
minder om, at kunstig intelligens, robotteknologi og relaterede teknologier, som anvendes på arbejdspladsen, skal være tilgængelige for alle og bygge på princippet om design for alle; |
Uddannelse og kultur
117. |
understreger, at det er nødvendigt at udvikle kriterier for udviklingen, udbredelsen og anvendelsen af AI i betragtning af dens indvirkning på uddannelse, medier, ungdom, forskning, sport og de kulturelle og kreative sektorer ved at udvikle benchmarks og fastlægge principper for etisk ansvarlige og acceptable anvendelser af AI-teknologier, der kan anvendes korrekt på disse områder, herunder en klar ansvarsordning vedrørende produkter, der stammer fra anvendelsen af AI; |
118. |
bemærker, at ikke alle børn nyder godt af retten til offentlig undervisning af god kvalitet på alle niveauer; opfordrer derfor til udvikling, udbredelse og anvendelse af AI-systemer af god kvalitet, der letter brugen af og yder undervisningsværktøjer af god kvalitet for alle på alle niveauer, og understreger, at udbredelsen af nye AI-systemer i skoler ikke bør føre til, at der skabes en bredere digital kløft i samfundet; erkender det enorme potentielle bidrag, som AI og robotteknologi kan yde til uddannelse; bemærker, at AI-personaliserede læringssystemer ikke bør erstatte uddannelsesforhold, der involverer lærere, og at de traditionelle uddannelsesformer ikke bør glemmes, og påpeger samtidig, at økonomisk, teknologisk og uddannelsesmæssig støtte, herunder specialiseret uddannelse i informations- og kommunikationsteknologi, skal stilles til rådighed for lærere, der ønsker at tilegne sig passende færdigheder med henblik på at tilpasse sig de teknologiske forandringer og ikke kun udnytte AI's potentiale, men også forstå dens begrænsninger; opfordrer til, at der udarbejdes en strategi på EU-plan med henblik på at bidrage til at omdanne og opdatere vores uddannelsessystemer, forberede uddannelsesinstitutionerne på alle niveauer og udstyre lærere og elever med de nødvendige færdigheder og den nødvendige viden; |
119. |
understreger, at uddannelsesinstitutioner bør sigte mod at anvende AI-systemer til uddannelsesformål, som har fået et europæisk certifikat for overholdelse af etiske principper; |
120. |
understreger, at de muligheder, som digitaliseringen og de nye teknologier giver, ikke må føre til et generelt tab af arbejdspladser i de kulturelle og kreative sektorer, til tilsidesættelse af bevarelsen af originaler eller til bagatellisering af den traditionelle adgang til kulturarven, som ligeledes bør fremmes; bemærker, at de AI-systemer, der udvikles, udbredes og anvendes i Unionen, bør afspejle Unionens kulturelle mangfoldighed og flersprogethed; |
121. |
anerkender AI's voksende potentiale inden for information, medier og onlineplatforme, herunder som et værktøj til at bekæmpe desinformation i overensstemmelse med EU-retten; understreger, at AI, såfremt der ikke sker en regulering af området, kan medføre etisk negative virkninger på grund af udnyttelsen af forudindtagethed i data og algoritmer, hvilket kan føre til spredning af desinformation og skabe informationsbobler; understreger betydningen af gennemsigtighed og ansvarlighed i forbindelse med algoritmer, der anvendes af videodelingsplatforme og streamingplatforme, med henblik på at sikre adgang til kulturelt og sprogligt mangfoldigt indhold; |
Nationale tilsynsmyndigheder
122. |
bemærker merværdien af at have udpegede nationale tilsynsmyndigheder i hver medlemsstat med ansvar for at sikre, vurdere og overvåge overholdelsen af retlige forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, som dermed bidrager til, at disse teknologier overholder lovgivningen og etiske principper; |
123. |
mener, at det må kræves, at disse myndigheder skal samarbejde med de myndigheder, som er ansvarlige for at implementere sektorbaseret lovgivning, uden at deres arbejde overlapper hinanden, med henblik på at udpege teknologier, der anses for at være forbundet med høj risiko ud fra et etisk perspektiv, og overvåge gennemførelsen af påkrævede og passende foranstaltninger i tilfælde, hvor sådanne teknologier påvises; |
124. |
anfører, at disse myndigheder bør samarbejde ikke blot indbyrdes, men også med Europa-Kommissionen og andre relevante EU-institutioner, -organer, -kontorer og -agenturer for at sikre en sammenhængende grænseoverskridende indsats; |
125. |
foreslår, at der i forbindelse med et sådant samarbejde udarbejdes fælles kriterier og en ansøgningsproces for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder efter anmodning fra enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere den positive vurdering af overholdelsen, der udføres af den respektive nationale tilsynsmyndighed; |
126. |
opfordrer til, at disse myndigheder får til opgave at fremme regelmæssige udvekslinger med civilsamfundet og innovation i Unionen ved at yde bistand til forskere, udviklere og andre relevante interessenter samt virksomheder, som ikke er så langt på det digitale område, navnlig små og mellemstore virksomheder eller nystartede virksomheder, navnlig med hensyn til at skabe opmærksomhed omkring og støtte udvikling, udbredelse, uddannelse og talentdyrking for at sikre effektiv overdragelse af teknologi og adgang til teknologier, projekter, resultater og netværk; |
127. |
opfordrer til, at hver medlemsstat afsætter tilstrækkelige midler til deres udpegede nationale tilsynsmyndigheder, og understreger, at det er nødvendigt at styrke de nationale markedsovervågningsmyndigheder med hensyn til kapacitet, færdigheder og kompetencer samt viden om de specifikke risici, der er forbundet med kunstig intelligens, robotteknologi og relaterede teknologier; |
Koordinering på EU-plan
128. |
understreger betydningen af koordinering på EU-plan, der udføres af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, for at undgå fragmentering og sikre en harmoniseret tilgang i hele Unionen; mener, at koordineringen bør fokusere på de nationale tilsynsmyndigheders mandater og foranstaltninger i hver medlemsstat som omhandlet i det foregående underafsnit samt på udveksling af bedste praksis mellem disse myndigheder og bidrag til samarbejdet om forskning og udvikling på området i hele Unionen; opfordrer Kommissionen til at vurdere og finde den mest hensigtsmæssige løsning til at strukturere denne koordinering; eksempler på relevante eksisterende EU-institutioner, -organer, -kontorer og -agenturer er ENISA, Den Europæiske Tilsynsførende for Databeskyttelse og Den Europæiske Ombudsmand; |
129. |
mener, at en sådan koordinering såvel som en europæisk certificering af overholdelse af etiske principper ikke blot vil gavne udviklingen af Unionens industri og innovation i denne sammenhæng, men også øge borgernes bevidsthed om de muligheder og risici, der er forbundet med disse teknologier; |
130. |
foreslår, at der oprettes et ekspertisecenter med folk fra den akademiske verden, forskningsverdenen, industrien og individuelle eksperter på EU-niveau for at fremme udvekslingen af viden og teknisk ekspertise og for at lette samarbejdet både i og uden for Unionen; mener desuden, at dette ekspertisecenter bør inddrage interessentorganisationer såsom forbrugerbeskyttelsesorganisationer for at sikre omfattende forbrugerrepræsentation; mener, at de beslutningstagende instanser i en sådan struktur — som følge af de algoritmiske systemers eventuelt uforholdsmæssige virkning på kvinder og mindretal — bør være mangfoldige og sikre ligestilling mellem kønnene; understreger, at medlemsstaterne er nødt til at udvikle risikostyringsstrategier for AI i forbindelse med deres nationale markedsovervågningsstrategier; |
131. |
foreslår, at Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, yder den nødvendige bistand til de nationale tilsynsmyndigheder vedrørende deres rolle som de første kontaktpunkter i tilfælde af mistanke om brud på de retlige forpligtelser og de etiske principper, der er fastlagt i Unionens regelsæt for AI, herunder princippet om ikkeforskelsbehandling; mener, at den også bør yde al nødvendig bistand til de nationale tilsynsmyndigheder i tilfælde, hvor sidstnævnte udfører overensstemmelsesvurderinger med henblik på at støtte borgernes ret til at anfægte beslutninger og til erstatning, navnlig ved at støtte høring af andre kompetente myndigheder i Unionen, navnlig netværket for forbrugerbeskyttelsessamarbejde og nationale forbrugerbeskyttelsesorganer, civilsamfundsorganisationer og arbejdsmarkedets parter i andre medlemsstater, når det er relevant; |
132. |
anerkender de værdifulde resultater fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, der består af repræsentanter fra den akademiske verden, civilsamfundet og industrien samt Den Europæiske Alliance vedrørende Kunstig Intelligens, navnlig de »Etiske retningslinjer for pålidelig kunstig intelligens«, og foreslår, at den kan bidrage med ekspertise til Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse; |
133. |
noterer sig inddragelsen af AI-relaterede projekter under programmet for udvikling af den europæiske forsvarsindustri (EDIDP); mener, at den fremtidige europæiske forsvarsfond og det permanente strukturerede samarbejde (PESCO) også kan give veldefinerede rammer for fremtidige AI-relaterede projekter, der kan bidrage til en bedre strømlining af Unionens bestræbelser på dette område, og samtidig fremmer Unionens mål om at styrke menneskerettighederne, folkeretten og multilaterale løsninger; understreger, at projekter i forbindelse med kunstig intelligens bør synkroniseres med Unionens bredere civile programmer om kunstig intelligens; bemærker, at i overensstemmelse med Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens bør der udvikles ekspertise- og testcentre, der fokuserer på forskning og udvikling af kunstig intelligens på området sikkerhed og forsvar med omhyggelige specifikationer, der understøtter private interessenters deltagelse og investeringer; |
134. |
noterer sig Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens og beklager, at der ikke blev taget hensyn til militære aspekter; opfordrer Kommissionen og HR/NF til også som led i en overordnet strategi at fremlægge en sektorspecifik AI-strategi for forsvarsrelaterede aktiviteter inden for Unionens rammer, der sikrer både respekten for borgernes rettigheder og Unionens strategiske interesser, og som er baseret på en konsekvent tilgang, der spænder fra indførelsen af AI-baserede systemer til deres militære anvendelse, og til at nedsætte en arbejdsgruppe om sikkerhed og forsvar under Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, der specifikt bør behandle politik- og investeringsspørgsmål samt etiske aspekter af AI på sikkerheds- og forsvarsområdet; opfordrer Rådet, Kommissionen og NF/HR til at indgå i en struktureret dialog med Europa-Parlamentet med henblik herpå. |
Europæisk certificering af overholdelse af etiske principper
135. |
foreslår, at der i forbindelse med koordinering på EU-plan udarbejdes fælles kriterier og en ansøgningsproces for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder efter anmodning fra enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere den positive vurdering af overholdelsen, der udføres af den respektive nationale tilsynsmyndighed; |
136. |
mener, at et sådant europæisk certifikat for overholdelse af etiske principper kan fremme etikken gennem hele forsyningskæden for AI-økosystemer; foreslår derfor, at denne certificering i forbindelse med teknologier med høj risiko kunne være en obligatorisk forudsætning for berettigelse til offentlige indkøbsprocedurer vedrørende kunstig intelligens, robotteknologi og relaterede teknologier; |
Internationalt samarbejde
137. |
er af den opfattelse, at et effektivt grænseoverskridende samarbejde og effektive etiske standarder kun kan opnås, hvis alle interessenter forpligter sig til at sikre menneskelig kontrol og tilsyn, teknisk robusthed og sikkerhed, gennemsigtighed og ansvarlighed, mangfoldighed, ikkeforskelsbehandling og retfærdighed, samfundsmæssig og miljømæssig trivsel og respekterer de etablerede principper for privatlivets fred, datastyring og databeskyttelse — navnlig dem, der er fastsat i forordning (EU) 2016/679; |
138. |
understreger, at Unionens juridiske forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af disse teknologier kan gøre Europa førende i verden inden for sektoren for kunstig intelligens og derfor bør fremmes på verdensplan ved at samarbejde med internationale partnere og samtidig fortsætte den kritiske og etikbaserede dialog med tredjelande, der har alternative modeller for regulering af kunstig intelligens, udvikling og udrulning. |
139. |
minder om, at de muligheder og risici, der følger med disse teknologier, har en global dimension, da den software og de data, de anvender, ofte importeres til og eksporteres ud af Unionen, og der er derfor behov for en konsekvent samarbejdsstrategi på internationalt plan; opfordrer Kommissionen til at tage initiativ til at vurdere, hvilke bilaterale og multilaterale traktater og aftaler der skal tilpasses for at sikre en ensartet tilgang og fremme den europæiske model for overholdelse af etiske principper på globalt plan; |
140. |
påpeger merværdien af samarbejde på EU-plan som nævnt ovenfor i denne forbindelse også. |
141. |
opfordrer til, at der etableres synergier og netværk mellem de forskellige europæiske forskningscentre om kunstig intelligens og andre multilaterale fora, såsom Europarådet, De Forenede Nationers Organisation for Uddannelse, Videnskab og Kultur (UNESCO), Organisationen for Økonomisk Samarbejde og Udvikling (OECD), Verdenshandelsorganisationen og Den Internationale Telekommunikationsunion (ITU), for at tilpasse deres indsats og koordinere udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier bedre; |
142. |
understreger, at Unionen skal være i front med hensyn til at støtte den multilaterale indsats med henblik på inden for rammerne af FN's CCW-regeringsekspertgruppe og andre relevante fora at drøfte en effektiv international reguleringsramme, der sikrer meningsfuld menneskelig kontrol over autonome våbensystemer for at beherske disse teknologier ved at etablere veldefinerede, benchmarkbaserede processer og vedtage lovgivning om deres etiske brug i samråd med militæret, industrien, retshåndhævelsesmyndighederne, den akademiske verden og civilsamfundet, forstå de relaterede etiske aspekter og dæmme op for de iboende risici ved sådanne teknologier og forhindre, at de anvendes til ondsindede formål; |
143. |
anerkender NATO's rolle med hensyn til at fremme den euro-atlantiske sikkerhed og opfordrer til øget samarbejde inden for NATO om indførelse af fælles standarder og interoperabilitet af AI-systemer på forsvarsområdet; understreger, at det transatlantiske forhold er vigtigt for bevarelsen af fælles værdier og for at imødegå fremtidige og nye trusler; |
144. |
understreger, at det er vigtigt at indføre en etisk adfærdskodeks, der understøtter indførelsen af AI-baserede våbensystemer i militære operationer, i lighed med de eksisterende lovgivningsmæssige rammer, der forbyder anvendelse af kemiske og biologiske våben; er af den opfattelse, at Kommissionen bør tage initiativ til at indføre standarder for anvendelse af AI-baserede våbensystemer i krig i overensstemmelse med den humanitære folkeret, og at Unionen bør arbejde for en international vedtagelse af sådanne standarder; mener, at Unionen bør deltage i AI-diplomati i internationale fora med ligesindede partnere som G7, G20 og OECD; |
Afsluttende aspekter
145. |
konkluderer på baggrund af ovenstående overvejelser om aspekter vedrørende den etiske dimension af kunstig intelligens, robotteknologi og relaterede teknologier, at de retlige og etiske dimensioner bør forankres i en effektiv, fremadskuende og omfattende retlig ramme på EU-plan, som understøttes af nationale kompetente myndigheder, koordineres og forbedres af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, og støttes forskriftsmæssigt af det førnævnte ekspertisecenter og behørigt respekteres og certificeres i det indre marked; |
146. |
anmoder Kommissionen om i overensstemmelse med proceduren i artikel 225 i traktaten om Den Europæiske Unions funktionsmåde at forelægge et forslag til forordning om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier på grundlag af artikel 114 i traktaten om Den Europæiske Unions funktionsmåde og baseret på de detaljerede henstillinger i bilaget hertil; påpeger, at forslaget ikke bør undergrave den sektorspecifikke lovgivning, men kun bør dække konstaterede smuthuller; |
147. |
anbefaler, at Kommissionen, efter høring af alle relevante interessenter, om nødvendigt reviderer gældende EU-ret vedrørende kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko med henblik på at håndtere den hastighed, hvormed de udvikler sig, i overensstemmelse med henstillingerne i bilaget, og samtidig undgår overregulering, herunder for SMV'er; |
148. |
mener, at en regelmæssig vurdering og revision, hvis det er nødvendigt, af den EU-retlige ramme for kunstig intelligens, robotteknologi og relaterede teknologier vil være essentiel for at sikre, at den relevante lovgivning er opdateret i forhold til den teknologiske udviklings hurtige tempo; |
149. |
mener, at lovforslaget vil få finansielle følgevirkninger, hvis et europæisk agentur tildeles de ovenfor nævnte koordineringsfunktioner og de nødvendige tekniske og menneskelige midler til opfyldelse af de nyligt tilskrevne opgaver; |
o
o o
150. |
pålægger sin formand at sende denne beslutning og henstillingerne i bilaget til Kommissionen og Rådet. |
(1) EUT L 252 af 8.10.2018, s. 1.
(2) EFT L 180 af 19.7.2000, s. 22.
(3) EFT L 303 af 2.12.2000, s. 16.
(4) EUT L 119 af 4.5.2016, s. 1.
(5) EUT L 119 af 4.5.2016, s. 89.
(6) EUT L 123 af 12.5.2016, s. 1.
(7) EUT C 252 af 18.7.2018, s. 239.
(8) EUT C 307 af 30.8.2018, s. 163.
(9) EUT C 433 af 23.12.2019, s. 86.
(10) Vedtagne tekster, P8_TA(2018)0332.
(11) Vedtagne tekster, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.
(13) Europa-Parlamentets og Rådets direktiv (EU) 2019/882 af 17. april 2019 om tilgængelighedskrav for produkter og tjenester (EUT L 151 af 7.6.2019, s. 70).
(14) Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF af 9. juli 2008 om fælles rammer for markedsføring af produkter og om ophævelse af Rådets afgørelse 93/465/EØF (EUT L 218 af 13.8.2008, s. 82).
BILAG TIL BESLUTNINGEN:
DETALJEREDE HENSTILLINGER VEDRØRENDE INDHOLDET AF DET FORSLAG, DER ANMODES OM
A. PRINCIPPER OG MÅL FOR DET FORSLAG, DER ANMODES OM
I. |
Forslagets hovedprincipper og mål er følgende:
|
II. |
Forslaget består af følgende elementer:
|
III. |
»Forordningen om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier« bygger på følgende principper:
|
IV. |
Med henblik på koordinering på EU-niveau bør Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, bør have følgende opgaver:
|
V. |
Endvidere bør Kommissionen udføre følgende opgaver:
|
VI. |
»Tilsynsmyndigheden« i hver medlemsstat bør udføre følgende hovedopgaver:
|
VII. |
Interessenternes vigtigste rolle bør være at samarbejde med Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, og »tilsynsmyndigheden« i hver medlemsstat; |
B. ORDLYDEN AF DET LOVGIVNINGSFORSLAG, DER ANMODES OM
Forslag til
EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier
EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR –
under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 114,
under henvisning til forslag fra Europa-Kommissionen,
efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg,
efter den almindelige lovgivningsprocedure, og
ud fra følgende betragtninger:
(1) |
Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør være baseret på et ønske om at tjene samfundet. Sådanne teknologier kan indebære muligheder og risici, som bør imødegås og reguleres af en omfattende retlig ramme på EU-plan, som afspejler etiske principper, der skal overholdes fra tidspunktet for udvikling og udbredelse af sådanne teknologier til anvendelsen heraf. |
(2) |
Overholdelsen af en sådan retlig ramme for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, i Unionen bør være på et niveau, der er ækvivalent i alle medlemsstater, for effektivt at gribe mulighederne og konsekvent tackle risiciene ved sådanne teknologier samt undgå manglende ensartethed reglerne. Det bør sikres, at anvendelsen af bestemmelserne i denne forordning i hele Unionen er ensartet. |
(3) |
I denne forbindelse udgør den nuværende mangfoldighed i de regler og praksisser, der skal følges i hele Unionen, en betydelig risiko for fragmentering af det indre marked og for både enkeltpersoners og samfundets trivsel og velstand og for en sammenhængende udforskning af det fulde potentiale, som kunstig intelligens, robotteknologi og relaterede teknologier har med hensyn til at fremme innovation og bevare denne trivsel og velstand. Forskelle med hensyn til, i hvilken grad udviklere, udbredere og brugere skal tage hensyn til den etiske dimension i disse teknologier, kan forhindre, at de udvikles frit, udbredes eller anvendes i Unionen, og sådanne forskelle kan udgøre en hindring for et retfærdigt marked og for bestræbelserne på teknologisk fremgang og økonomiske aktiviteter på EU-plan, forvride konkurrencen og hindre myndighederne i at opfylde deres forpligtelser i henhold til EU-retten. Desuden resulterer manglen på en fælles retlig ramme, der afspejler etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i retlig usikkerhed for alle involverede parter, nemlig udviklere, udbredere og brugere. |
(4) |
Ikke desto mindre bør denne forordning, samtidig med at den bidrager til en konsekvent tilgang på EU-plan og inden for de grænser, den fastsætter, give medlemsstaterne en vis manøvremargen, herunder med hensyn til den måde, hvorpå deres respektive nationale tilsynsmyndigheders mandat skal udøves i lyset af det mål, der forfølges, som fastsat heri. |
(5) |
Denne forordning berører ikke eksisterende eller fremtidig sektorlovgivning. Den bør stå i et rimeligt forhold til målet, så innovationen i Unionen ikke hindres i urimelig grad, og den bør være i overensstemmelse med en risikobaseret tilgang. |
(6) |
Det geografiske anvendelsesområde for en sådan ramme bør omfatte alle elementer af kunstig intelligens, robotteknologi og relaterede teknologier i forbindelse med deres udvikling, udbredelse og anvendelse i Unionen, herunder i tilfælde, hvor en del af teknologierne kan være placeret uden for Unionen eller ikke har ét specifikt eller enkelt sted, f.eks. i tilfælde af cloud computing-tjenester. |
(7) |
Der er behov for en fælles forståelse i Unionen af begreber som kunstig intelligens, robotteknologi, relaterede teknologier og biometrisk genkendelse for at muliggøre en ensartet lovgivningsmæssig tilgang og dermed retssikkerhed for borgere og ligeledes for virksomheder. De bør være teknologisk neutrale og underlægges gennemgang, hvis det vurderes at være nødvendigt. |
(8) |
Endvidere bør det forhold overvejes, at der findes teknologier relateret til kunstig intelligens og robotteknologi, der sætter software i stand til at kontrollere fysiske eller virtuelle processer med en varierende grad af autonomi (1). For eksempel er der for automatiseret kørsel af køretøjer foreslået seks niveauer af kørselsautomatisering under den internationale SAE-standard J3016. |
(9) |
Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør supplere menneskelige funktioner, ikke erstatte dem, og sikre, at brugen heraf ikke er i strid med borgernes interesser, og at de overholder EU-retten, de grundlæggende rettigheder som fastsat i Den Europæiske Unions charter om grundlæggende rettigheder (»chartret«), Den Europæiske Unions Domstols faste retspraksis og andre europæiske og internationale instrumenter, der gælder i Unionen. |
(10) |
Beslutninger, der træffes eller underbygges af kunstig intelligens, robotteknologi og relaterede teknologier bør være underlagt meningsfuld menneskelig gennemgang, vurdering, intervention og kontrol. Den tekniske og operationelle kompleksitet af sådanne teknologier bør aldrig forhindre, at deres udbreder eller bruger i det mindste kan aktivere en fejlsikret lukning, ændre eller standse deres drift eller vende tilbage til en tidligere tilstand, der genopretter sikre funktioner i tilfælde, hvor overholdelsen af EU-retten og de etiske principper eller retlige forpligtelser, der er fastsat i denne forordning, er i fare. |
(11) |
Kunstig intelligens, robotteknologi og relaterede teknologier, hvis udvikling, udbredelse og anvendelse indebærer en betydelig risiko for skade på enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten, bør betragtes som teknologier med høj risiko. Med henblik på at vurdere dem som sådan bør den sektor, hvor de udvikles, udbredes eller anvendes, deres specifikke anvendelse eller formål samt alvoren af de kvæstelser eller den skade, der kan forventes at forekomme, tages i betragtning. Graden af alvor bør fastlægges på grundlag af omfanget af de potentielle kvæstelser eller den potentielle skade, antallet af berørte personer, den samlede værdi af skaden samt skaden for samfundet som helhed. Alvorlige kvæstelser og skader er f.eks. krænkelser af børns, forbrugeres eller arbejdstageres rettigheder, der på grund af deres omfang, antallet af berørte børn, forbrugere eller arbejdstagere eller deres indvirkning på samfundet som helhed udgør en betydelig risiko for overtrædelse af grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten. Denne forordning bør indeholde en udtømmende og samlet liste over højrisikosektorer og højrisikoanvendelser og -formål. |
(12) |
Forpligtelserne i denne forordning, særligt dem, der vedrører teknologier med høj risiko, bør kun finde anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — som udvikles, udbredes og anvendes i Unionen, og som efter den risikovurdering, der er fastsat i denne forordning, anses for at være teknologier med høj risiko Sådanne forpligtelser skal opfyldes, uden at det berører den generelle forpligtelse til, at al kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — bør udvikles, udbredes og anvendes i Unionen på en menneskecentreret måde og baseret på principperne om menneskers autonomi og menneskers sikkerhed i overensstemmelse med EU-retten og under fuld overholdelse af grundlæggende rettigheder såsom den menneskelige værdighed, retten til frihed og sikkerhed og retten til personlig integritet. |
(13) |
Teknologier med høj risiko bør overholde principperne om sikkerhed, gennemsigtighed, ansvarlighed, ikkeforudindtagethed eller ikkeforskelsbehandling, socialt ansvar og ligestilling mellem kønnene, ret til erstatning, miljømæssig bæredygtighed, privatlivets fred og god regeringsførelse efter en upartisk, objektiv og ekstern risikovurdering foretaget af den nationale tilsynsmyndighed i overensstemmelse med kriterierne i denne forordning og listen i bilaget hertil. Denne vurdering bør tage hensyn til de synspunkter og den eventuelle selvevaluering, som er foretaget af udvikleren eller udbrederen. |
(14) |
Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bør udarbejde ikkebindende gennemførelsesretningslinjer for udviklere, udbredere og brugere om metoden for overholdelse af denne forordning. I denne forbindelse bør de høre relevante interessenter. |
(15) |
Der bør være sammenhæng inden for Unionen for så vidt angår risikovurderingen af disse teknologier, navnlig hvis de vurderes både på baggrund af denne forordning og i overensstemmelse med enhver gældende sektorspecifik lovgivning. De nationale tilsynsmyndigheder bør derfor underrette andre myndigheder, der foretager risikovurderinger i overensstemmelse med enhver sektorspecifik lovgivning, når disse teknologier vurderes til at være forbundet med høj risiko på grundlag af den risikovurdering, der er fastsat i denne forordning. |
(16) |
Pålidelig kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør udvikles, udbredes og anvendes på en sikker, gennemsigtig og ansvarlig måde i overensstemmelse med sikkerhedsegenskaber som robusthed, modstandsdygtighed, sikkerhed, nøjagtighed og fejlidentifikation, forklarlighed, fortolkning, mulighed for revision, gennemsigtighed og identificerbarhed og på en måde, der gør det muligt at inaktivere de pågældende funktioner eller vende tilbage til en tidligere tilstand, der genopretter sikre funktioner, i tilfælde af manglende overensstemmelse med disse egenskaber. Gennemsigtighed bør sikres ved at give offentlige myndigheder adgang, når det er strengt nødvendigt, til teknologi, data og computersystemer, der ligger til grund for sådanne teknologier. |
(17) |
Udviklere, udbredere og brugere af kunstig intelligens, robotteknologi og relaterede teknologier, navnlig teknologier med høj risiko, er i forskellig grad ansvarlige for overholdelse af principperne om sikkerhed, gennemsigtighed og ansvarlighed for så vidt angår deres engagement med de pågældende teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier. Udviklere bør sikre, at de pågældende teknologier er udformet og bygget i overensstemmelse med de sikkerhedsegenskaber, der er fastsat i denne forordning, mens udbredere og brugere bør udbrede og anvende de pågældende teknologier under fuld overholdelse af disse egenskaber. I denne forbindelse bør udviklere af teknologier med høj risiko vurdere og foregribe risikoen for misbrug, der med rimelighed kan forventes for så vidt angår de teknologier, de udvikler. De skal også sikre, at de systemer, som de udvikler, så vidt muligt og med passende midler, f.eks. ansvarsfraskrivelser, angiver sandsynligheden for fejl eller unøjagtigheder. |
(18) |
Udviklere og udbredere bør stille alle efterfølgende opdateringer af de pågældende teknologier til rådighed for brugerne, navnlig for så vidt angår software, således som det er anført i kontrakten eller fastsat i EU-ret eller national ret. Hvis det fremgår af en risikovurdering, bør udviklere og udbredere desuden give offentlige myndigheder den relevante dokumentation om anvendelsen af de pågældende teknologier og sikkerhedsinstrukser i denne henseende, herunder, når det er strengt nødvendigt og under fuld overholdelse af EU-retten om databeskyttelse, privatlivets fred og intellektuelle ejendomsrettigheder samt forretningshemmeligheder, kildekoden, udviklingsværktøjer og de data, der anvendes af systemet. |
(19) |
Enkeltpersoner har ret til at forvente, at den teknologi, de anvender, fungerer på rimelig vis og respekterer deres tillid. Borgernes tillid til kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, afhænger af forståelsen og indsigten i de tekniske processer. Graden af sådanne processers forklarlighed bør afhænge af den sammenhæng, hvori disse tekniske processer anvendes, og af alvoren af de konsekvenser, som et fejlagtigt eller unøjagtigt output kan have, og skal være tilstrækkelig til at anfægte dem og søge erstatning. Mulighed for revision, sporbarhed og gennemsigtighed bør afhjælpe alle eventuelle uforståeligheder af sådanne teknologier. |
(20) |
Samfundets tillid til kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, afhænger af, i hvilken grad vurderingen, muligheden for revision og sporbarheden er til stede i de pågældende teknologier. Udviklere bør, i det omfang deres deltagelse kræver det, sikre, at sådanne teknologier udformes og bygges på en måde, der muliggør en sådan vurdering, revision og sporbarhed. Inden for grænserne for, hvad der er teknisk muligt, bør udviklere, udbredere og brugere sikre, at kunstig intelligens, robotteknologi og relaterede teknologier udbredes og anvendes med fuld respekt for kravene om gennemsigtighed og med mulighed for revision og sporbarhed. |
(21) |
For at sikre gennemsigtighed og ansvarlighed bør borgerne informeres, hvis et system anvender kunstig intelligens, hvis kunstig intelligens-systemer skræddersyer et produkt eller en tjeneste til brugerne, uanset om de kan slå personalisering fra eller begrænse den, og hvis de anvender en teknologi til automatisk beslutningstagning. Derudover bør gennemsigtighedsforanstaltninger, i det omfang det er teknisk muligt, ledsages af tydelige og forståelige forklaringer af de anvendte data og af algoritmen, dens formål, dens resultater og dens potentielle farer. |
(22) |
Forudindtagethed og diskrimination i software, algoritmer og data er ulovlig og bør imødegås ved at regulere de processer, gennem hvilke de udformes og udbredes. Forudindtagethed kan stamme både fra beslutninger, der er blevet informeret om eller truffet af et automatiseret system og fra datasæt, som ligger til grund for en sådan beslutningstagning eller for systemets indlæring. |
(23) |
Software, algoritmer og data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, bør anses for at være forudindtagede, hvis de f.eks. viser suboptimale resultater i relation til en hvilken som helst person eller gruppe af personer, på grundlag af en forudindtaget personlig eller social opfattelse og efterfølgende behandling af data vedrørende deres personlige træk. |
(24) |
I overensstemmelse med EU-retten bør software, algoritmer og data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, betragtes som diskriminerende, når de producerer resultater, der har uforholdsmæssigt negative virkninger og resulterer i, at en person eller gruppe af personer behandles forskelligt, herunder ved at sætte dem i en ugunstig situation i forhold til andre personer baseret på grunde såsom deres personlige træk, uden objektiv eller rimelig begrundelse og uanset hvilke påstande om neutralitet, der fremsættes om teknologierne. |
(25) |
I overensstemmelse med EU-retten er legitime mål — der inden for rammerne af denne forordning objektivt kan berettige enhver form for differentieret behandling af personer eller grupper af personer — beskyttelse af den offentlige sikkerhed og sundhed, forebyggelse af strafbare handlinger, beskyttelse af grundlæggende rettigheder og frihedsrettigheder, retfærdig repræsentation og objektive krav for udøvelse af et erhverv. |
(26) |
Kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør bidrage til bæredygtige fremskridt. Sådanne teknologier bør ikke modvirke hensynet til miljøbeskyttelse eller den grønne omstilling. De kan også spille en vigtig rolle med hensyn til opfyldelsen af verdensmålene for bæredygtig udvikling, som FN har fastsat, så fremtidige generationer kan trives. Sådanne teknologier kan støtte overvågningen af passende fremskridt på grundlag af indikatorer for bæredygtighed og social samhørighed og gennem anvendelse af ansvarlige forsknings- og innovationsværktøjer, der kræver mobilisering af ressourcer fra Unionen og dens medlemsstater til at støtte og investere i projekter, der tager sigte på at nå disse mål. |
(27) |
Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør på ingen måde forsætligt forårsage eller gennem sin udformning acceptere kvæstelser eller skader af nogen art på enkeltpersoner eller samfund. Navnlig teknologier med høj risiko bør derfor udvikles, udbredes og anvendes på en socialt ansvarlig måde. |
(28) |
Derfor bør udviklere, udbredere og brugere holdes ansvarlige, alt efter omfanget af deres engagement med den pågældende kunstige intelligens, robotteknologi og de relaterede teknologier, og i henhold til EU-bestemmelser og nationale bestemmelser om erstatningsansvar, for enhver kvæstelse eller skade, der påføres enkeltpersoner og samfundet. |
(29) |
Navnlig bør udviklere, der træffer beslutninger, som fastlægger og kontrollerer kursen eller den måde, hvorpå udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier foregår, samt de udbredere, der er involveret i udbredelsen af dem ved at træffe beslutninger vedrørende en sådan udbredelse og ved at udøve kontrol over de relaterede risici eller ved at nyde gavn af en sådan udbredelse, med en kontrol- eller driftsfunktion, generelt anses for at være ansvarlige for at undgå, at der indtræffer en sådan kvæstelse eller skade, ved henholdsvis at iværksætte passende foranstaltninger under udviklingsprocessen og omhyggeligt overholde disse foranstaltninger i udbredelsesfasen. |
(30) |
Socialt ansvarlig kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, kan defineres som teknologier, der bidrager til at finde løsninger, som sikrer og fremmer forskellige mål med hensyn til samfundet, navnlig demokrati, sundhed og økonomisk velstand, lige muligheder, arbejdstagerrettigheder og sociale rettigheder, forskelligartede og uafhængige medier og objektive og frit tilgængelige oplysninger, der giver mulighed for offentlig debat, uddannelse af høj kvalitet, kulturel og sproglig mangfoldighed, ligestilling mellem kønnene, digitale færdigheder, innovation og kreativitet. Det er også dem, som udvikles, udbredes og anvendes under behørig hensyntagen til deres endelige indvirkning på borgernes fysiske og psykiske velbefindende, og som ikke fremmer hadefuld tale eller vold. Sådanne mål bør nås især ved hjælp af teknologier med høj risiko. |
(31) |
Kunstig intelligens, robotteknologi og relaterede teknologier bør også udvikles, udbredes og anvendes med henblik på at støtte social inklusion, demokrati, pluralisme, solidaritet, retfærdighed, lighed og samarbejde, og deres potentiale i denne sammenhæng bør maksimeres og undersøges gennem forsknings- og innovationsprojekter. Unionen og dens medlemsstater bør derfor mobilisere deres kommunikationsmæssige, administrative og finansielle ressourcer med det formål at støtte og investere i sådanne projekter. |
(32) |
Projekter vedrørende potentialet i kunstig intelligens, robotteknologi og relaterede teknologier til håndtering af spørgsmålet om social velfærd bør gennemføres på grundlag af ansvarlige forsknings- og innovationsværktøjer for at sikre, at disse projekter fra starten overholder de etiske principper. |
(33) |
Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør tage hensyn til deres miljøaftryk. I overensstemmelse med de forpligtelser, der er fastsat i gældende EU-ret, bør sådanne teknologier ikke skade miljøet i løbet af deres livscyklus og gennem hele deres forsyningskæde, og de bør udvikles, udbredes og anvendes på en måde, der bevarer miljøet, afbøder og afhjælper deres miljøaftryk, bidrager til den grønne omstilling og støtter målene om at opnå klimaneutralitet og en cirkulær økonomi. |
(34) |
Med henblik på denne forordning bør udviklere, udbredere og brugere holdes ansvarlige, alt efter omfanget af deres deltagelse i udviklingen, udbredelsen eller anvendelsen af enhver form for kunstig intelligens, robotteknologi og relaterede teknologier, der anses for at være forbundet med høj risiko, for enhver miljøskade i overensstemmelse med de gældende regler om miljøansvar. |
(35) |
Disse teknologier bør også udvikles, udbredes og anvendes med henblik på at støtte opfyldelsen af miljømæssige mål i overensstemmelse med de forpligtelser, der er fastsat i den gældende EU-ret, såsom reduktion af affaldsproduktion, reduktion af CO2-fodaftrykket, bekæmpelse af klimaændringer og bevarelse af miljøet, og deres potentiale i denne sammenhæng bør maksimeres og undersøges gennem forsknings- og innovationsprojekter. Unionen og medlemsstaterne bør derfor mobilisere deres kommunikationsmæssige, administrative og finansielle ressourcer med det formål at støtte og investere i sådanne projekter. |
(36) |
Projekter vedrørende potentialet i kunstig intelligens, robotteknologi og relaterede teknologier til håndtering af miljømæssige spørgsmål bør gennemføres på grundlag af ansvarlige forsknings- og innovationsværktøjer for fra starten at sikre, at disse projekter overholder de etiske principper. |
(37) |
Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art, herunder software, algoritmer og data, som anvendes eller produceres af sådanne teknologier, og som udvikles, udbredes og anvendes i Unionen, bør fuldt ud respektere EU-borgernes ret til privatliv og beskyttelse af personoplysninger. Navnlig bør deres udvikling, udbredelse og anvendelse være i overensstemmelse med bestemmelserne i Europa-Parlamentets og Rådets forordning (EU) 2016/679 (2) og Europa-Parlamentets og Rådets direktiv 2002/58/EF (3). |
(38) |
De etiske grænser for anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør især tages behørigt i betragtning, når der anvendes fjerngenkendelsesteknologier, såsom genkendelse af biometriske identifikatorer, navnlig ansigtsgenkendelse, for automatisk at identificere enkeltpersoner. Når disse teknologier benyttes af offentlige myndigheder af hensyn til væsentlige samfundsinteresser, navnlig for at sikre enkeltpersoners sikkerhed og for at håndtere nationale nødsituationer, og ikke for at garantere ejendommes sikkerhed, bør der altid informeres om anvendelsen, som bør være forholdsmæssigt afpasset, målrettet og begrænset til specifikke mål og tidsbegrænset i overensstemmelse med EU-retten og under behørig hensyntagen til den menneskelige værdighed og autonomi og de grundlæggende rettigheder, der er fastsat i chartret. Kriterierne og begrænsningerne for den pågældende anvendelse bør være genstand for domstolskontrol og underlagt demokratisk kontrol og debat, der inddrager civilsamfundet. |
(39) |
Forvaltning baseret på relevante standarder øger sikkerheden og fremmer større tillid blandt borgerne til udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier. |
(40) |
Offentlige myndigheder bør gennemføre konsekvensvurderinger vedrørende grundlæggende rettigheder, inden de udbreder teknologier med høj risiko, der støtter beslutninger, som træffes i den offentlige sektor, og som har en direkte og betydelig indvirkning på borgeres rettigheder og forpligtelser. |
(41) |
Blandt de eksisterende relevante forvaltningsstandarder er f.eks. »Ethics Guidelines for Trustworthy AI« (»Etiske retningslinjer for pålidelig kunstig intelligens«) udarbejdet af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens oprettet af Kommissionen og alle tekniske standarder såsom dem, der er vedtaget af Den Europæiske Standardiseringsorganisation (CEN), Den Europæiske Komité for Elektroteknisk Standardisering (CENELEC) og Det Europæiske Standardiseringsinstitut for Telekommunikation (ETSI) på europæisk plan, Den Internationale Standardiseringsorganisation (ISO) og Institute of Electrical and Electronics Engineers (IEEE) på internationalt plan. |
(42) |
Udveksling og anvendelse af data fra flere deltagere er følsom, og udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier bør derfor være omfattet af relevante regler, standarder og protokoller, der afspejler kravene til kvalitet, integritet, sikkerhed, pålidelighed, privatlivets fred og kontrol. Datastyringsstrategien bør fokusere på behandling, deling af og adgang til sådanne data, herunder korrekt forvaltning, mulighed for revision og sporbarhed heraf, og sikre en passende beskyttelse af data, der tilhører sårbare grupper, herunder personer med handicap, patienter, børn, minoriteter og migranter eller andre grupper, der er i risiko for udstødelse. Ydermere bør udviklere, udbredere og brugere kunne, hvor det er relevant, forlade sig på centrale præstationsindikatorer i forbindelse med evalueringen af de datasæt, de benytter med henblik på at forbedre pålideligheden af de teknologier, som de udvikler, udbreder og anvender. |
(43) |
Medlemsstaterne bør udpege en uafhængig administrativ myndighed til at fungere som tilsynsmyndighed. Navnlig bør de enkelte nationale tilsynsmyndigheder være ansvarlige for at identificere kunstig intelligens, robotteknologi og relaterede teknologier, der anses for at være forbundet med høj risiko, på baggrund af de risikovurderingskriterier, der er fastsat i denne forordning, og for at vurdere og overvåge, hvorvidt disse teknologier overholder de forpligtelser, der er fastsat i denne forordning. |
(44) |
De enkelte nationale tilsynsmyndigheder bør også bære ansvaret for god forvaltning af disse teknologier under koordinering af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer eller -agenturer, der kan udpeges til dette formål. De spiller derfor en vigtig rolle med hensyn til at fremme EU-borgernes tillid og sikkerhed samt muliggøre et demokratisk, pluralistisk og retfærdigt samfund. |
(45) |
Med henblik på at vurdere teknologier, som udgør en høj risiko i henhold til denne forordning, og på at overvåge, at de er i overensstemmelse med denne, bør de nationale tilsynsmyndigheder, hvor det er relevant, samarbejde med de myndigheder, der er ansvarlige for at vurdere og overvåge disse teknologier og håndhæve, at de overholder sektorspecifik lovgivning. |
(46) |
De nationale tilsynsmyndigheder bør indgå i et omfattende og løbende samarbejde med hinanden samt med Europa-Kommissionen og andre relevante EU-institutioner, -organer, -kontorer og -agenturer for at sikre en sammenhængende grænseoverskridende indsats og muliggøre en ensartet udvikling, udbredelse og anvendelse af disse teknologier i Unionen i overensstemmelse med de etiske principper og retlige forpligtelser, der er fastlagt i denne forordning. |
(47) |
I forbindelse med et sådant samarbejde og med henblik på at opnå fuld harmonisering på EU-plan bør de nationale tilsynsmyndigheder bistå Kommissionen med udarbejdelsen af en fælles og udtømmende liste over kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko i overensstemmelse med de kriterier, der er fastsat i denne forordning og dens bilag. Endvidere bør der udvikles en bevillingsprocedure for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder en frivillig ansøgningsprocedure for enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere, at de overholder denne forordning. |
(48) |
De nationale tilsynsmyndigheder bør sikre, at der samles et maksimalt antal interessenter såsom erhvervslivet, virksomheder, arbejdsmarkedets parter, forskere, forbrugere og civilsamfundsorganisationer, og at der skabes et pluralistisk forum for overvejelser og udveksling af synspunkter for at nå frem til forståelige og præcise konklusioner med henblik på en vejledning om, hvordan forvaltningen kan reguleres. |
(49) |
Nationale tilsynsmyndigheder bør sikre, at der samles et maksimalt antal interessenter såsom erhvervslivet, virksomheder, arbejdsmarkedets parter, forskere, forbrugere og civilsamfundsorganisationer, og at der skabes et pluralistisk forum for overvejelser og udveksling af synspunkter for at fremme samarbejde mellem interessenter, især den akademiske verden, forskningsverdenen, erhvervslivet, civilsamfundet og individuelle eksperter, med henblik på at nå frem til forståelige og præcise konklusioner med henblik på en vejledning om, hvordan forvaltningen kan reguleres. |
(50) |
Disse nationale tilsynsmyndigheder bør desuden yde professionel administrativ vejledning og støtte til udviklere, udbredere og brugere, navnlig små og mellemstore virksomheder eller nystartede virksomheder, der møder udfordringer i forbindelse med overholdelsen af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning. |
(51) |
Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bør udarbejde bindende retningslinjer om den metode, der skal anvendes af de nationale tilsynsmyndigheder, når de gennemfører deres overensstemmelsesvurdering. |
(52) |
Whistleblowing gør myndighederne opmærksomme på potentielle og faktiske overtrædelser af EU-retten med henblik på at forhindre, at der forvoldes kvæstelser, tilskadekomster eller beskadigelser, der ellers ville forekomme. Desuden forbedrer indberetningsprocedurerne informationsstrømmen inden for virksomheder og organisationer og mindsker dermed risikoen for, at der udvikles mangelfulde eller fejlbehæftede produkter eller tjenester. Virksomheder og organisationer, der udvikler, udbreder eller anvender kunstig intelligens, robotteknologi og relaterede teknologier, herunder data, der anvendes eller produceres af disse teknologier, bør etablere indberetningskanaler, og personer, der indberetter overtrædelser, bør beskyttes mod repressalier. |
(53) |
Den hurtige udvikling af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, samt af teknisk maskinlæring, ræsonnement og andre teknologier, der ligger til grund for denne udvikling, er uforudsigelig. Som sådan er det både hensigtsmæssigt og nødvendigt at indføre en revisionsmekanisme, i henhold til hvilken Kommissionen foruden sin rapportering om anvendelsen af forordningen regelmæssigt skal forelægge en rapport om den eventuelle ændring af denne forordnings anvendelsesområde. |
(54) |
Målet for denne forordning, nemlig at etablere en fælles lovgivningsmæssig ramme for etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i Unionen, kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne, men kan på grund af dets omfang og virkninger bedre nås på EU-plan, og Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i traktaten om Den Europæiske Union. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå dette mål. |
(55) |
Koordinering på EU-plan som fastsat i denne forordning opnås bedst af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, for at undgå fragmentering og sikre en ensartet anvendelse af denne forordning. Kommissionen bør derfor have til opgave at finde en passende løsning med hensyn til at strukturere en sådan koordinering på EU-plan for at koordinere de nationale tilsynsmyndigheders mandat og foranstaltninger i hver medlemsstat, navnlig vedrørende risikovurdering af kunstig intelligens, robotteknologi og relaterede teknologier, etablering af en fælles ramme til forvaltning af udvikling, udbredelse og anvendelse af disse teknologier, udvikling og udstedelse af et certifikat for overholdelse af etiske principper og retlige forpligtelser, der er fastsat i denne forordning, støtte regelmæssige udvekslinger med de berørte interessenter og civilsamfundet og oprette et ekspertisecenter, som samler den akademiske verden, forskningsverdenen, erhvervslivet og individuelle eksperter på EU-plan med henblik på at fremme udvekslingen af viden og teknisk ekspertise, og fremme Unionens tilgang gennem internationalt samarbejde og på verdensplan sikre et ensartet svar på de muligheder og risici, der er forbundet med disse teknologier — |
VEDTAGET DENNE FORORDNING:
Kapitel I
Generelle bestemmelser
Artikel 1
Formål
Formålet med denne forordning er at etablere en omfattende og fremtidssikker EU-lovramme for de etiske principper og retlige forpligtelser for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i Unionen.
Artikel 2
Anvendelsesområde
Denne forordning finder anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, som udvikles, udbredes og anvendes i Unionen.
Artikel 3
Geografisk dækningsområde
Denne forordning finder anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier, hvor en del heraf udvikles, udbredes eller anvendes i Unionen, uanset om softwaren, algoritmerne eller de data, der anvendes eller produceres af sådanne teknologier, befinder sig uden for Unionen eller ikke har en specifik geografisk beliggenhed.
Artikel 4
Definitioner
I denne forordning forstås ved:
a) |
»kunstig intelligens«: et system, som enten er baseret på funktionsprogrammer eller er integreret i materielenheder, og som udviser intelligent adfærd ved bl.a. at indsamle, behandle, analysere og fortolke sine omgivelser og ved at handle med en vis grad af autonomi for at nå specifikke mål (4) |
b) |
»autonomi«: et AI-system, der opererer ved at fortolke visse input og anvende en række på forhånd fastsatte instruktioner uden at være begrænset til disse instruktioner, selv om systemets adfærd er begrænset af og sigter mod at opfylde det tildelte mål og andre relevante designvalg truffet af systemudvikleren |
c) |
»robotteknologi«: teknologier, der sætter automatisk styrede, omprogrammerbare og multifunktionelle maskiner (5) i stand til at udføre handlinger i den fysiske verden, der traditionelt varetages eller indledes af mennesker, herunder ved hjælp af kunstig intelligens eller relaterede teknologier |
d) |
»relaterede teknologier«: teknologier, der gør det muligt for software med en delvis eller fuld grad af autonomi at kontrollere en fysisk eller virtuel proces, teknologier, der kan afsløre biometriske, genetiske eller andre data, og teknologier, der kopierer eller på anden måde gør brug af menneskelige træk |
e) |
»høj risiko«: en væsentlig risiko, der er forbundet med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier for at kvæste eller skade enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten, under hensyntagen til deres specifikke anvendelse eller formål, den sektor, hvor de udvikles, udbredes eller anvendes, og alvoren af de kvæstelser eller den skade, der kan forventes at forekomme |
f) |
»udvikling«: konstruktion og udformning af algoritmer, skrivning og udformning af software eller indsamling, lagring og forvaltning af data med det formål at skabe eller træne kunstig intelligens, robotteknologi og relaterede teknologier eller med det formål at skabe en ny applikation til eksisterende kunstig intelligens, robotteknologi og relaterede teknologier |
g) |
»udvikler«: enhver fysisk eller juridisk person, der træffer afgørelser, som fastlægger og kontrollerer den kurs eller den måde, hvorpå udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier sker |
h) |
»udbredelse«: drift og forvaltning af kunstig intelligens, robotteknologi og relaterede teknologier samt deres markedsføring, eller hvordan de på anden måde stilles til rådighed for brugerne |
i) |
»udbreder«: enhver fysisk eller juridisk person, der er involveret i den specifikke udbredelse af kunstig intelligens, robotteknologi og relaterede teknologier med en styrings- eller forvaltningsfunktion, ved at træffe afgørelser, udøve kontrol over risikoen og nyde gavn af en sådan udbredelse |
j) |
»anvendelse«: enhver handling i forbindelse med kunstig intelligens, robotteknologi og andre relaterede teknologier end udvikling eller udbredelse |
k) |
»bruger«: enhver fysisk eller juridisk person, der anvender kunstig intelligens, robotteknologi og andre relaterede teknologier til andre formål end udvikling eller udbredelse |
l) |
»forudindtagethed«: enhver forudindtaget eller personlig eller social opfattelse af en person eller en gruppe af personer på grundlag af deres personlige træk |
m) |
»forskelsbehandling«: enhver forskelsbehandling af en person eller en gruppe af personer på grundlag af forhold, som ikke har nogen objektiv eller rimelig begrundelse og derfor er forbudt i henhold til EU-retten |
n) |
»kvæstelse eller skade«: fysisk eller psykisk skade, materiel eller immateriel skade, herunder når den forårsages af hadefuld tale, forudindtagethed, forskelsbehandling eller stigmatisering, såsom finansielle eller økonomiske tab, tab af beskæftigelse eller uddannelsesmæssige muligheder, uberettiget begrænsning af valgfrihed eller ytringsfrihed samt tab af privatlivets fred og enhver overtrædelse af EU-retten, der er til skade for en person |
o) |
»god forvaltning«: den måde, hvorpå det sikres, at de passende og rimelige standarder og passende adfærdsprotokoller vedtages og iagttages af udviklere, udbredere og brugere på grundlag af et sæt formelle regler, procedurer og værdier, og som gør det muligt for dem at behandle etiske spørgsmål hensigtsmæssigt, når eller inden de opstår. |
Artikel 5
Etiske principper for kunstig intelligens, robotteknologi og relaterede teknologier
1. Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — udvikles, udbredes og anvendes i Unionen i overensstemmelse med EU-retten og med fuld respekt for den menneskelige værdighed, autonomi, sikkerhed og andre grundlæggende rettigheder, der er fastsat i chartret.
2. Enhver behandling af personoplysninger, der gennemføres i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier — herunder personoplysninger, der stammer fra data, som ikke er personoplysninger, og biometriske data — gennemføres i overensstemmelse med forordning (EU) 2016/679 og direktiv 2002/58/EF.
3. Unionen og dens medlemsstater tilskynder til forskningsprojekter, der har til formål at tilvejebringe løsninger baseret på kunstig intelligens, robotteknologi og relaterede teknologier, som har til formål at fremme social inklusion, demokrati, pluralisme, solidaritet, retfærdighed, lighed og samarbejde.
Kapitel II
Forpligtelser for teknologier med høj risiko
Artikel 6
Forpligtelser for teknologier med høj risiko
1. Bestemmelserne i dette kapitel finder kun anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — som udvikles, udbredes og anvendes i Unionen, og som ikke anses for at være forbundet med høj risiko.
2. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — udvikles, udbredes og anvendes på en måde, der sikrer, at de ikke overtræder de etiske principper, der er fastlagt i denne forordning.
Artikel 7
Menneskecentreret og menneskeskabt kunstig intelligens
1. Enhver kunstig teknologi med høj risiko — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — udvikles, udbredes og anvendes på en måde, der til enhver tid sikrer fuldt menneskeligt tilsyn.
2. De i stk. 1 omhandlede teknologier udvikles, udbredes og anvendes på en sådan måde, at der er garanti for, at den menneskelige kontrol kan genvindes efter behov, herunder gennem ændring eller indstilling af disse teknologier.
Artikel 8
Sikkerhed, gennemsigtighed og ansvarlighed
1. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — udvikles, udbredes og anvendes på en måde, der sikrer, at de:
a) |
udvikles, udbredes og anvendes på en modstandsdygtig måde, så de sikrer et tilstrækkeligt sikkerhedsniveau ved at overholde minimumsudgangspunktet for cybersikkerhed, der står i rimeligt forhold til den identificerede risiko, og på en sådan måde, som forhindrer, at eventuelle tekniske sårbarheder udnyttes til ondsindede eller ulovlige formål |
b) |
udvikles, udbredes og anvendes på en sikker måde, der sikrer, at der er sikkerhedsforanstaltninger, som omfatter en alternativ plan og foranstaltninger i tilfælde af en sikkerheds- eller sikringsrisiko |
c) |
udvikles, udbredes og anvendes på en sådan måde, at der sikres en funktionspålidelighed, som med rimelighed kan forventes af brugeren med hensyn til at nå de mål og gennemføre de aktiviteter, de er blevet udtænkt til, herunder ved at sikre, at alle operationer er reproducerbare |
d) |
udvikles, udbredes og anvendes på en sådan måde, at der sikres nøjagtighed, hvad angår opfyldelsen af målene for de pågældende teknologier og udførelsen af deres aktiviteter; hvis det ikke er muligt at undgå lejlighedsvise unøjagtigheder, skal systemet, i videst muligt omfang, over for udbrederne og brugerne ved hjælp af passende midler angive, at der kan være fejl og unøjagtigheder |
e) |
udvikles, udbredes og anvendes på en let forklarlig måde for at sikre, at der kan foretages en gennemgang af teknologiernes tekniske processer |
f) |
udvikles, udbredes og anvendes på en sådan måde, at de informerer brugerne om, at de interagerer med systemer, der involverer kunstig intelligens, idet disse systemers kapaciteter, nøjagtighed og begrænsninger på behørig og omfattende vis oplyses til udviklere, udbredere og brugere af kunstig intelligens |
g) |
i overensstemmelse med artikel 6 udvikles, udbredes og anvendes på en sådan måde, at det i tilfælde af manglende overholdelse af de i litra a)-g) fastsatte sikkerhedsforanstaltninger er muligt midlertidigt at inaktivere de pågældende funktioner og vende tilbage til en tidligere tilstand, der genopretter sikre funktioner. |
2. I overensstemmelse med artikel 6, stk. 1, udvikles, udbredes og anvendes de i nærværende artikels stk. 1 nævnte teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — på en gennemsigtig og sporbar måde, således at deres elementer, processer og faser dokumenteres efter de højest mulige og anvendelige standarder, og således at det er muligt for de i artikel 18 omhandlede nationale tilsynsmyndigheder at vurdere, om disse teknologier er i overensstemmelse med de forpligtelser, der er fastlagt i denne forordning. Navnlig er udvikleren, udbrederen eller brugeren af disse teknologier ansvarlig for og i stand til at påvise, at de er i overensstemmelse med de sikkerhedsforanstaltninger, der er fastsat i stk. 1.
3. Udvikleren, udbrederen eller brugeren af de teknologier, der er omhandlet i stk. 1, sikrer, at de foranstaltninger, der træffes for at sikre overensstemmelse med foranstaltningerne i stk. 1, kan revideres af de nationale tilsynsmyndigheder som omhandlet i artikel 18 eller, hvis det er relevant, andre nationale eller europæiske sektorspecifikke tilsynsmyndigheder.
Artikel 9
Ikkeforudindtagethed og ikkeforskelsbehandling
1. Software, algoritmer eller data af en hvilken som helst art, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, der udvikles, udbredes eller anvendes i Unionen, skal være objektive og må ikke, uden at det berører stk. 2, diskriminere på grund af f.eks. race, køn, seksuel orientering, graviditet, handicap, fysiske eller genetiske træk, alder, nationalt mindretal, etnisk eller social oprindelse, sprog, religion eller tro, politiske synspunkter eller aktivt medborgerskab, statsborgerskab, civil eller økonomisk status, uddannelse eller straffeattest.
2. Uanset stk. 1 og uden, at det berører EU-retten om ulovlig forskelsbehandling, kan enhver forskelsbehandling af personer eller grupper af personer kun begrundes, hvis der foreligger et objektivt, rimeligt og legitimt mål, der både er forholdsmæssigt og nødvendigt, for så vidt som der ikke findes noget alternativ, som ville medføre et mindre indgreb i ligebehandlingsprincippet.
Artikel 10
Socialt ansvar og ligestilling mellem kønnene
Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, der udvikles, udbredes og anvendes i Unionen — udvikles, udbredes og anvendes i overensstemmelse med den relevante EU-ret og de relevante principper og værdier på en måde, der ikke griber ind i valg eller bidrager til udbredelse af desinformation, respekterer arbejdstageres rettigheder, fremmer uddannelse af høj kvalitet og digitale færdigheder, ikke øger kønsskævheden ved at forhindre lige muligheder for alle og ikke tilsidesætter intellektuelle ejendomsrettigheder og eventuelle begrænsninger eller undtagelser herfor.
Artikel 11
Miljømæssig bæredygtighed
Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — vurderes med hensyn til deres miljømæssige bæredygtighed af de nationale tilsynsmyndigheder som omhandlet i artikel 18 eller, hvis det er relevant, andre nationale eller europæiske sektorspecifikke tilsynsmyndigheder, for at sikre, at der iværksættes foranstaltninger til at afbøde og afhjælpe deres generelle indvirkning på naturressourcer, energiforbrug, affaldsproduktion, CO2-fodaftryk, klimakrisen og miljøforringelse med henblik på at sikre overholdelse af gældende EU-ret eller national ret såvel som alle internationale miljøforpligtelser, som Unionen har indgået.
Artikel 12
Respekt for privatlivets fred og beskyttelse af personoplysninger
Anvendelse og indsamling af biometriske data til fjernidentifikation på offentlige områder som biometrisk genkendelse eller ansigtsgenkendelse indebærer specifikke risici for de grundlæggende rettigheder og må kun udbredes eller anvendes af medlemsstaternes offentlige myndigheder med henblik på væsentlige formål af offentlig interesse. Disse myndigheder sikrer, at en sådan udbredelse eller anvendelse offentliggøres, forholdsmæssigt afpasset, målrettet og begrænset til specifikke mål og geografisk placering og begrænset i tid, i overensstemmelse med EU-retten og national ret, navnlig forordning (EU) 2016/679 og direktiv 2002/58/EF, og under behørig hensyntagen til den menneskelige værdighed og autonomi og de grundlæggende rettigheder, der er fastsat i chartret, nemlig retten til respekt for privatlivets fred og retten til beskyttelse af personoplysninger.
Artikel 13
Ret til at søge erstatning
Enhver fysisk eller juridisk person har ret til at søge erstatning for kvæstelse eller skade forårsaget af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — i strid med EU-retten og de forpligtelser, der er fastsat i denne forordning.
Artikel 14
Risikovurdering
1. Ved anvendelsen af denne forordning anses kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — for at være teknologier med høj risiko, når den sektor, hvor de udvikles, udbredes eller anvendes og alvorligheden af den eventuelle forårsagede kvæstelse eller skade, deres udvikling, udbredelse eller anvendelse, efter en risikovurdering baseret på objektive kriterier, indebærer en betydelig risiko for at forårsage kvæstelse eller skade, som kan forventes at forekomme, på enkeltpersoner eller samfundet, i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten.
2. Uden at dette berører gældende sektorspecifik lovgivning, foretages risikovurderingen af kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — i overensstemmelse med de objektive kriterier, der er fastsat i stk. 1 i denne artikel og i den udtømmende og kumulative liste, der er fastsat i bilaget til denne forordning, af de i artikel 18 omhandlede nationale tilsynsmyndigheder under koordinering af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål i forbindelse med deres samarbejde.
3. I samarbejde med de i stk. 2 omhandlede nationale tilsynsmyndigheder udarbejder Kommissionen og ajourfører efterfølgende, ved hjælp af delegerede retsakter i overensstemmelse med artikel 20, en fælles liste over teknologier med høj risiko, der er identificeret inden for Unionen.
4. Kommissionen ajourfører også, ved hjælp af delegerede retsakter i overensstemmelse med artikel 20, regelmæssigt listen i bilaget til denne forordning.
Artikel 15
Overensstemmelsesvurdering
1. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko underkastes en vurdering af overensstemmelsen med de forpligtelser, der er fastsat i artikel 6-12 i denne forordning, samt en efterfølgende overvågning, som begge gennemføres af de nationale tilsynsmyndigheder, der er omhandlet i artikel 18, under koordinering af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål.
2. Software, algoritmer og data, der anvendes eller produceres af teknologier med høj risiko, som er blevet vurderet til at være i overensstemmelse med de forpligtelser, der er fastsat i denne forordning, i henhold til stk. 1, anses også for at være i overensstemmelse med disse forpligtelser, medmindre den relevante nationale tilsynsmyndighed beslutter at foretage en vurdering på eget initiativ eller efter anmodning fra udvikleren, udbrederen eller brugeren.
3. Uden at det berører den sektorspecifikke lovgivning, udarbejder Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bindende retningslinjer om den metode, der skal anvendes af de nationale tilsynsmyndigheder til den overensstemmelsesvurdering, der er omhandlet i stk. 1, senest på datoen for denne forordnings ikrafttræden.
Artikel 16
Europæisk certifikat for overholdelse af etiske principper
1. Hvis der har været en positiv overensstemmelsesvurdering af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — som er foretaget i overensstemmelse med artikel 15, udsteder den respektive nationale tilsynsmyndighed et europæisk certifikat for overholdelse af etiske principper.
2. Enhver udvikler, udbreder eller bruger af kunstig intelligens, robotteknologi og relaterede teknologier — herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier — som ikke anses for at være forbundet med høj risiko, og som derfor ikke er omfattet af de forpligtelser, der er fastsat i artikel 6-12, og af den risikovurdering og overensstemmelsesvurdering, der er omhandlet i artikel 14 og 15, kan også søge om attestering af, at de overholder de forpligtelser, der er fastsat i denne forordning, eller dele af dem, hvis det berettiges af arten af den pågældende teknologi, i overensstemmelse med de nationale tilsynsmyndigheders beslutning. Der udstedes kun et certifikat, hvis den relevante nationale tilsynsmyndighed har foretaget en overensstemmelsesvurdering, og denne vurdering er positiv.
3. Med henblik på udstedelsen af det i stk. 2 omhandlede certifikat udvikler Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, en ansøgningsprocedure.
Kapitel III
Institutionelt tilsyn
Artikel 17
Forvaltningsstandarder og gennemførelsesvejledning
1. Kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, skal overholde de relevante forvaltningsstandarder, der er fastsat i overensstemmelse med Unionens ret, principper og værdier af de i artikel 18 omhandlede nationale tilsynsmyndigheder i overensstemmelse med Unionens ret, principper og værdier, under koordinering af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, som kan udpeges til dette formål og i samråd med relevante interessenter.
2. De standarder, der er omhandlet i stk. 1, omfatter ikkebindende gennemførelsesretningslinjer om metoden for at sikre, at udviklere, udbredere og brugere overholder denne forordning, og offentliggøres senest på datoen for denne forordnings ikrafttræden.
3. Data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, som udvikles, udbredes eller anvendes i Unionen, forvaltes af udviklere, udbredere og brugere i overensstemmelse med relevante regler og standarder, der anvendes på nationalt plan, inden for Unionen, af andre europæiske organisationer samt på internationalt plan, såvel som med relevante industri- og virksomhedsprotokoller. Navnlig foretager udviklere og udbredere, hvor det er muligt, kvalitetskontrol af de eksterne datakilder, der anvendes af kunstig intelligens, robotteknologi og relaterede teknologier, og indfører tilsynsmekanismer med hensyn til deres indsamling, opbevaring, forarbejdning og anvendelse.
4. Uden at det berører muligheden for overførsel af rettigheder og rettigheder for personer, hvis anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier har genereret data, skal indsamling, lagring, behandling, deling af og adgang til data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, være i overensstemmelse med relevante de regler og standarder, der anvendes på nationalt plan, inden for Unionen, af andre europæiske organisationer samt på internationalt plan, såvel som med relevante industri- og virksomhedsprotokoller. Navnlig sikrer udviklere og udbredere, at disse protokoller anvendes under udviklingen og udbredelsen af kunstig intelligens, robotteknologi og relaterede teknologier, ved klart at definere kravene til behandling og tildeling af adgang til data, der anvendes eller produceres af disse teknologier, samt formålet med, omfanget af og adressaterne for behandlingen og tildelingen af adgang til sådanne data, som til enhver tid skal kunne revideres og spores.
Artikel 18
Tilsynsmyndigheder
1. De enkelte medlemsstater udpeger en uafhængig offentlig myndighed, der er ansvarlig for tilsynet med anvendelsen af denne forordning (»tilsynsmyndighed«) og for udførelsen af de risiko- og overensstemmelsesvurderinger og det certifikat, der er omhandlet i artikel 14, 15 og 16, uden at det berører den sektorspecifikke lovgivning.
2. De enkelte nationale tilsynsmyndigheder bidrager til ensartet anvendelse af denne forordning i hele Unionen. Med henblik herpå samarbejder tilsynsmyndighederne i de enkelte medlemsstater med hinanden, med Kommissionen og/eller med eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, som kan udpeges til dette formål.
3. De enkelte nationale tilsynsmyndigheder fungerer som første kontaktpunkt i tilfælde af mistanke om overtrædelse af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning, herunder forskelsbehandling eller krænkelse af andre rettigheder, som følge af udvikling, udbredelse eller anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier. I sådanne tilfælde foretager den pågældende nationale tilsynsmyndighed en overensstemmelsesvurdering med henblik på at støtte borgernes ret til at gøre indsigelse og klage.
4. De enkelte nationale tilsynsmyndigheder er ansvarlige for at føre tilsyn med anvendelsen af de relevante nationale, europæiske og internationale forvaltningsregler og -standarder, der er omhandlet i artikel 17, inden for kunstig intelligens, robotteknologi og relaterede teknologier, herunder ved at samarbejde med det størst mulige antal relevante interessenter. Med henblik herpå tilvejebringer tilsynsmyndighederne i hver medlemsstat et forum for regelmæssig udveksling af synspunkter med og mellem interessenter fra den akademiske verden, forskningsverdenen, industrien og civilsamfundet.
5. De enkelte nationale tilsynsmyndigheder yder faglig og administrativ vejledning og støtte i forbindelse med den generelle gennemførelse af gældende EU-ret om kunstig intelligens, robotteknologi og relaterede teknologier samt de etiske principper, der er fastsat i denne forordning, navnlig til relevante forsknings- og udviklingsorganisationer og små og mellemstore virksomheder eller nystartede virksomheder.
6. De enkelte medlemsstater meddeler Europa-Kommissionen de retlige bestemmelser, som de vedtager i henhold til denne artikel, senest den … [EUT: indsæt venligst datoen et år efter ikrafttrædelsen] og snarest muligt eventuelle senere ændringer, der vedrører dem.
7. Medlemsstaterne træffer alle nødvendige foranstaltninger for at sikre gennemførelsen af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning. Medlemsstaterne støtter de relevante interessenter og civilsamfundet på både EU-plan og nationalt plan i deres bestræbelser på at sikre en rettidig, etisk og velinformeret respons på de nye muligheder og udfordringer, navnlig grænseoverskridende muligheder og udfordringer, der opstår som følge af den teknologiske udvikling inden for kunstig intelligens, robotteknologi og relaterede teknologier.
Artikel 19
Indberetning af overtrædelser og beskyttelse af indberettende personer
Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 (6) finder anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af personer, der indberetter sådanne overtrædelser.
Artikel 20
Koordinering på EU-plan
1. Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, har følgende opgaver:
— |
at sikre en sammenhængende risikovurdering af kunstig intelligens, robotteknologi og relaterede teknologier, der omhandlet i artikel 14, som skal foretages af de nationale tilsynsmyndigheder, der er omhandlet i artikel 18, på grundlag af de fælles objektive kriterier, der er fastlagt i artikel 8, stk. 1, og på listen over sektorer med høj risiko og over anvendelser eller formål med høj risiko, der er fastsat i bilaget til denne forordning |
— |
at notere sig overensstemmelsesvurderingen og den efterfølgende overvågning af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, der er omhandlet i artikel 15, som skal foretages af de nationale tilsynsmyndigheder, der er omhandlet i artikel 18 |
— |
at udvikle ansøgningsprocessen for det i artikel 16 omhandlede certifikat, der skal udstedes af de nationale tilsynsmyndigheder, som er omhandlet i artikel 18 |
— |
uden at det berører den sektorspecifikke lovgivning, at udarbejde de bindende retningslinjer, som er omhandlet i artikel 17, stk. 4, om den metode, der skal anvendes af de nationale tilsynsmyndigheder, der er omhandlet i artikel 18 |
— |
at koordinere de i artikel 17 omhandlede nationale tilsynsmyndigheders udarbejdelse af de relevante forvaltningsstandarder, der er omhandlet i artikel 18, herunder ikkebindende gennemførelsesretningslinjer for udviklere, udbredere og brugere om metoden for overholdelse af denne forordning |
— |
at samarbejde med de nationale tilsynsmyndigheder, der er omhandlet i artikel 18, om deres bidrag til en ensartet anvendelse af denne forordning i hele Unionen i henhold til artikel 18, stk. 2 |
— |
at fungere som ekspertisecenter ved at fremme udvekslingen af oplysninger vedrørende kunstig intelligens, robotteknologi og relaterede teknologier og støtte udviklingen af en fælles forståelse på det indre marked, udstede yderligere retningslinjer, udtalelser og ekspertise til de i artikel 18 omhandlede nationale tilsynsmyndigheder, overvåge gennemførelsen af relevant EU-ret, fastlægge standarder for bedste praksis og, hvor det er relevant, fremsætte anbefalinger til lovgivningsmæssige foranstaltninger; i den forbindelse bør det samarbejde med det størst mulige antal relevante interessenter og sikre, at sammensætningen af dets beslutningsniveauer er forskelligartet og sikrer ligestilling mellem kønnene |
— |
at være vært for en arbejdsgruppe om sikkerhed og forsvar, der skal se nærmere på politik- og investeringsspørgsmål, der specifikt vedrører den etiske anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier inden for sikkerhed og forsvar. |
Artikel 21
Udøvelse af de delegerede beføjelser
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 14, stk. 3 og 4, tillægges Kommissionen for en periode på fem år fra (datoen for denne forordnings ikrafttræden).
3. Den i artikel 14, stk. 3 og 4, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen af afgørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen eksperter, som er udpeget af hver enkelt medlemsstat, i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.
6. En delegeret retsakt vedtaget i henhold til artikel 14, stk. 3 og 4, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på tre måneder fra meddelelsen af den pågældende retsakt til Europa-Parlamentet og Rådet, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har informeret Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre måneder på Europa-Parlamentets eller Rådets initiativ.
Artikel 22
Ændringer af direktiv (EU) 2019/1937
I direktiv (EU) 2019/1937 foretages følgende ændringer:
1) |
I artikel 2, stk. 1, tilføjes følgende litra:
|
2) |
I Del I i bilaget indsættes følgende litra:
|
Artikel 23
Revision
Kommissionen reviderer regelmæssigt udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, og aflægger senest … [EUT: indsæt datoen tre år efter ikrafttrædelsen], og derefter hvert tredje år, en rapport til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg om anvendelsen af denne forordning, herunder en vurdering af den mulige ændring af anvendelsesområdet for denne forordning.
Artikel 24
Ikrafttræden
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende.
Den anvendes fra den XX.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
Udfærdiget i …, den …
På Europa-Parlamentets vegne
Formand
På Rådets vegne
Formand
BILAG
En udtømmende og kumulativ liste over sektorer med høj risiko og over anvendelser eller formål med høj risiko, der indebærer en risiko for overtrædelse af grundlæggende rettigheder og sikkerhedsregler.
Sektorer med høj risiko |
|
||||||||||||||||||||||||||||
Anvendelser eller formål med høj risiko |
|
(1) For automatiseret kørsel af køretøjer er der foreslået seks niveauer af kørselsautomatisering under den internationale SAE-standard J3016, sidst opdateret i 2018 til J3016_201806. https://www.sae.org/standards/content/j3016_201806/
(2) Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).
(3) Europa-Parlamentets og Rådets direktiv 2002/58/EF af 12. juli 2002 om behandling af personoplysninger og beskyttelse af privatlivets fred i den elektroniske kommunikationssektor (direktiv om databeskyttelse inden for elektronisk kommunikation) (EFT L 201 af 31.7.2002, s. 37).
(4) Definition som i Kommissionens meddelelse COM(2018)0237 af 25.4.2018, s. 1, tilpasset.
(5) Fra definitionen af industrirobotter i ISO 8373.
(6) Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 af 23. oktober 2019 om beskyttelse af personer, der indberetter overtrædelser af EU-retten (EUT L 305 af 26.11.2019, s. 17).