28.2.2022 |
DA |
Den Europæiske Unions Tidende |
C 97/60 |
Det Europæiske Regionsudvalgs udtalelse — En europæisk tilgang til kunstig intelligens — retsakten om kunstig intelligens
(revideret udtalelse)
(2022/C 97/12)
|
I. ANBEFALEDE ÆNDRINGER
Anbefalet ændring 1
Betragtning 1
Kommissionens forslag |
RU's ændringsforslag |
Formålet med denne forordning er at forbedre det indre markeds funktion ved at fastlægge ensartede retlige rammer, navnlig for udvikling, markedsføring og anvendelse af kunstig intelligens i overensstemmelse med Unionens værdier. Med denne forordning forfølges en række tvingende almene hensyn, såsom et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder, og den sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser på tværs af grænserne og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i henhold til denne forordning. |
Formålet med denne forordning er at forbedre det indre markeds funktion og beskytte borgernes grundlæggende rettigheder ved at fastlægge ensartede retlige rammer, navnlig for udvikling, markedsføring og anvendelse af kunstig intelligens i overensstemmelse med Unionens værdier. Med denne forordning forfølges en række tvingende almene hensyn, såsom et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder, og den sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser på tværs af grænserne og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i henhold til denne forordning. |
Begrundelse
Henvisningen til de grundlæggende rettigheder har til formål at understrege sammenhængen med EU's charter om grundlæggende rettigheder.
Anbefalet ændring 2
Ny betragtning efter betragtning 6
Kommissionens forslag |
RU's ændringsforslag |
|
Definitionen af AI-systemer er en kontinuerlig proces, der tager hensyn til den kontekst, som kunstig intelligens fungerer i. Den bør holde trit med den samfundsmæssige udvikling på dette område og ikke glemme forbindelsen mellem henholdsvis ekspertisemiljøet og tillidsmiljøet. |
Begrundelse
Udviklingen inden for kunstig intelligens og teknologi kræver en fleksibel tilgang, der løbende evalueres. Denne betragtning påpeger, at definitionen af kunstig intelligens bør afspejle udviklingen inden for AI-systemer og -applikationer over tid.
Anbefalet ændring 3
Betragtning 20
Kommissionens forslag |
RU's ændringsforslag |
For at sikre, at disse systemer anvendes på en ansvarlig og rimelig måde, er det også vigtigt at fastslå, at der i hver af disse tre udtømmende opregnede og snævert definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder samt de garantier og betingelser, der er fastsat for brugen. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør desuden underlægges passende begrænsninger i tid og sted, navnlig med hensyn til beviser eller indikationer vedrørende truslerne, ofrene eller gerningsmanden. Referencedatabasen over personer bør være passende for hvert enkelt anvendelsestilfælde i hver af de tre ovennævnte situationer. |
For at sikre, at disse systemer anvendes på en ansvarlig og rimelig måde, er det også vigtigt at fastslå, at der i hver af disse tre udtømmende opregnede og snævert definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder samt de garantier og betingelser, der er fastsat for brugen. De relevante lokale og regionale myndigheder bør høres forud for den ekstraordinære anvendelse af disse systemer. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør desuden underlægges strenge begrænsninger i tid og sted, navnlig med hensyn til beviser eller indikationer vedrørende truslerne, ofrene eller gerningsmanden. Referencedatabasen over personer bør være passende for hvert enkelt anvendelsestilfælde i hver af de tre ovennævnte situationer. |
Begrundelse
Systemer til biometrisk fjernidentifikation i realtid bør bruges med omtanke.
Anbefalet ændring 4
Betragtning 21
Kommissionens forslag |
RU's ændringsforslag |
Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en judiciel myndighed eller en uafhængig administrativ myndighed i en medlemsstat. En sådan tilladelse bør i princippet indhentes forud for anvendelsen, undtagen i behørigt begrundede hastende tilfælde, dvs. situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt umuligt at opnå en tilladelse, inden anvendelsen påbegyndes. I sådanne hastende situationer bør anvendelsen begrænses til det absolut nødvendige minimum og være underlagt passende garantier og betingelser som fastsat i national ret og præciseret af den retshåndhævende myndighed selv i forbindelse med hver enkelt hastesag . Desuden bør den retshåndhævende myndighed i sådanne situationer søge at opnå en tilladelse så hurtigt som muligt og samtidig begrunde, hvorfor den ikke har været i stand til at anmode om den tidligere . |
Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en judiciel myndighed eller en uafhængig administrativ myndighed i en medlemsstat. En sådan tilladelse bør indhentes forud for anvendelsen, undtagen i behørigt begrundede hastende tilfælde, dvs. situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt umuligt at opnå en tilladelse, inden anvendelsen påbegyndes. I alle tilfælde bør anvendelsen begrænses til det absolut nødvendige minimum og være underlagt passende garantier og betingelser som fastsat i national ret. Desuden bør den retshåndhævende myndighed straks informere de relevante lokale og regionale myndigheder og søge at opnå en tilladelse hos de kompetente myndigheder . |
Begrundelse
Det politiske og administrative ansvar for forvaltning og overvågning af det offentlige rum ligger hos de lokale og regionale myndigheder. De bør derfor inddrages på passende vis ved brugen af sådanne systemer i det offentlige rum. I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks om brugen af biometriske systemer i det offentlige rum.
Anbefalet ændring 5
Betragtning 39
Kommissionens forslag |
RU's ændringsforslag |
AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de kompetente offentlige myndigheders handlinger. I AI-systemer, der anvendes i disse sammenhænge, er nøjagtighed, gennemsigtighed og systemets ikkediskriminerende karakter derfor særlig vigtige med hensyn til at sikre, at de berørte personers grundlæggende rettigheder beskyttes, navnlig deres ret til fri bevægelighed, beskyttelse mod forskelsbehandling, beskyttelse af privatlivets fred og personoplysninger, international beskyttelse og god forvaltning. Derfor bør de AI-systemer, der er beregnet til at blive anvendt af de kompetente offentlige myndigheder, der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og grænsekontrol, som polygrafer og lignende værktøjer eller til at påvise en fysisk persons følelsesmæssige tilstand, vurdere visse risici, som fysiske personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, kontrollere ægtheden af fysiske personers relevante dokumenter, bistå de kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, klassificeres som højrisikosystemer. AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør opfylde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets direktiv 2013/32/EU, Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 og anden relevant lovgivning. |
AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de kompetente offentlige myndigheders handlinger. I AI-systemer, der anvendes i disse sammenhænge, er nøjagtighed, gennemsigtighed og systemets ikkediskriminerende karakter derfor særlig vigtige med hensyn til at sikre, at de berørte personers grundlæggende rettigheder beskyttes, navnlig deres ret til fri bevægelighed, beskyttelse mod forskelsbehandling, beskyttelse af privatlivets fred og personoplysninger, international beskyttelse og god forvaltning. Derfor skal de AI-systemer, der er beregnet til at blive anvendt af de kompetente offentlige myndigheder, der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og grænsekontrol, som polygrafer og lignende værktøjer eller til at påvise en fysisk persons følelsesmæssige tilstand, vurdere visse risici, som fysiske personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, kontrollere ægtheden af fysiske personers relevante dokumenter, bistå de kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, klassificeres som højrisikosystemer. AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør opfylde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets direktiv 2013/32/EU, Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 og anden relevant lovgivning. |
Begrundelse
Denne tilpasning afspejler behovet for at underkaste de pågældende AI-systemer de skærpede regler for højrisiko-AI-systemer.
Anbefalet ændring 6
Betragtning 43
Kommissionens forslag |
RU's ændringsforslag |
Der bør gælde krav for højrisiko-AI-systemer med hensyn til kvaliteten af de anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysninger til brugerne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for menneskers sundhed, sikkerhed og grundlæggende rettigheder, alt efter hvad der i lyset af systemets tilsigtede formål er relevant, og hvis foranstaltninger, der er mindre begrænsende for handelen, ikke er mulige, således at uberettigede handelsrestriktioner undgås. |
Der bør gælde krav for højrisiko-AI-systemer med hensyn til kvaliteten af de anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysninger til brugerne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for menneskers sundhed, sikkerhed , datasikkerhed, forbrugerrettigheder og grundlæggende rettigheder, alt efter hvad der i lyset af systemets formål er relevant, og hvis foranstaltninger, der er mindre begrænsende for handelen, ikke er mulige, således at uberettigede handelsrestriktioner undgås. Fysiske personer eller grupper af personer, der er berørt af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet eller på anden måde tages i brug, bør på en passende, let tilgængelig og let forståelig måde kunne finde offentligt tilgængelig information om, at de er omfattet af sådanne systemer. |
Begrundelse
De gennemsigtigheds- og oplysningskrav, der gælder for udbydere og brugere, bør udvides til at omfatte de personer eller grupper af personer, der kan blive berørt af anvendelsen af højrisiko-AI-systemer, jf. bilag III til forordningen. Med en »let forståelig« måde menes også et sprog, der er klart og tilgængeligt for brugeren, herunder mundtligt hørbare og manuelt visuelle sprog.
Anbefalet ændring 7
Ny betragtning efter betragtning 44
Kommissionens forslag |
RU's ændringsforslag |
|
Udbydere af AI-systemer skal sikre, at deres kvalitetsstyringssystemer ikke indeholder foranstaltninger, der fremmer uberettiget forskelsbehandling på grund af køn, oprindelse, religion eller tro, handicap, alder, seksuel orientering eller forskelsbehandling på et hvilket som helst andet grundlag. |
Begrundelse
Ulovlig forskelsbehandling er resultatet af menneskelige handlinger. Udbydere af AI-systemer skal sikre, at deres kvalitetsstyringssystemer ikke indeholder foranstaltninger, der kan fremme forskelsbehandling.
Anbefalet ændring 8
Betragtning 47
Kommissionens forslag |
RU's ændringsforslag |
For at afhjælpe den uigennemsigtighed, der kan gøre visse AI-systemer uforståelige eller for komplekse for fysiske personer, bør der kræves en vis grad af gennemsigtighed for højrisiko-AI-systemer. Brugerne bør kunne fortolke systemets output og anvende det korrekt. Højrisiko-AI-systemer bør derfor ledsages af relevant dokumentation og en brugsanvisning og indeholde kortfattede og klare oplysninger, blandt andet om mulige risici med hensyn til grundlæggende rettigheder og forskelsbehandling, hvis det er relevant. |
For at afhjælpe den uigennemsigtighed, der kan gøre visse AI-systemer uforståelige eller for komplekse for fysiske personer eller offentlige myndigheder på alle forvaltningsniveauer, bør der kræves en høj grad af gennemsigtighed for højrisiko-AI-systemer. Brugerne bør kunne fortolke systemets output og anvende det korrekt. Højrisiko-AI-systemer bør derfor ledsages af relevant dokumentation og en brugsanvisning og indeholde kortfattede og klare oplysninger, blandt andet om mulige risici med hensyn til grundlæggende rettigheder og forskelsbehandling, hvis det er relevant. |
Begrundelse
Ansvarligheden hos dem, der udvikler højrisiko-AI-systemer, svækkes gennem formuleringen »en vis grad af gennemsigtighed«.
Anbefalet ændring 9
Betragtning 48
Kommissionens forslag |
RU's ændringsforslag |
Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer kan føre tilsyn med deres funktion. Udbyderen af systemet bør derfor fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i omsætning eller tages i brug. Hvor det er relevant, bør sådanne foranstaltninger navnlig sikre, at systemet er underlagt den menneskelige operatør og indbyggede driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og at de fysiske personer, som fører det menneskelige tilsyn, har de nødvendige kompetencer og den nødvendige uddannelse og beføjelse til at varetage rollen. |
Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer og offentlige myndigheder på alle forvaltningsniveauer kan føre tilsyn med deres funktion. Udbyderen af systemet bør derfor fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i omsætning eller tages i brug. Hvor det er relevant, bør sådanne foranstaltninger navnlig sikre, at systemet er underlagt den menneskelige operatør og indbyggede driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og at de fysiske personer, som fører det menneskelige tilsyn, har de nødvendige kompetencer og den nødvendige uddannelse og beføjelse til at varetage rollen. |
Begrundelse
Giver sig selv.
Anbefalet ændring 10
Betragtning 67
Kommissionens forslag |
RU's ændringsforslag |
Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse med denne forordning, således at de kan bevæge sig frit på det indre marked. Medlemsstaterne bør ikke skabe uberettigede hindringer for omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der opfylder kravene i denne forordning, og som er forsynet med CE-mærkning. |
Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse med denne forordning, således at de kan bevæge sig frit på det indre marked. Medlemsstaterne bør ikke skabe hindringer for omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der opfylder kravene i denne forordning, og som er forsynet med CE-mærkning. Medlemsstaterne har udelukkende beføjelse til at regulere højrisiko-AI-praksis og højrisiko-AI-systemer på grundlag af behørigt begrundede almene hensyn og hensyn til den nationale sikkerhed. |
Begrundelse
Medlemsstaterne må ikke forhindre anvendelse af forordningen, men de bør bevare retten til at regulere højrisiko-AI-systemer, hvis almene hensyn og nationale sikkerhedsinteresser står på spil.
Anbefalet ændring 11
Betragtning 70
Kommissionens forslag |
RU's ændringsforslag |
Visse AI-systemer, der er beregnet til at interagere med fysiske personer eller generere indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisikosystemer eller ej. Under visse omstændigheder bør a nvendelsen af disse systemer derfor være underlagt særlige gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer. Fysiske personer bør navnlig underrettes om, at de interagerer med et AI-system , medmindre dette fremgår tydeligt af omstændighederne og konteksten for anvendelsen . Fysiske personer bør desuden underrettes, når de udsættes for et system til følelsesgenkendelse eller et system til biometrisk kategorisering. Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap. Endvidere bør de brugere, der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, steder eller begivenheder, og som fejlagtigt vil fremstå ægte, oplyse, at indholdet er kunstigt skabt eller manipuleret, ved at mærke outputtet og oplyse om dets kunstige oprindelse. |
Visse AI-systemer, der er beregnet til at interagere med fysiske personer eller generere indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisikosystemer eller ej. A nvendelsen af disse systemer bør derfor være underlagt særlige gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer. Fysiske personer bør systematisk underrettes om, at de interagerer med et AI-system. Fysiske personer bør desuden underrettes, når de udsættes for et system til følelsesgenkendelse eller et system til biometrisk kategorisering. Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap. Endvidere bør de brugere, der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, steder eller begivenheder, og som fejlagtigt vil fremstå ægte, oplyse, at indholdet er kunstigt skabt eller manipuleret, ved at mærke outputtet og oplyse om dets kunstige oprindelse. |
Begrundelse
Der bør ikke gøres undtagelser fra forpligtelsen til gennemsigtighed og information, når fysiske personer interagerer med AI-systemer.
Anbefalet ændring 12
Betragtning 76
Kommissionens forslag |
RU's ændringsforslag |
For at fremme en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør der nedsættes et europæisk udvalg for kunstig intelligens. Udvalget bør være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger, rådgivning eller vejledning om spørgsmål vedrørende gennemførelsen af denne forordning, herunder med hensyn til tekniske specifikationer eller eksisterende standarder, der er relateret til de krav, der er fastsat i denne forordning, samt rådgive og bistå Kommissionen i forbindelse med specifikke spørgsmål vedrørende kunstig intelligens. |
For at fremme en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør der nedsættes et europæisk udvalg for kunstig intelligens. Udvalget bør være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger, rådgivning eller vejledning om spørgsmål vedrørende gennemførelsen af denne forordning, herunder med hensyn til tekniske specifikationer eller eksisterende standarder, der er relateret til de krav, der er fastsat i denne forordning, samt rådgive og bistå Kommissionen i forbindelse med specifikke spørgsmål vedrørende kunstig intelligens. Medlemmerne af det europæiske udvalg for kunstig intelligens bør repræsentere de forskellige interessegrupper i det europæiske samfund. Det europæiske udvalg for kunstig intelligens bør have en ligelig kønsfordeling. |
Begrundelse
Det europæiske udvalg for kunstig intelligens bør på passende vis repræsentere de mange forskellige interessegrupper i det europæiske samfund. Dette omfatter emner som menneskerettigheder, klima og energieffektiv anvendelse af AI-systemer, sikkerhed, social inklusion, sundhed osv. En ligelig kønsfordeling er en forudsætning for diversitet i rådgivningen, ved udarbejdelsen af retningslinjer osv.
Anbefalet ændring 13
Betragtning 77
Kommissionens forslag |
RU's ændringsforslag |
Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I den forbindelse bør hver medlemsstat udpege en eller flere nationale kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af denne forordning. For at øge organisationseffektiviteten for medlemsstaternes vedkommende og for at oprette et officielt kontaktpunkt for offentligheden og andre modparter på nationalt plan og EU-plan bør der i hver medlemsstat udpeges en national myndighed som national tilsynsmyndighed. |
Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I den forbindelse bør hver medlemsstat udpege en eller flere nationale kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af denne forordning. For at øge organisationseffektiviteten for medlemsstaternes vedkommende og for at oprette et officielt kontaktpunkt for offentligheden og andre modparter på nationalt plan og EU-plan bør der i hver medlemsstat udpeges en national myndighed som national tilsynsmyndighed. De lokale og regionale myndigheder tildeles tilsyns- eller håndhævelsesopgaver, i det omfang den enkelte medlemsstat finder det hensigtsmæssigt. |
Begrundelse
For at sikre, at forordningen og dens tilsyns- og håndhævelsesramme kan gennemføres, bør den enkelte medlemsstat have beføjelse til at lade de lokale og regionale myndigheder udføre tilsyns- eller håndhævelsesopgaver, hvor det er nødvendigt, og hvis det er muligt.
Anbefalet ændring 14
Betragtning 79
Kommissionens forslag |
RU's ændringsforslag |
For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er fastsat i denne forordning, som udgør EU-harmoniseringslovgivning, bør det system til markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde anvendelse i sin helhed. Nationale offentlige myndigheder eller organer, der fører tilsyn med anvendelsen af EU-lovgivningen om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer, bør i det omfang, det er nødvendigt for deres mandat, også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning. |
For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er fastsat i denne forordning, som udgør EU-harmoniseringslovgivning, bør det system til markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde anvendelse i sin helhed. Nationale offentlige myndigheder , og hvis det er relevant lokale og regionale myndigheder eller organer, der fører tilsyn med anvendelsen af EU-lovgivningen om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer, bør i det omfang, det er nødvendigt for deres mandat, også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning. |
Begrundelse
Dette ændringsforslag tager højde for de forskellige forvaltningsstrukturer i EU's medlemsstater.
Anbefalet ændring 15
Betragtning 83
Kommissionens forslag |
RU's ændringsforslag |
For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på EU-plan og nationalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver. |
For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på EU-plan, nationalt , regionalt og lokalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver. |
Begrundelse
Dette ændringsforslag tager højde for de forskellige forvaltningsstrukturer i EU's medlemsstater.
Anbefalet ændring 16
AFSNIT I, Artikel 3, stk. 1 — Definitioner
Kommissionens forslag |
RU's ændringsforslag |
»system med kunstig intelligens« (AI-system): software, der er udviklet ved hjælp af en eller flere af de i bilag I anførte teknikker og tilgange, og som med henblik på et givet sæt mål, der er fastsat af mennesker, kan generere output såsom indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, de interagerer med |
»system med kunstig intelligens« (AI-system): software, der er udviklet af mennesker ved hjælp af en eller flere af de teknikker og tilgange , der er anført på den ikke-udtømmende liste i bilag I, i et samspil med social praksis, identitet og kultur , og som med henblik på et givet sæt mål, der er fastsat af mennesker, kan generere output såsom indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, de interagerer med ved at observere omgivelserne, indsamle data, fortolke de indsamlede strukturerede eller ustrukturerede data, styre denne viden eller forarbejde information udledt af disse data |
Begrundelse
Et AI-system består af en kombination af tekniske elementer, der forbinder data, algoritmer og computerkraft med social praksis, samfundet, identitet og kultur. Definitionen af et sådant dynamisk socio-teknisk aggregat bør derfor være fremtidssikret og opdateres regelmæssigt for præcist at afspejle AI's stadig større indvirkning på samfundet og kortlægge de hurtigt skiftende udfordringer og muligheder i tilknytning til kunstig intelligens. Det gælder også forbindelsen mellem vidensstyring og AI. I den sammenhæng bør en algoritme udviklet af en anden algoritme også være underlagt forordningen.
Anbefalet ændring 17
Artikel 5, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
||||||||||
Følgende former for praksis med hensyn til kunstig intelligens er forbudt: |
Følgende former for praksis med hensyn til kunstig intelligens er forbudt: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
Begrundelse
Subliminale teknikker kan generelt undergrave frihed, menneskerettigheder og dermed den demokratiske retsstats funktion. Samtidig kan kunstig intelligens underminere forbrugerrettigheder. Formålet med tilføjelserne er at præcisere dette.
Hvad angår social klassificering anvendt af offentlige myndigheder eller på deres vegne bør det forbydes, hvis det gennemføres med henblik på generelle formål, på grund af den fare, der er forbundet med en sådan praksis, sådan som det er forklaret i betragtning 17. Generering eller indsamling af data til specifikke formål bør kun tillades, hvis der føres menneskeligt tilsyn med det, og såfremt det ikke krænker retten til værdighed og retten til beskyttelse mod forskelsbehandling og værdierne lighed og retfærdighed.
Anbefalet ændring 18
Artikel 5, stk. 4
Kommissionens forslag |
RU's ændringsforslag |
En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, litra d), og stk. 2 og 3. Den pågældende medlemsstat fastsætter i sin nationale lovgivning de nødvendige detaljerede regler for anmodning, udstedelse og benyttelse af samt tilsyn i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, litra d), anførte formål, herunder for hvilke af de i nr. iii) nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. |
En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, litra d), og stk. 2 og 3. Den pågældende medlemsstat fastsætter i sin nationale lovgivning de nødvendige detaljerede regler for anmodning, udstedelse og benyttelse af samt tilsyn i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, litra d), anførte formål, herunder for hvilke af de i nr. iii) nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. Disse regler fastlægger, hvordan de berørte lokale og regionale myndigheder underrettes og høres. Denne høring bør finde sted, inden der ekstraordinært gøres brug af disse systemer i det offentlige rum. I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks om brugen af den relevante AI-praksis. |
Begrundelse
Det politiske og administrative ansvar for forvaltning og overvågning af det offentlige rum ligger hos de lokale og regionale myndigheder. De bør derfor have mulighed for at give deres input forud for ibrugtagningen af disse former for AI-praksis, og de bør informeres på passende vis om den ekstraordinære anvendelse af AI-systemer med henblik på retshåndhævelse.
I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks.
Anbefalet ændring 19
Artikel 13
Kommissionens forslag |
RU's ændringsforslag |
||||||||||
Artikel 13 Gennemsigtighed og formidling af oplysninger til brugere |
Artikel 13a Gennemsigtighed og formidling af oplysninger til brugere |
||||||||||
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed med henblik på opfyldelse af de relevante bruger- og udbyderforpligtelser, der er fastsat i dette afsnits kapitel 3. |
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed og en letforståelig redegørelse med henblik på opfyldelse af de relevante bruger- og udbyderforpligtelser, der er fastsat i dette afsnits kapitel 3. Redegørelsen skal som et minimum forelægge på sproget i det land, hvor AI-systemet tages i brug. |
||||||||||
2. Højrisiko-AI-systemer ledsages af brugsanvisninger i et passende digitalt format eller på anden vis, og disse indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for brugerne. |
2. Højrisiko-AI-systemer ledsages af klare, let forståelige og offentligt tilgængelige brugsanvisninger i et passende digitalt format eller på anden vis, og disse indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for brugerne. |
||||||||||
3. De i stk. 2 omhandlede oplysninger omfatter: |
3. De i stk. 2 omhandlede oplysninger omfatter: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
13b Gennemsigtighed og formidling af oplysninger til berørte personer Personer eller grupper af personer, der er målgruppen for anvendelsen af et højrisiko-AI-system, skal på en passende, let forståelig og let tilgængelig måde kunne finde offentligt tilgængelig information om denne anvendelse. |
Begrundelse
For at styrke tillidsmiljøet bør brugsanvisningerne til højrisiko-AI-systemer gøres tilgængelige for offentligheden. Disse brugsanvisninger skal foreligge på et sprog, der forstås af læseren i det land, hvor AI-systemet tages i brug.
I forbindelse med gennemsigtighed og forklarlighed for algoritmer bør det være muligt at forklare, hvilke parametre modellen er blevet tilpasset med, og hvilke foranstaltninger der er truffet for at forhindre overtilpasning og undertilpasning.
Artikel 13b regulerer forpligtelsen til gennemsigtighed og formidling af oplysninger til personer, der interagerer med AI-systemerne, eller som kan blive berørt af AI-systemet.
Anbefalet ændring 20
Artikel 14, stk. 4
Kommissionens forslag |
RU's ændringsforslag |
||||
De i stk. 3 omhandlede foranstaltninger gør det muligt for de personer, der foretager menneskeligt tilsyn, alt efter omstændighederne at: |
De i stk. 3 omhandlede foranstaltninger gør det muligt for de personer, der foretager menneskeligt tilsyn, alt efter omstændighederne at: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Begrundelse
Der findes flere former for forudindtagethed, som kan være problematiske. Eksempler herpå er systemudviklerens eller brugerens egen forudindtagethed (social bias) og forudindtagethed om, hvorvidt det anvendte AI-system er en passende løsning på problemet (techno bias) samt statistiske former for forudindtagethed.
Anbefalet ændring 21
Artikel 14, nyt stykke efter stk. 5
Kommissionens forslag |
RU's ændringsforslag |
|
Enhver afgørelse, der træffes af AI-systemer som omhandlet i bilag III 5. (a) og (b), skal være genstand for menneskelig indgriben og være baseret på en omhyggelig beslutningsproces. Der sikres menneskelig medvirken ved disse beslutninger. |
Begrundelse
Artikel 14 omhandler kun menneskeligt tilsyn med højrisiko-AI-systemer. I forbindelse med offentlige myndigheders beslutninger er det vigtigt, at der sikres menneskelig indgriben, kontakt og en grundig procedure.
Anbefalet ændring 22
Artikel 17, stk. 1, nye litraer efter litra m)
Kommissionens forslag |
RU's ændringsforslag |
||||
Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter: |
Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Begrundelse
Tilføjelsen understreger, at inklusion og bekæmpelse af uberettiget forskelsbehandling skal være vigtige elementer i kvalitetssystemet.
Systemet skal respektere de etiske værdier, som en bruger af AI-systemet ønsker, at systemet tager højde for, eller som udbyderen med rimelighed kan forvente vil være et krav til et højrisiko-AI-system. Udbyderen bør kunne forklare, hvordan der er taget højde for dette aspekt.
Anbefalet ændring 23
Artikel 19, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
Udbydere af højrisiko-AI-systemer sørger for, at deres systemer underkastes den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43, inden systemerne bringes i omsætning eller tages i brug. Hvis AI-systemets overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2, er blevet påvist efter denne overensstemmelsesvurdering, udarbejder udbyderen en EU-overensstemmelseserklæring, jf. artikel 48, og anbringer CE-overensstemmelsesmærkningen, jf. artikel 49. |
Udbydere af højrisiko-AI-systemer sørger for, at deres systemer underkastes den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43, inden systemerne bringes i omsætning eller tages i brug. Hvis AI-systemets overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2, er blevet påvist efter denne overensstemmelsesvurdering, udarbejder udbyderen en EU-overensstemmelseserklæring, jf. artikel 48, og anbringer CE-overensstemmelsesmærkningen, jf. artikel 49. Udbyderen af højrisiko-AI-systemer offentliggør EU-overensstemmelseserklæringen og et resumé af overensstemmelsesvurderingen på et offentligt tilgængeligt sted. |
Begrundelse
For at styrke tillidsmiljøet til AI-systemer bør udbydere af højrisiko-AI-systemer have åbenhed som mål. Offentligheden bør derfor kunne kontrollere, om overensstemmelsesvurderingen er korrekt og gennemført i overensstemmelse med forordningens bestemmelser.
Anbefalet ændring 24
Artikel 29, nyt stykke efter stk. 6
Kommissionens forslag |
RU's ændringsforslag |
|
Brugere af højrisiko-AI-systemer har ansvaret for at foretage en etisk afvejning, inden de tager systemet i brug. De bør kunne forklare de mulige konsekvenser, som teknologiens anvendelse kan få for mennesker og samfund. De skal angive deres tilsigtede formål med anvendelsen af AI-systemet, de overordnede værdier, hvordan disse værdier er blevet vægtet, og om de er blevet integreret i systemet eller ej. De evaluerer systemets reelle indvirkning på mennesker og samfund i hele AI-systemets livscyklus. |
Begrundelse
Etik er et vidt begreb. Der findes mange måder at praktisere teknologisk etik på, både med hensyn til teoretisk dokumentation og konkrete metoder, værktøjer og værdier i udviklingsprocessen. Værdier anses for vigtige af bestemte (grupper af) mennesker. De kan være specifikke eller mere konceptuelle. Det er vigtigt at bevare en åben liste over mulige moralske værdier og evaluere AI-systemet i hele dets livscyklus.
Anbefalet ændring 25
Artikel 52, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
Udbydere skal sikre, at AI-systemer, der er beregnet til at interagere med fysiske personer, udformes og udvikles på en sådan måde, at fysiske personer oplyses om, at de interagerer med et AI-system , medmindre dette er indlysende ud fra omstændighederne og anvendelsessammenhængen . Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske og retsforfølge strafbare handlinger, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde strafbare handlinger. |
Udbydere skal sikre, at AI-systemer, der er beregnet til at interagere med fysiske personer, udformes og udvikles på en sådan måde, at fysiske personer oplyses om, at de interagerer med et AI-system. Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske og retsforfølge strafbare handlinger, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde strafbare handlinger. Omfanget af muligheder og retsstillingen for fysiske personer, der interagerer med AI-systemer, må ikke begrænses som følge af denne interaktion. |
Begrundelse
Når teknologi anvendes som et middel til interaktion med fysiske personer, kan der være en risiko for, at disse fysiske personers valgmuligheder begrænses som følge af denne interaktion. Fysiske personer bør altid informeres behørigt, hver gang de interagerer med AI-systemer, og dette bør ikke afhænge af fortolkningen af en given situation. Deres rettigheder bør til enhver tid sikres i samspillet med AI-systemer.
Anbefalet ændring 26
Artikel 57, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
Udvalget består af de nationale tilsynsmyndigheder, der repræsenteres af lederen eller en tilsvarende embedsmand på højt plan i den pågældende myndighed, og Den Europæiske Tilsynsførende for Databeskyttelse. Andre nationale myndigheder kan indbydes til møderne, hvis de drøftede spørgsmål er relevante for dem. |
Udvalget består af de nationale tilsynsmyndigheder, der repræsenteres af lederen eller en tilsvarende embedsmand på højt plan i den pågældende myndighed, og Den Europæiske Tilsynsførende for Databeskyttelse. Andre nationale , regionale og lokale myndigheder kan indbydes til møderne, hvis de drøftede spørgsmål er relevante for dem. |
Begrundelse
Lokale og regionale myndigheder bør have mulighed for at deltage i tilsynet med AI-systemer og rapportere om deres anvendelse i praksis.
Anbefalet ændring 27
Artikel 58
Kommissionens forslag |
RU's ændringsforslag |
||||||||||||||||
Når Udvalget yder rådgivning og bistand til Kommissionen i forbindelse med artikel 56, stk. 2, skal det navnlig: |
Når Udvalget yder rådgivning og bistand til Kommissionen i forbindelse med artikel 56, stk. 2, skal det navnlig: |
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
Begrundelse
Lokale og regionale myndigheder er tættest på de lokale beboere og økonomier. Deres rolle skal fremhæves, så de får mulighed for at dele deres viden.
Anbefalet ændring 28
Artikel 59, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
Hver medlemsstat skal oprette eller udpege nationale kompetente myndigheder med henblik på at sikre denne forordnings anvendelse og gennemførelse. De nationale kompetente myndigheder skal være organiseret på en sådan måde, at der i deres arbejde og opgaver sikres objektivitet og uvildighed. |
Hver medlemsstat skal oprette eller udpege nationale kompetente myndigheder med henblik på at sikre denne forordnings anvendelse og gennemførelse. De nationale kompetente myndigheder skal være organiseret på en sådan måde, at der i deres arbejde og opgaver sikres objektivitet og uvildighed. De lokale og regionale myndigheder har beføjelser til at udføre tilsyns- eller håndhævelsesopgaver, i det omfang den enkelte medlemsstat finder det hensigtsmæssigt. |
Begrundelse
For at sikre, at forordningen og den gældende tilsyns- og håndhævelsesramme kan håndhæves, bør den enkelte medlemsstat have mulighed for til at tildele de lokale og regionale myndigheder tilsyns- eller håndhævelsesopgaver, hvor det er nødvendigt, og hvis det er muligt. I den sammenhæng bør de lokale og regionale myndigheder modtage støtte og skoling, så de fuldt ud er i stand til at udføre tilsyns- og håndhævelsesopgaver.
Anbefalet ændring 29
Artikel 69, stk. 3
Kommissionens forslag |
RU's ændringsforslag |
Adfærdskodekser kan udarbejdes af individuelle udbydere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af brugere og eventuelle interesserede parter og deres repræsentative organisationer. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål. |
Adfærdskodekser kan udarbejdes af nationale, regionale eller lokale myndigheder, individuelle udbydere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af brugere og eventuelle interesserede parter og deres repræsentative organisationer. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål. |
Begrundelse
Nationale, lokale og regionale myndigheder bør have juridisk beføjelse til at udarbejde adfærdskodekser for de AI-systemer, de udvikler eller anvender.
Anbefalet ændring 30
BILAG I — Teknikker og tilgange til kunstig intelligens jf. artikel 3, stk. 1
Kommissionens forslag |
RU's ændringsforslag |
||||
|
I lyset af den eksisterende videnskab omfatter kunstig intelligens følgende teknikker og metoder: |
||||
|
|
||||
|
|
||||
|
|
Begrundelse
Definitionen af og listen over AI-teknikker skal være fremtidssikret. Listen over specifikke teknikker og tilgange, der anvendes til udvikling af AI-systemer, må ikke være en udtømmende liste, og det skal være tydeligt, at den er baseret på den nuværende videnskabelige situation.
Anbefalet ændring 31
Bilag III, punkt 1-5
Kommissionens forslag |
RU's ændringsforslag |
||||
Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder: |
Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Begrundelse
Telekommunikations-, vand- og internetinfrastruktur er en integreret del af kritisk infrastruktur.
I forbindelse med kategoriseringen af højrisikosystemer er det afgørende, om systemet kan udgøre en reel risiko for borgerne. Hvis der udelukkende er tale om en analytisk og teoretisk vurdering af indbyggernes ret til offentlige tjenester, indebærer dette ikke i sig selv en høj risiko. Hvis man supplerer ordet »vurdere« med »beslutte«, understreger man, at denne risiko for indbyggerne reelt afspejles i beslutningstagningen.
II. POLITISKE ANBEFALINGER
DET EUROPÆISKE REGIONSUDVALG
Ekspertisemiljø
1. |
Det Europæiske Regionsudvalg understreger, at Kommissionens ambition om at give EU en global førerposition inden for ansvarlig udvikling af AI, der sætter mennesket i centrum, kun kan opfyldes, hvis de lokale og regionale myndigheder får tildelt en vigtig rolle. De lokale og regionale myndigheder har de bedste forudsætninger for at bidrage til at skabe gunstige rammevilkår for større investeringer i kunstig intelligens i de kommende år og fremme tilliden til denne; |
2. |
understreger, at det ud over at inddrage de lokale og regionale myndigheder er vigtigt at yde støtte og skoling for at styrke deres kompetencer på området, navnlig da de kan få tildelt tilsyns- og håndhævelsesroller; |
3. |
bemærker, at der vil blive stillet EU-midler til rådighed for udvikling af kunstig intelligens, men påpeger den fragmenterede tilgang som følge af de mange forskellige programmer. Dette øger risikoen for opsplitning og overlapning; |
4. |
opfordrer derfor Kommissionen til at udvikle og forbinde stærke og pluralistiske fælles dataområder, hvor samfundsmæssige udfordringer løses ved hjælp af offentlige og private data i forskellige brugsscenarier. Dette kræver også en afstemning med lovgivningsinitiativer under den europæiske datastrategi. |
Tillidsmiljø
5. |
Det Europæiske Regionsudvalg beklager, at forslaget til forordning ikke henviser til de lokale og regionale myndigheder, selv om den retlige ramme vil gælde for både offentlige og private aktører; |
6. |
bemærker i den sammenhæng, at AI-systemer kan spille en væsentlig rolle for lokale og regionale myndigheders interaktion med borgerne og leveringen af serviceydelser. Derudover har AI-systemer potentialet til bl.a. at øge effektiviseringen af den offentlige sektor og hjælpe lokale og regionale myndigheder med at imødekomme de tilpasninger, der skal finde sted lokalt og regionalt i forbindelse med den grønne og den digitale omstilling. Det er derfor vigtigt, at den erfaring der indhøstes hos lokale og regionale myndigheder bruges aktivt i forbindelse med den løbende revision af forordningen; |
7. |
opfordrer til yderligere præcisering af definitionerne af »udbyder« og »bruger«, navnlig i situationer, hvor virksomheder, forskningsinstitutioner, offentlige myndigheder og beboere i fællesskab udvikler og tester AI-systemer i levende laboratorier. Der bør også tages behørigt hensyn til borgere eller forbrugere, der er berørt af AI-baserede beslutninger i systemer, der anvendes af erhvervsmæssige brugere; |
8. |
understreger behovet for forudgående høring af de relevante lokale og regionale myndigheder i tilfælde af, at der anvendes AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentlige steder med henblik på retshåndhævelse; |
9. |
glæder sig over Kommissionens offentlige høring om tilpasningen af reglerne om civilretligt ansvar til de specifikke udfordringer i tilknytning til den digitale tidsalder og kunstig intelligens (1) og forventer, at dette vil resultere i en opdateret ramme, der skal sikre, at forbrugerne får erstatning for skader forårsaget af AI-applikationer; |
10. |
undrer sig over, at AI-systemer, der anvendes i demokratiske processer såsom valg, ikke står opført på listen over højrisiko-AI-systemer; |
11. |
opfordrer til, at højrisiko-AI-systemer underlægges de samme krav til gennemsigtighed og information for fysiske personer, som det i øjeblikket er tilfældet for brugerne; |
12. |
fremhæver de store menneskerettighedsrisici og konsekvenser, der er forbundet med anvendelsen af social klassificering; |
13. |
er i den forbindelse meget skeptisk over for forordningens to grunde (2) til at fastslå, hvornår en social klassificering fører til en skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf, da det er yderst vanskeligt at fastslå, at der foreligger sådanne grunde. Udvalget opfordrer på den baggrund til, at der formuleres klare garantier, som skal sikre, at forbuddet mod social klassificering ikke omgås; |
14. |
noterer sig, at betragtningerne i forordningen omhandler de risici, som fysiske personer udsættes for som følge af deres interaktion med højrisiko-AI-systemer i forbindelse med bl.a. uddannelse, beskæftigelse, forvaltning af arbejdskraft, adgang til selvstændig erhvervsvirksomhed eller adgang til og benyttelse af visse væsentlige private og offentlige tjenester; |
15. |
opfordrer Kommissionen til yderligere at undersøge klassificeringen af højrisiko-AI-systemer, der er beregnet til brug for offentlige myndigheder (3); |
16. |
opfordrer til, at der oprettes en myndighed, der kan yde vigtig forudgående rådgivning om fortolkningen af forordningens bestemmelser, også set i forhold til den generelle forordning om databeskyttelse. Dette styrker retssikkerheden og mindsker omkostningerne ved udformning og gennemførelse af AI-systemer; |
17. |
understreger i den forbindelse betydningen af klarhed i formuleringen af forordningen, hvilket er en afgørende forudsætning for at opbygge et tillidsøkosystem og fjerne den retsusikkerhed, der er forbundet med udviklingen og anvendelsen af AI-systemer. Dette vil forhindre fejlfortolkninger af de foreslåede krav og minimere risikoen for efterfølgende dårlig forvaltning af AI-applikationer, hvilket vil maksimere forordningens effektivitet og sanktionernes troværdighed. Samtidig og i overensstemmelse med Kommissionens dagsorden for bedre regulering er tidlig opsporing og eliminering af potentielle overlapninger og/eller konflikter med eksisterende regler af afgørende betydning; |
18. |
bemærker, at mange lokale og regionale myndigheder anvender de samme AI-systemer til sammenlignelige opgaver. I langt de fleste tilfælde er systemerne udviklet af private virksomheder; |
19. |
bemærker at forordningsforslaget ikke står alene i forhold til at sikre borgernes rettigheder, og at forslaget skal ses i sammenhæng med eksisterende lovgivning. Derfor opfordres medlemsstaterne til at sikre, at de løbende tager de nødvendige administrative forholdsregler i forhold til at kunne håndtere de muligheder og de risici som brugen af kunstig intelligens i den offentlige sektor medfører; |
20. |
bemærker, at dette betyder, at europæiske og nationale regler fortolkes af virksomheder og bemyndigede organer i forbindelse med overensstemmelsesvurderinger, hvilket har en indvirkning på praksis hos de lokale og regionale myndigheder, der anvender disse AI-systemer. Dette gør det vanskeligt at afgøre, i hvor høj grad de lokale og regionale politikker kan påvirke disse AI-systemer. Udvalget er derfor opmærksom på de lokale og regionale myndigheders særlige behov og på, at en »one-size-fits-all«-tilgang kan underminere AI-systemernes effektivitet med hensyn til opfyldelsen af disse behov. Derudover foreslår udvalget, at medlemsstaterne bør have beføjelse til at regulere højrisiko-AI-systemer på grundlag af tvingende og berettigede almene hensyn; |
21. |
opfordrer i den forbindelse til, at overensstemmelsesvurderingerne skal være gennemsigtige og tilgængelige for offentligheden. Derudover bør de lokale og regionale myndigheder også kunne deltage i overvågningen af AI-systemer, rapportere om deres praktiske gennemførelse og bidrage formelt til Kommissionens evaluering af anvendelsen af forordningen; |
22. |
understreger, at anvendelsen af den reguleringsmæssige sandkasse kræver, at der skabes de rette juridiske, metodologiske og etiske betingelser, der gør det muligt at udvikle teknologi, lovgivning og evaluering af lovgivning. Der bør fastsættes klare kriterier for iværksætteres adgang til den reguleringsmæssige sandkasse. For at sikre, at forbrugerorganisationer kan håndhæve bestemmelserne i retsakten om kunstig intelligens, bør sidstnævnte føjes til bilag I til direktiv (EU) 2020/1828 om adgang til anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser. |
Informationskampagner
23. |
Det Europæiske Regionsudvalg understreger betydningen af offentlige kampagner, således at den brede offentlighed er orienteret om og fortrolig med eksistensen og nytten af AI-systemer såvel som potentielle risici i forbindelse hermed. RU understreger videre det akutte behov for konkrete oplysninger til forbrugerne om kunstig intelligens/maskinstyret beslutningstagning. Udvalget opfordrer derfor Kommissionen til at stille finansiering til rådighed for sådanne kampagner. |
Administrativ byrde
24. |
Det Europæiske Regionsudvalg er bekymret for den potentielle administrative byrde ved den foreslåede forordning. Den administrative byrde kan udgøre en hindring, når små og mellemstore virksomheder og lokale og regionale myndigheder ønsker at fremme innovation og anvende AI-systemer (4). |
Proportionalitetsprincippet og nærhedsprincippet
25. |
Det Europæiske Regionsudvalg mener, at forslaget til forordning opfylder kravene i henhold til proportionalitets- og nærhedsprincippet. Merværdien af EU's indsats på dette område og hensigtsmæssigheden af de retsgrundlag, som Kommissionen har valgt, fremgår klart og konsekvent. Konsekvensanalysen indeholdt et særskilt afsnit om nærhedsprincippet. Derudover havde ingen nationale parlamenter afgivet en begrundet udtalelse om manglende overholdelse af nærhedsprincippet inden for fristen for indsendelse den 2. september 2021. |
Bruxelles, den 2. december 2021.
Apostolos TZITZIKOSTAS
Formand for Det Europæiske Regionsudvalg
([62]) Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
([62]) Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
(1) https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_da.
(2) Artikel 5, stk. 1, litra c).
(3) Bilag III, punkt 5, litra a).
(4) I en nylig undersøgelse gennemført med støtte fra Kommissionen (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, s. 12) anslås det med udgangspunkt i rimelige antagelser, at de gennemsnitlige omkostninger til certificering af et AI-system beløber sig til 16 800-23 000 EUR, hvilket svarer til 10-14 % af udviklingsomkostningerne.