28.2.2022   

DA

Den Europæiske Unions Tidende

C 97/60


Det Europæiske Regionsudvalgs udtalelse — En europæisk tilgang til kunstig intelligens — retsakten om kunstig intelligens

(revideret udtalelse)

(2022/C 97/12)

Ordfører:

Guido RINK (NL/PES), medlem af kommunalbestyrelsen i Emmen

Basisdokumenter:

Meddelelse fra Kommissionen til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget — Fremme af en europæisk tilgang til kunstig intelligens

COM(2021) 205

Forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter

COM(2021) 206

I.   ANBEFALEDE ÆNDRINGER

Anbefalet ændring 1

Betragtning 1

Kommissionens forslag

RU's ændringsforslag

Formålet med denne forordning er at forbedre det indre markeds funktion ved at fastlægge ensartede retlige rammer, navnlig for udvikling, markedsføring og anvendelse af kunstig intelligens i overensstemmelse med Unionens værdier. Med denne forordning forfølges en række tvingende almene hensyn, såsom et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder, og den sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser på tværs af grænserne og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i henhold til denne forordning.

Formålet med denne forordning er at forbedre det indre markeds funktion og beskytte borgernes grundlæggende rettigheder ved at fastlægge ensartede retlige rammer, navnlig for udvikling, markedsføring og anvendelse af kunstig intelligens i overensstemmelse med Unionens værdier. Med denne forordning forfølges en række tvingende almene hensyn, såsom et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder, og den sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser på tværs af grænserne og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i henhold til denne forordning.

Begrundelse

Henvisningen til de grundlæggende rettigheder har til formål at understrege sammenhængen med EU's charter om grundlæggende rettigheder.

Anbefalet ændring 2

Ny betragtning efter betragtning 6

Kommissionens forslag

RU's ændringsforslag

 

Definitionen af AI-systemer er en kontinuerlig proces, der tager hensyn til den kontekst, som kunstig intelligens fungerer i. Den bør holde trit med den samfundsmæssige udvikling på dette område og ikke glemme forbindelsen mellem henholdsvis ekspertisemiljøet og tillidsmiljøet.

Begrundelse

Udviklingen inden for kunstig intelligens og teknologi kræver en fleksibel tilgang, der løbende evalueres. Denne betragtning påpeger, at definitionen af kunstig intelligens bør afspejle udviklingen inden for AI-systemer og -applikationer over tid.

Anbefalet ændring 3

Betragtning 20

Kommissionens forslag

RU's ændringsforslag

For at sikre, at disse systemer anvendes på en ansvarlig og rimelig måde, er det også vigtigt at fastslå, at der i hver af disse tre udtømmende opregnede og snævert definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder samt de garantier og betingelser, der er fastsat for brugen. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør desuden underlægges passende begrænsninger i tid og sted, navnlig med hensyn til beviser eller indikationer vedrørende truslerne, ofrene eller gerningsmanden. Referencedatabasen over personer bør være passende for hvert enkelt anvendelsestilfælde i hver af de tre ovennævnte situationer.

For at sikre, at disse systemer anvendes på en ansvarlig og rimelig måde, er det også vigtigt at fastslå, at der i hver af disse tre udtømmende opregnede og snævert definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder samt de garantier og betingelser, der er fastsat for brugen. De relevante lokale og regionale myndigheder bør høres forud for den ekstraordinære anvendelse af disse systemer. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør desuden underlægges strenge begrænsninger i tid og sted, navnlig med hensyn til beviser eller indikationer vedrørende truslerne, ofrene eller gerningsmanden. Referencedatabasen over personer bør være passende for hvert enkelt anvendelsestilfælde i hver af de tre ovennævnte situationer.

Begrundelse

Systemer til biometrisk fjernidentifikation i realtid bør bruges med omtanke.

Anbefalet ændring 4

Betragtning 21

Kommissionens forslag

RU's ændringsforslag

Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en judiciel myndighed eller en uafhængig administrativ myndighed i en medlemsstat. En sådan tilladelse bør i princippet indhentes forud for anvendelsen, undtagen i behørigt begrundede hastende tilfælde, dvs. situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt umuligt at opnå en tilladelse, inden anvendelsen påbegyndes. I sådanne hastende situationer bør anvendelsen begrænses til det absolut nødvendige minimum og være underlagt passende garantier og betingelser som fastsat i national ret og præciseret af den retshåndhævende myndighed selv i forbindelse med hver enkelt hastesag . Desuden bør den retshåndhævende myndighed i sådanne situationer søge at opnå en tilladelse så hurtigt som muligt og samtidig begrunde, hvorfor den ikke har været i stand til at anmode om den tidligere .

Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en judiciel myndighed eller en uafhængig administrativ myndighed i en medlemsstat. En sådan tilladelse bør indhentes forud for anvendelsen, undtagen i behørigt begrundede hastende tilfælde, dvs. situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt umuligt at opnå en tilladelse, inden anvendelsen påbegyndes. I alle tilfælde bør anvendelsen begrænses til det absolut nødvendige minimum og være underlagt passende garantier og betingelser som fastsat i national ret. Desuden bør den retshåndhævende myndighed straks informere de relevante lokale og regionale myndigheder og søge at opnå en tilladelse hos de kompetente myndigheder .

Begrundelse

Det politiske og administrative ansvar for forvaltning og overvågning af det offentlige rum ligger hos de lokale og regionale myndigheder. De bør derfor inddrages på passende vis ved brugen af sådanne systemer i det offentlige rum. I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks om brugen af biometriske systemer i det offentlige rum.

Anbefalet ændring 5

Betragtning 39

Kommissionens forslag

RU's ændringsforslag

AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de kompetente offentlige myndigheders handlinger. I AI-systemer, der anvendes i disse sammenhænge, er nøjagtighed, gennemsigtighed og systemets ikkediskriminerende karakter derfor særlig vigtige med hensyn til at sikre, at de berørte personers grundlæggende rettigheder beskyttes, navnlig deres ret til fri bevægelighed, beskyttelse mod forskelsbehandling, beskyttelse af privatlivets fred og personoplysninger, international beskyttelse og god forvaltning. Derfor bør de AI-systemer, der er beregnet til at blive anvendt af de kompetente offentlige myndigheder, der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og grænsekontrol, som polygrafer og lignende værktøjer eller til at påvise en fysisk persons følelsesmæssige tilstand, vurdere visse risici, som fysiske personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, kontrollere ægtheden af fysiske personers relevante dokumenter, bistå de kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, klassificeres som højrisikosystemer. AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør opfylde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets direktiv 2013/32/EU, Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 og anden relevant lovgivning.

AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de kompetente offentlige myndigheders handlinger. I AI-systemer, der anvendes i disse sammenhænge, er nøjagtighed, gennemsigtighed og systemets ikkediskriminerende karakter derfor særlig vigtige med hensyn til at sikre, at de berørte personers grundlæggende rettigheder beskyttes, navnlig deres ret til fri bevægelighed, beskyttelse mod forskelsbehandling, beskyttelse af privatlivets fred og personoplysninger, international beskyttelse og god forvaltning. Derfor skal de AI-systemer, der er beregnet til at blive anvendt af de kompetente offentlige myndigheder, der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og grænsekontrol, som polygrafer og lignende værktøjer eller til at påvise en fysisk persons følelsesmæssige tilstand, vurdere visse risici, som fysiske personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, kontrollere ægtheden af fysiske personers relevante dokumenter, bistå de kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, klassificeres som højrisikosystemer. AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør opfylde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets direktiv 2013/32/EU, Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 og anden relevant lovgivning.

Begrundelse

Denne tilpasning afspejler behovet for at underkaste de pågældende AI-systemer de skærpede regler for højrisiko-AI-systemer.

Anbefalet ændring 6

Betragtning 43

Kommissionens forslag

RU's ændringsforslag

Der bør gælde krav for højrisiko-AI-systemer med hensyn til kvaliteten af de anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysninger til brugerne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for menneskers sundhed, sikkerhed og grundlæggende rettigheder, alt efter hvad der i lyset af systemets tilsigtede formål er relevant, og hvis foranstaltninger, der er mindre begrænsende for handelen, ikke er mulige, således at uberettigede handelsrestriktioner undgås.

Der bør gælde krav for højrisiko-AI-systemer med hensyn til kvaliteten af de anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysninger til brugerne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for menneskers sundhed, sikkerhed , datasikkerhed, forbrugerrettigheder og grundlæggende rettigheder, alt efter hvad der i lyset af systemets formål er relevant, og hvis foranstaltninger, der er mindre begrænsende for handelen, ikke er mulige, således at uberettigede handelsrestriktioner undgås. Fysiske personer eller grupper af personer, der er berørt af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet eller på anden måde tages i brug, bør på en passende, let tilgængelig og let forståelig måde kunne finde offentligt tilgængelig information om, at de er omfattet af sådanne systemer.

Begrundelse

De gennemsigtigheds- og oplysningskrav, der gælder for udbydere og brugere, bør udvides til at omfatte de personer eller grupper af personer, der kan blive berørt af anvendelsen af højrisiko-AI-systemer, jf. bilag III til forordningen. Med en »let forståelig« måde menes også et sprog, der er klart og tilgængeligt for brugeren, herunder mundtligt hørbare og manuelt visuelle sprog.

Anbefalet ændring 7

Ny betragtning efter betragtning 44

Kommissionens forslag

RU's ændringsforslag

 

Udbydere af AI-systemer skal sikre, at deres kvalitetsstyringssystemer ikke indeholder foranstaltninger, der fremmer uberettiget forskelsbehandling på grund af køn, oprindelse, religion eller tro, handicap, alder, seksuel orientering eller forskelsbehandling på et hvilket som helst andet grundlag.

Begrundelse

Ulovlig forskelsbehandling er resultatet af menneskelige handlinger. Udbydere af AI-systemer skal sikre, at deres kvalitetsstyringssystemer ikke indeholder foranstaltninger, der kan fremme forskelsbehandling.

Anbefalet ændring 8

Betragtning 47

Kommissionens forslag

RU's ændringsforslag

For at afhjælpe den uigennemsigtighed, der kan gøre visse AI-systemer uforståelige eller for komplekse for fysiske personer, bør der kræves en vis grad af gennemsigtighed for højrisiko-AI-systemer. Brugerne bør kunne fortolke systemets output og anvende det korrekt. Højrisiko-AI-systemer bør derfor ledsages af relevant dokumentation og en brugsanvisning og indeholde kortfattede og klare oplysninger, blandt andet om mulige risici med hensyn til grundlæggende rettigheder og forskelsbehandling, hvis det er relevant.

For at afhjælpe den uigennemsigtighed, der kan gøre visse AI-systemer uforståelige eller for komplekse for fysiske personer eller offentlige myndigheder på alle forvaltningsniveauer, bør der kræves en høj grad af gennemsigtighed for højrisiko-AI-systemer. Brugerne bør kunne fortolke systemets output og anvende det korrekt. Højrisiko-AI-systemer bør derfor ledsages af relevant dokumentation og en brugsanvisning og indeholde kortfattede og klare oplysninger, blandt andet om mulige risici med hensyn til grundlæggende rettigheder og forskelsbehandling, hvis det er relevant.

Begrundelse

Ansvarligheden hos dem, der udvikler højrisiko-AI-systemer, svækkes gennem formuleringen »en vis grad af gennemsigtighed«.

Anbefalet ændring 9

Betragtning 48

Kommissionens forslag

RU's ændringsforslag

Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer kan føre tilsyn med deres funktion. Udbyderen af systemet bør derfor fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i omsætning eller tages i brug. Hvor det er relevant, bør sådanne foranstaltninger navnlig sikre, at systemet er underlagt den menneskelige operatør og indbyggede driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og at de fysiske personer, som fører det menneskelige tilsyn, har de nødvendige kompetencer og den nødvendige uddannelse og beføjelse til at varetage rollen.

Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer og offentlige myndigheder på alle forvaltningsniveauer kan føre tilsyn med deres funktion. Udbyderen af systemet bør derfor fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i omsætning eller tages i brug. Hvor det er relevant, bør sådanne foranstaltninger navnlig sikre, at systemet er underlagt den menneskelige operatør og indbyggede driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og at de fysiske personer, som fører det menneskelige tilsyn, har de nødvendige kompetencer og den nødvendige uddannelse og beføjelse til at varetage rollen.

Begrundelse

Giver sig selv.

Anbefalet ændring 10

Betragtning 67

Kommissionens forslag

RU's ændringsforslag

Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse med denne forordning, således at de kan bevæge sig frit på det indre marked. Medlemsstaterne bør ikke skabe uberettigede hindringer for omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der opfylder kravene i denne forordning, og som er forsynet med CE-mærkning.

Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse med denne forordning, således at de kan bevæge sig frit på det indre marked. Medlemsstaterne bør ikke skabe hindringer for omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der opfylder kravene i denne forordning, og som er forsynet med CE-mærkning. Medlemsstaterne har udelukkende beføjelse til at regulere højrisiko-AI-praksis og højrisiko-AI-systemer på grundlag af behørigt begrundede almene hensyn og hensyn til den nationale sikkerhed.

Begrundelse

Medlemsstaterne må ikke forhindre anvendelse af forordningen, men de bør bevare retten til at regulere højrisiko-AI-systemer, hvis almene hensyn og nationale sikkerhedsinteresser står på spil.

Anbefalet ændring 11

Betragtning 70

Kommissionens forslag

RU's ændringsforslag

Visse AI-systemer, der er beregnet til at interagere med fysiske personer eller generere indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisikosystemer eller ej. Under visse omstændigheder bør a nvendelsen af disse systemer derfor være underlagt særlige gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer. Fysiske personer bør navnlig underrettes om, at de interagerer med et AI-system , medmindre dette fremgår tydeligt af omstændighederne og konteksten for anvendelsen . Fysiske personer bør desuden underrettes, når de udsættes for et system til følelsesgenkendelse eller et system til biometrisk kategorisering. Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap. Endvidere bør de brugere, der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, steder eller begivenheder, og som fejlagtigt vil fremstå ægte, oplyse, at indholdet er kunstigt skabt eller manipuleret, ved at mærke outputtet og oplyse om dets kunstige oprindelse.

Visse AI-systemer, der er beregnet til at interagere med fysiske personer eller generere indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisikosystemer eller ej. A nvendelsen af disse systemer bør derfor være underlagt særlige gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer. Fysiske personer bør systematisk underrettes om, at de interagerer med et AI-system. Fysiske personer bør desuden underrettes, når de udsættes for et system til følelsesgenkendelse eller et system til biometrisk kategorisering. Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap. Endvidere bør de brugere, der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, steder eller begivenheder, og som fejlagtigt vil fremstå ægte, oplyse, at indholdet er kunstigt skabt eller manipuleret, ved at mærke outputtet og oplyse om dets kunstige oprindelse.

Begrundelse

Der bør ikke gøres undtagelser fra forpligtelsen til gennemsigtighed og information, når fysiske personer interagerer med AI-systemer.

Anbefalet ændring 12

Betragtning 76

Kommissionens forslag

RU's ændringsforslag

For at fremme en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør der nedsættes et europæisk udvalg for kunstig intelligens. Udvalget bør være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger, rådgivning eller vejledning om spørgsmål vedrørende gennemførelsen af denne forordning, herunder med hensyn til tekniske specifikationer eller eksisterende standarder, der er relateret til de krav, der er fastsat i denne forordning, samt rådgive og bistå Kommissionen i forbindelse med specifikke spørgsmål vedrørende kunstig intelligens.

For at fremme en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør der nedsættes et europæisk udvalg for kunstig intelligens. Udvalget bør være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger, rådgivning eller vejledning om spørgsmål vedrørende gennemførelsen af denne forordning, herunder med hensyn til tekniske specifikationer eller eksisterende standarder, der er relateret til de krav, der er fastsat i denne forordning, samt rådgive og bistå Kommissionen i forbindelse med specifikke spørgsmål vedrørende kunstig intelligens. Medlemmerne af det europæiske udvalg for kunstig intelligens bør repræsentere de forskellige interessegrupper i det europæiske samfund. Det europæiske udvalg for kunstig intelligens bør have en ligelig kønsfordeling.

Begrundelse

Det europæiske udvalg for kunstig intelligens bør på passende vis repræsentere de mange forskellige interessegrupper i det europæiske samfund. Dette omfatter emner som menneskerettigheder, klima og energieffektiv anvendelse af AI-systemer, sikkerhed, social inklusion, sundhed osv. En ligelig kønsfordeling er en forudsætning for diversitet i rådgivningen, ved udarbejdelsen af retningslinjer osv.

Anbefalet ændring 13

Betragtning 77

Kommissionens forslag

RU's ændringsforslag

Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I den forbindelse bør hver medlemsstat udpege en eller flere nationale kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af denne forordning. For at øge organisationseffektiviteten for medlemsstaternes vedkommende og for at oprette et officielt kontaktpunkt for offentligheden og andre modparter på nationalt plan og EU-plan bør der i hver medlemsstat udpeges en national myndighed som national tilsynsmyndighed.

Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I den forbindelse bør hver medlemsstat udpege en eller flere nationale kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af denne forordning. For at øge organisationseffektiviteten for medlemsstaternes vedkommende og for at oprette et officielt kontaktpunkt for offentligheden og andre modparter på nationalt plan og EU-plan bør der i hver medlemsstat udpeges en national myndighed som national tilsynsmyndighed. De lokale og regionale myndigheder tildeles tilsyns- eller håndhævelsesopgaver, i det omfang den enkelte medlemsstat finder det hensigtsmæssigt.

Begrundelse

For at sikre, at forordningen og dens tilsyns- og håndhævelsesramme kan gennemføres, bør den enkelte medlemsstat have beføjelse til at lade de lokale og regionale myndigheder udføre tilsyns- eller håndhævelsesopgaver, hvor det er nødvendigt, og hvis det er muligt.

Anbefalet ændring 14

Betragtning 79

Kommissionens forslag

RU's ændringsforslag

For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er fastsat i denne forordning, som udgør EU-harmoniseringslovgivning, bør det system til markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde anvendelse i sin helhed. Nationale offentlige myndigheder eller organer, der fører tilsyn med anvendelsen af EU-lovgivningen om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer, bør i det omfang, det er nødvendigt for deres mandat, også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning.

For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er fastsat i denne forordning, som udgør EU-harmoniseringslovgivning, bør det system til markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde anvendelse i sin helhed. Nationale offentlige myndigheder , og hvis det er relevant lokale og regionale myndigheder eller organer, der fører tilsyn med anvendelsen af EU-lovgivningen om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer, bør i det omfang, det er nødvendigt for deres mandat, også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning.

Begrundelse

Dette ændringsforslag tager højde for de forskellige forvaltningsstrukturer i EU's medlemsstater.

Anbefalet ændring 15

Betragtning 83

Kommissionens forslag

RU's ændringsforslag

For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på EU-plan og nationalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver.

For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på EU-plan, nationalt , regionalt og lokalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver.

Begrundelse

Dette ændringsforslag tager højde for de forskellige forvaltningsstrukturer i EU's medlemsstater.

Anbefalet ændring 16

AFSNIT I, Artikel 3, stk. 1 — Definitioner

Kommissionens forslag

RU's ændringsforslag

»system med kunstig intelligens« (AI-system): software, der er udviklet ved hjælp af en eller flere af de i bilag I anførte teknikker og tilgange, og som med henblik på et givet sæt mål, der er fastsat af mennesker, kan generere output såsom indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, de interagerer med

»system med kunstig intelligens« (AI-system): software, der er udviklet af mennesker ved hjælp af en eller flere af de teknikker og tilgange , der er anført på den ikke-udtømmende liste i bilag I, i et samspil med social praksis, identitet og kultur , og som med henblik på et givet sæt mål, der er fastsat af mennesker, kan generere output såsom indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker de miljøer, de interagerer med ved at observere omgivelserne, indsamle data, fortolke de indsamlede strukturerede eller ustrukturerede data, styre denne viden eller forarbejde information udledt af disse data

Begrundelse

Et AI-system består af en kombination af tekniske elementer, der forbinder data, algoritmer og computerkraft med social praksis, samfundet, identitet og kultur. Definitionen af et sådant dynamisk socio-teknisk aggregat bør derfor være fremtidssikret og opdateres regelmæssigt for præcist at afspejle AI's stadig større indvirkning på samfundet og kortlægge de hurtigt skiftende udfordringer og muligheder i tilknytning til kunstig intelligens. Det gælder også forbindelsen mellem vidensstyring og AI. I den sammenhæng bør en algoritme udviklet af en anden algoritme også være underlagt forordningen.

Anbefalet ændring 17

Artikel 5, stk. 1

Kommissionens forslag

RU's ændringsforslag

Følgende former for praksis med hensyn til kunstig intelligens er forbudt:

Følgende former for praksis med hensyn til kunstig intelligens er forbudt:

a)

omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender subliminale teknikker, der rækker ud over den menneskelige bevidsthed, med henblik på i væsentlig grad at fordreje en persons adfærd på en måde, der påfører eller sandsynligvis vil påføre den pågældende person eller en anden person fysisk eller psykisk skade

a)

omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender subliminale teknikker, der rækker ud over den menneskelige bevidsthed, med henblik på i væsentlig grad at fordreje en persons adfærd på en måde, der påfører eller sandsynligvis vil påføre den pågældende person eller en anden person fysisk eller psykisk skade , overtræder eller som kan forventes at overtræde en anden persons eller en gruppe af personers grundlæggende rettigheder, herunder deres ret til fysisk eller psykisk sundhed og sikkerhed, har forårsaget eller kan forventes at forårsage forbrugerne skade eller tab som f.eks. økonomisk tab eller forskelsbehandling, eller som undergraver eller kan forventes at undergrave demokratiet og retsstaten

b)

omsætning, ibrugtagning eller anvendelse af et AI-system, der udnytter enhver af en specifik gruppe af personers sårbarheder på grundlag af alder eller fysisk eller psykisk handicap med henblik på i væsentlig grad at fordreje en til gruppen hørende persons adfærd på en måde, der påfører eller sandsynligvis vil påføre den pågældende person eller en anden person fysisk eller psykisk skade

b)

omsætning, ibrugtagning eller anvendelse af et AI-system, der udnytter enhver af en specifik gruppe af personers sårbarheder på grundlag af alder eller fysisk eller psykisk handicap med henblik på i væsentlig grad at fordreje en til gruppen hørende persons adfærd på en måde, der påfører eller sandsynligvis vil påføre den pågældende person eller en anden person fysisk eller psykisk skade

c)

omsætning, ibrugtagning eller anvendelse af AI-systemer fra offentlige myndigheders side eller på deres vegne med henblik på evaluering eller klassificering af fysiske personers troværdighed over en given periode på grundlag af deres sociale adfærd eller kendte eller forudsagte personlige egenskaber eller personlighedstræk , således at den sociale bedømmelse fører til et eller begge følgende udfald:

i)

skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf i sociale sammenhænge, som ikke har noget at gøre med de sammenhænge, i hvilke dataene oprindeligt blev genereret eller indsamlet

ii)

skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf, som er uberettiget eller uforholdsmæssig i forhold til deres sociale adfærd eller alvorligheden heraf

c)

omsætning, ibrugtagning eller anvendelse af AI-systemer fra offentlige myndigheders side eller på deres vegne med henblik på evaluering eller klassificering af fysiske personers eller grupper af personers troværdighed over en given periode på grundlag af deres sociale adfærd eller kendte eller forudsagte personlige egenskaber eller personlighedstræk , som fører til brug af AI-baserede sociale pointsystemer til generelle formål ;

d)

anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse, medmindre og i det omfang en sådan anvendelse er strengt nødvendig for et af følgende formål:

i)

målrettet eftersøgning af specifikke potentielle ofre for kriminalitet, herunder forsvundne børn

ii)

forebyggelse af en specifik, væsentlig og overhængende trussel mod fysiske personers liv eller fysiske sikkerhed eller om et terrorangreb

iii)

afsløring, lokalisering, identifikation eller retsforfølgning af en gerningsmand, der har begået, eller af en person, der mistænkes for at have begået, en strafbar handling, der er omhandlet i artikel 2, stk. 2, i Rådets rammeafgørelse 2002/584/JHA ([62]), og som i den pågældende medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst tre år som fastsat i denne medlemsstats lovgivning.

d)

omsætning, ibrugtagning eller anvendelse af AI-systemer fra offentlige myndigheders side eller på deres vegne, anvendelse af AI-baserede sociale pointsystemer uden menneskeligt tilsyn til bestemte formål, dvs. i sociale sammenhænge, som ikke har noget at gøre med de sammenhænge, i hvilke dataene oprindeligt blev genereret eller indsamlet, med henblik på evaluering eller klassificering af fysiske personers eller grupper af personers troværdighed over en given periode på grundlag af deres sociale adfærd eller kendte eller forudsagte personlige egenskaber eller personlighedstræk, således at den sociale bedømmelse fører til skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf, som er uberettiget eller uforholdsmæssig i forhold til deres sociale adfærd eller alvorligheden heraf;

 

e)

anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse, medmindre og i det omfang en sådan anvendelse er strengt nødvendig for et af følgende formål:

i)

målrettet eftersøgning af specifikke potentielle ofre for kriminalitet, herunder forsvundne børn

ii)

forebyggelse af en specifik, væsentlig og overhængende trussel mod fysiske personers liv eller fysiske sikkerhed eller om et terrorangreb

iii)

afsløring, lokalisering, identifikation eller retsforfølgning af en gerningsmand, der har begået, eller af en person, der mistænkes for at have begået, en strafbar handling, der er omhandlet i artikel 2, stk. 2, i Rådets rammeafgørelse 2002/584/JHA ([62]), og som i den pågældende medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst tre år som fastsat i denne medlemsstats lovgivning.

Begrundelse

Subliminale teknikker kan generelt undergrave frihed, menneskerettigheder og dermed den demokratiske retsstats funktion. Samtidig kan kunstig intelligens underminere forbrugerrettigheder. Formålet med tilføjelserne er at præcisere dette.

Hvad angår social klassificering anvendt af offentlige myndigheder eller på deres vegne bør det forbydes, hvis det gennemføres med henblik på generelle formål, på grund af den fare, der er forbundet med en sådan praksis, sådan som det er forklaret i betragtning 17. Generering eller indsamling af data til specifikke formål bør kun tillades, hvis der føres menneskeligt tilsyn med det, og såfremt det ikke krænker retten til værdighed og retten til beskyttelse mod forskelsbehandling og værdierne lighed og retfærdighed.

Anbefalet ændring 18

Artikel 5, stk. 4

Kommissionens forslag

RU's ændringsforslag

En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, litra d), og stk. 2 og 3. Den pågældende medlemsstat fastsætter i sin nationale lovgivning de nødvendige detaljerede regler for anmodning, udstedelse og benyttelse af samt tilsyn i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, litra d), anførte formål, herunder for hvilke af de i nr. iii) nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse.

En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, litra d), og stk. 2 og 3. Den pågældende medlemsstat fastsætter i sin nationale lovgivning de nødvendige detaljerede regler for anmodning, udstedelse og benyttelse af samt tilsyn i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, litra d), anførte formål, herunder for hvilke af de i nr. iii) nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. Disse regler fastlægger, hvordan de berørte lokale og regionale myndigheder underrettes og høres. Denne høring bør finde sted, inden der ekstraordinært gøres brug af disse systemer i det offentlige rum. I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks om brugen af den relevante AI-praksis.

Begrundelse

Det politiske og administrative ansvar for forvaltning og overvågning af det offentlige rum ligger hos de lokale og regionale myndigheder. De bør derfor have mulighed for at give deres input forud for ibrugtagningen af disse former for AI-praksis, og de bør informeres på passende vis om den ekstraordinære anvendelse af AI-systemer med henblik på retshåndhævelse.

I presserende tilfælde, hvor det ikke er rimeligt at afvente en forudgående høring, underrettes den pågældende lokale eller regionale myndighed straks.

Anbefalet ændring 19

Artikel 13

Kommissionens forslag

RU's ændringsforslag

Artikel 13 Gennemsigtighed og formidling af oplysninger til brugere

Artikel 13a Gennemsigtighed og formidling af oplysninger til brugere

1.   Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed med henblik på opfyldelse af de relevante bruger- og udbyderforpligtelser, der er fastsat i dette afsnits kapitel 3.

1.   Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at brugerne kan fortolke systemets output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed og en letforståelig redegørelse med henblik på opfyldelse af de relevante bruger- og udbyderforpligtelser, der er fastsat i dette afsnits kapitel 3. Redegørelsen skal som et minimum forelægge på sproget i det land, hvor AI-systemet tages i brug.

2.   Højrisiko-AI-systemer ledsages af brugsanvisninger i et passende digitalt format eller på anden vis, og disse indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for brugerne.

2.   Højrisiko-AI-systemer ledsages af klare, let forståelige og offentligt tilgængelige brugsanvisninger i et passende digitalt format eller på anden vis, og disse indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for brugerne.

3.   De i stk. 2 omhandlede oplysninger omfatter:

3.   De i stk. 2 omhandlede oplysninger omfatter:

a)

identitet på og kontaktoplysninger for udbyderen og dennes eventuelle bemyndigede repræsentant

a)

identitet på og kontaktoplysninger for udbyderen og dennes eventuelle bemyndigede repræsentant

b)

højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne, herunder:

b)

højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne, herunder:

 

i)

systemets tilsigtede formål

 

i)

systemets tilsigtede formål

 

ii)

det niveau af nøjagtighed, robusthed og cybersikkerhed, jf. artikel 15, i forhold til hvilket højrisiko-AI-systemet er testet og valideret, og som kan forventes, samt alle kendte og forudsigelige omstændigheder, der kan have indvirkning på det forventede niveau af nøjagtighed, robusthed og cybersikkerhed

 

ii)

det niveau af nøjagtighed (som fastlagt i de relevante parametre til evaluering af modeller) , robusthed og cybersikkerhed, jf. artikel 15, i forhold til hvilket højrisiko-AI-systemet er testet og valideret, og som kan forventes, samt alle kendte og forudsigelige omstændigheder, der kan have indvirkning på det forventede niveau af nøjagtighed, robusthed og cybersikkerhed

 

iii)

alle kendte eller forudsigelige omstændigheder, som i forbindelse med anvendelse af højrisiko-AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses, kan medføre risici for menneskers sundhed og sikkerhed eller grundlæggende rettigheder

 

iii)

alle kendte eller forudsigelige omstændigheder, som i forbindelse med anvendelse af højrisiko-AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses, kan medføre risici for menneskers sundhed og sikkerhed eller grundlæggende rettigheder

 

iv)

systemets ydeevne for så vidt angår de personer eller grupper af personer, på hvilke systemet er beregnet til at blive anvendt

 

iv)

systemets ydeevne for så vidt angår de personer eller grupper af personer, på hvilke systemet er beregnet til at blive anvendt

 

v)

hvis det er relevant, specifikationer for inputdata eller andre relevante oplysninger med hensyn til de anvendte trænings-, validerings- og prøvningsdatasæt under hensyntagen til AI-systemets tilsigtede formål

 

v)

hvis det er relevant, specifikationer for inputdata eller andre relevante oplysninger med hensyn til de anvendte trænings-, validerings- og prøvningsdatasæt under hensyntagen til AI-systemets tilsigtede formål

vi)

de parametre, der er anvendt til at justere modellen, og de foranstaltninger, der er truffet for at undgå overtilpasning og undertilpasning .

c)

eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen på forhånd har fastsat på tidspunktet for den indledende overensstemmelsesvurdering

c)

eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen på forhånd har fastsat på tidspunktet for den indledende overensstemmelsesvurdering

d)

foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette brugernes fortolkning af AI-systemets output

d)

foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette brugernes fortolkning af AI-systemets output

e)

højrisiko-AI-systemets forventede levetid og eventuelle nødvendige vedligeholdelses- og plejeforanstaltninger for at sikre, at AI-systemet fungerer korrekt, herunder med hensyn til softwareopdateringer.

e)

højrisiko-AI-systemets forventede levetid og eventuelle nødvendige vedligeholdelses- og plejeforanstaltninger for at sikre, at AI-systemet fungerer korrekt, herunder med hensyn til softwareopdateringer.

 

13b Gennemsigtighed og formidling af oplysninger til berørte personer

Personer eller grupper af personer, der er målgruppen for anvendelsen af et højrisiko-AI-system, skal på en passende, let forståelig og let tilgængelig måde kunne finde offentligt tilgængelig information om denne anvendelse.

Begrundelse

For at styrke tillidsmiljøet bør brugsanvisningerne til højrisiko-AI-systemer gøres tilgængelige for offentligheden. Disse brugsanvisninger skal foreligge på et sprog, der forstås af læseren i det land, hvor AI-systemet tages i brug.

I forbindelse med gennemsigtighed og forklarlighed for algoritmer bør det være muligt at forklare, hvilke parametre modellen er blevet tilpasset med, og hvilke foranstaltninger der er truffet for at forhindre overtilpasning og undertilpasning.

Artikel 13b regulerer forpligtelsen til gennemsigtighed og formidling af oplysninger til personer, der interagerer med AI-systemerne, eller som kan blive berørt af AI-systemet.

Anbefalet ændring 20

Artikel 14, stk. 4

Kommissionens forslag

RU's ændringsforslag

De i stk. 3 omhandlede foranstaltninger gør det muligt for de personer, der foretager menneskeligt tilsyn, alt efter omstændighederne at:

De i stk. 3 omhandlede foranstaltninger gør det muligt for de personer, der foretager menneskeligt tilsyn, alt efter omstændighederne at:

a)

forstå højrisiko-AI-systemets kapacitet og begrænsninger fuldt ud og være i stand til at overvåge dets drift på behørig vis, således at tegn på uregelmæssigheder, funktionsforstyrrelser og uventet ydeevne kan opdages og afhjælpes så hurtigt som muligt

a)

forstå højrisiko-AI-systemets kapacitet og begrænsninger fuldt ud og være i stand til at overvåge dets drift på behørig vis, således at tegn på uregelmæssigheder, funktionsforstyrrelser og uventet ydeevne kan opdages og afhjælpes så hurtigt som muligt

b)

være opmærksomme på den mulige tendens til automatisk eller i overdreven grad af forlade sig på output fra højrisiko-AI-systemet (» automatiseringspartiskhed «), navnlig for så vidt angår højrisiko-AI-systemer, der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal træffes af fysiske personer

b)

være opmærksomme på den mulige tendens til automatisk eller i overdreven grad af forlade sig på output fra højrisiko-AI-systemet (» automatiseringsbias «) eller enhver anden form for bias , navnlig for så vidt angår højrisiko-AI-systemer, der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal træffes af fysiske personer

c)

kunne fortolke højrisiko-AI-systemets output korrekt under hensyntagen til navnlig systemets egenskaber og de tilgængelige fortolkningsværktøjer og -metoder

c)

kunne fortolke højrisiko-AI-systemets output korrekt under hensyntagen til navnlig systemets egenskaber og de tilgængelige fortolkningsværktøjer og -metoder

d)

kunne beslutte ikke at anvende højrisiko-AI-systemet eller på anden måde se bort fra, tilsidesætte eller omgøre output fra højrisiko-AI-systemet i enhver given situation

d)

kunne beslutte ikke at anvende højrisiko-AI-systemet eller på anden måde se bort fra, tilsidesætte eller omgøre output fra højrisiko-AI-systemet i enhver given situation

e)

kunne gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp af en »stopknap« eller en lignende procedure.

e)

kunne gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp af en »stopknap« eller en lignende procedure.

Begrundelse

Der findes flere former for forudindtagethed, som kan være problematiske. Eksempler herpå er systemudviklerens eller brugerens egen forudindtagethed (social bias) og forudindtagethed om, hvorvidt det anvendte AI-system er en passende løsning på problemet (techno bias) samt statistiske former for forudindtagethed.

Anbefalet ændring 21

Artikel 14, nyt stykke efter stk. 5

Kommissionens forslag

RU's ændringsforslag

 

Enhver afgørelse, der træffes af AI-systemer som omhandlet i bilag III 5. (a) og (b), skal være genstand for menneskelig indgriben og være baseret på en omhyggelig beslutningsproces. Der sikres menneskelig medvirken ved disse beslutninger.

Begrundelse

Artikel 14 omhandler kun menneskeligt tilsyn med højrisiko-AI-systemer. I forbindelse med offentlige myndigheders beslutninger er det vigtigt, at der sikres menneskelig indgriben, kontakt og en grundig procedure.

Anbefalet ændring 22

Artikel 17, stk. 1, nye litraer efter litra m)

Kommissionens forslag

RU's ændringsforslag

Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter:

Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter:

a)

en strategi for overholdelse af lovgivningen, herunder overholdelse af overensstemmelsesvurderingsprocedurer og procedurer for forvaltning af ændringer af højrisiko-AI-systemet

a)

en strategi for overholdelse af lovgivningen, herunder overholdelse af overensstemmelsesvurderingsprocedurer og procedurer for forvaltning af ændringer af højrisiko-AI-systemet

b)

teknikker, procedurer og systematiske foranstaltninger, der anvendes til udformning samt kontrol og verifikation af udformningen af højrisiko-AI-systemet

b)

teknikker, procedurer og systematiske foranstaltninger, der anvendes til udformning samt kontrol og verifikation af udformningen af højrisiko-AI-systemet

c)

teknikker, procedurer og systematiske foranstaltninger, der anvendes til udvikling, kvalitetskontrol og kvalitetssikring af højrisiko-AI-systemet

c)

teknikker, procedurer og systematiske foranstaltninger, der anvendes til udvikling, kvalitetskontrol og kvalitetssikring af højrisiko-AI-systemet

d)

undersøgelses-, prøvnings- og valideringsprocedurer, der gennemføres før, under og efter udviklingen af højrisiko-AI-systemet, samt den hyppighed, hvormed de gennemføres

d)

undersøgelses-, prøvnings- og valideringsprocedurer, der gennemføres før, under og efter udviklingen af højrisiko-AI-systemet, samt den hyppighed, hvormed de gennemføres

e)

tekniske specifikationer, herunder standarder, der anvendes, og, hvis de relevante harmoniserede standarder ikke anvendes fuldt ud, de midler, der anvendes for at sikre, at højrisiko-AI-systemet opfylder de krav, der er fastsat i dette afsnits kapitel 2

e)

tekniske specifikationer, herunder standarder, der anvendes, og, hvis de relevante harmoniserede standarder ikke anvendes fuldt ud, de midler, der anvendes for at sikre, at højrisiko-AI-systemet opfylder de krav, der er fastsat i dette afsnits kapitel 2

f)

systemer til og procedurer for dataforvaltning, herunder dataindsamling, dataanalyse, datamærkning, datalagring, datafiltrering, dataudvinding, dataaggregering, dataopbevaring og enhver anden handling vedrørende data, som udføres før og med henblik på omsætning eller ibrugtagning af højrisiko-AI-systemer

f)

systemer til og procedurer for dataforvaltning, herunder dataindsamling, dataanalyse, datamærkning, datalagring, datafiltrering, dataudvinding, dataaggregering, dataopbevaring og enhver anden handling vedrørende data, som udføres før og med henblik på omsætning eller ibrugtagning af højrisiko-AI-systemer

g)

det risikoforvaltningssystem, der er omhandlet i artikel 9

g)

det risikoforvaltningssystem, der er omhandlet i artikel 9

h)

oprettelse, implementering og vedligeholdelse af et system til overvågning efter omsætningen, jf. artikel 61

h)

oprettelse, implementering og vedligeholdelse af et system til overvågning efter omsætningen, jf. artikel 61

i)

procedurer for indberetning af alvorlige hændelser og funktionsfejl, jf. artikel 62

i)

procedurer for indberetning af alvorlige hændelser og funktionsfejl, jf. artikel 62

j)

håndtering af kommunikation med nationale kompetente myndigheder, kompetente myndigheder, herunder sektorspecifikke myndigheder, der giver eller understøtter adgang til data, bemyndigede organer, andre operatører, kunder eller andre interesserede parter

j)

håndtering af kommunikation med nationale kompetente myndigheder, kompetente myndigheder, herunder sektorspecifikke myndigheder, der giver eller understøtter adgang til data, bemyndigede organer, andre operatører, kunder eller andre interesserede parter

k)

systemer til og procedurer for registrering af al relevant dokumentation og alle relevante oplysninger

k)

systemer til og procedurer for registrering af al relevant dokumentation og alle relevante oplysninger

l)

ressourceforvaltning, herunder foranstaltninger vedrørende forsyningssikkerhed

l)

ressourceforvaltning, herunder foranstaltninger vedrørende forsyningssikkerhed

m)

en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales ansvar med hensyn til alle de aspekter, der er anført i dette stykke.

m)

en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales ansvar med hensyn til alle de aspekter, der er anført i dette stykke.

 

n)

foranstaltninger til forebyggelse af uberettiget forskelsbehandling på grund af køn, etnisk oprindelse, religion eller tro, handicap, alder, seksuel orientering eller på et hvilket som helst andet grundlag

o)

en redegørelse for, hvordan der er taget hensyn til etiske problemstillinger ved udformningen af højrisiko-AI-systemet.

Begrundelse

Tilføjelsen understreger, at inklusion og bekæmpelse af uberettiget forskelsbehandling skal være vigtige elementer i kvalitetssystemet.

Systemet skal respektere de etiske værdier, som en bruger af AI-systemet ønsker, at systemet tager højde for, eller som udbyderen med rimelighed kan forvente vil være et krav til et højrisiko-AI-system. Udbyderen bør kunne forklare, hvordan der er taget højde for dette aspekt.

Anbefalet ændring 23

Artikel 19, stk. 1

Kommissionens forslag

RU's ændringsforslag

Udbydere af højrisiko-AI-systemer sørger for, at deres systemer underkastes den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43, inden systemerne bringes i omsætning eller tages i brug. Hvis AI-systemets overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2, er blevet påvist efter denne overensstemmelsesvurdering, udarbejder udbyderen en EU-overensstemmelseserklæring, jf. artikel 48, og anbringer CE-overensstemmelsesmærkningen, jf. artikel 49.

Udbydere af højrisiko-AI-systemer sørger for, at deres systemer underkastes den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43, inden systemerne bringes i omsætning eller tages i brug. Hvis AI-systemets overensstemmelse med de krav, der er fastsat i dette afsnits kapitel 2, er blevet påvist efter denne overensstemmelsesvurdering, udarbejder udbyderen en EU-overensstemmelseserklæring, jf. artikel 48, og anbringer CE-overensstemmelsesmærkningen, jf. artikel 49. Udbyderen af højrisiko-AI-systemer offentliggør EU-overensstemmelseserklæringen og et resumé af overensstemmelsesvurderingen på et offentligt tilgængeligt sted.

Begrundelse

For at styrke tillidsmiljøet til AI-systemer bør udbydere af højrisiko-AI-systemer have åbenhed som mål. Offentligheden bør derfor kunne kontrollere, om overensstemmelsesvurderingen er korrekt og gennemført i overensstemmelse med forordningens bestemmelser.

Anbefalet ændring 24

Artikel 29, nyt stykke efter stk. 6

Kommissionens forslag

RU's ændringsforslag

 

Brugere af højrisiko-AI-systemer har ansvaret for at foretage en etisk afvejning, inden de tager systemet i brug. De bør kunne forklare de mulige konsekvenser, som teknologiens anvendelse kan få for mennesker og samfund. De skal angive deres tilsigtede formål med anvendelsen af AI-systemet, de overordnede værdier, hvordan disse værdier er blevet vægtet, og om de er blevet integreret i systemet eller ej. De evaluerer systemets reelle indvirkning på mennesker og samfund i hele AI-systemets livscyklus.

Begrundelse

Etik er et vidt begreb. Der findes mange måder at praktisere teknologisk etik på, både med hensyn til teoretisk dokumentation og konkrete metoder, værktøjer og værdier i udviklingsprocessen. Værdier anses for vigtige af bestemte (grupper af) mennesker. De kan være specifikke eller mere konceptuelle. Det er vigtigt at bevare en åben liste over mulige moralske værdier og evaluere AI-systemet i hele dets livscyklus.

Anbefalet ændring 25

Artikel 52, stk. 1

Kommissionens forslag

RU's ændringsforslag

Udbydere skal sikre, at AI-systemer, der er beregnet til at interagere med fysiske personer, udformes og udvikles på en sådan måde, at fysiske personer oplyses om, at de interagerer med et AI-system , medmindre dette er indlysende ud fra omstændighederne og anvendelsessammenhængen . Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske og retsforfølge strafbare handlinger, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde strafbare handlinger.

Udbydere skal sikre, at AI-systemer, der er beregnet til at interagere med fysiske personer, udformes og udvikles på en sådan måde, at fysiske personer oplyses om, at de interagerer med et AI-system. Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske og retsforfølge strafbare handlinger, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde strafbare handlinger. Omfanget af muligheder og retsstillingen for fysiske personer, der interagerer med AI-systemer, må ikke begrænses som følge af denne interaktion.

Begrundelse

Når teknologi anvendes som et middel til interaktion med fysiske personer, kan der være en risiko for, at disse fysiske personers valgmuligheder begrænses som følge af denne interaktion. Fysiske personer bør altid informeres behørigt, hver gang de interagerer med AI-systemer, og dette bør ikke afhænge af fortolkningen af en given situation. Deres rettigheder bør til enhver tid sikres i samspillet med AI-systemer.

Anbefalet ændring 26

Artikel 57, stk. 1

Kommissionens forslag

RU's ændringsforslag

Udvalget består af de nationale tilsynsmyndigheder, der repræsenteres af lederen eller en tilsvarende embedsmand på højt plan i den pågældende myndighed, og Den Europæiske Tilsynsførende for Databeskyttelse. Andre nationale myndigheder kan indbydes til møderne, hvis de drøftede spørgsmål er relevante for dem.

Udvalget består af de nationale tilsynsmyndigheder, der repræsenteres af lederen eller en tilsvarende embedsmand på højt plan i den pågældende myndighed, og Den Europæiske Tilsynsførende for Databeskyttelse. Andre nationale , regionale og lokale myndigheder kan indbydes til møderne, hvis de drøftede spørgsmål er relevante for dem.

Begrundelse

Lokale og regionale myndigheder bør have mulighed for at deltage i tilsynet med AI-systemer og rapportere om deres anvendelse i praksis.

Anbefalet ændring 27

Artikel 58

Kommissionens forslag

RU's ændringsforslag

Når Udvalget yder rådgivning og bistand til Kommissionen i forbindelse med artikel 56, stk. 2, skal det navnlig:

Når Udvalget yder rådgivning og bistand til Kommissionen i forbindelse med artikel 56, stk. 2, skal det navnlig:

a)

indsamle og udveksle ekspertise og bedste praksis blandt medlemsstaterne

a)

indsamle og udveksle ekspertise og bedste praksis blandt medlemsstaterne , regionale og lokale myndigheder

b)

bidrage til en ensartet administrativ praksis i medlemsstaterne, herunder til driften af reguleringsmæssige sandkasser, jf. artikel 53

b)

bidrage til en ensartet administrativ praksis i medlemsstaterne, herunder til driften af reguleringsmæssige sandkasser, jf. artikel 53

c)

afgive udtalelser, henstillinger eller skriftlige bidrag om spørgsmål vedrørende gennemførelsen af denne forordning, navnlig

c)

afgive udtalelser, henstillinger eller skriftlige bidrag om spørgsmål vedrørende gennemførelsen af denne forordning, navnlig

 

i)

om tekniske specifikationer eller eksisterende standarder vedrørende de i afsnit III, kapitel 2, fastsatte krav

ii)

om anvendelsen af harmoniserede standarder eller fælles specifikationer som omhandlet i artikel 40 og 41

iii)

om udarbejdelse af vejledende dokumenter, herunder retningslinjerne for fastsættelse af administrative bøder, jf. artikel 71.

 

i)

om tekniske specifikationer eller eksisterende standarder vedrørende de i afsnit III, kapitel 2, fastsatte krav

ii)

om anvendelsen af harmoniserede standarder eller fælles specifikationer som omhandlet i artikel 40 og 41

iii)

om udarbejdelse af vejledende dokumenter, herunder retningslinjerne for fastsættelse af administrative bøder, jf. artikel 71.

Begrundelse

Lokale og regionale myndigheder er tættest på de lokale beboere og økonomier. Deres rolle skal fremhæves, så de får mulighed for at dele deres viden.

Anbefalet ændring 28

Artikel 59, stk. 1

Kommissionens forslag

RU's ændringsforslag

Hver medlemsstat skal oprette eller udpege nationale kompetente myndigheder med henblik på at sikre denne forordnings anvendelse og gennemførelse. De nationale kompetente myndigheder skal være organiseret på en sådan måde, at der i deres arbejde og opgaver sikres objektivitet og uvildighed.

Hver medlemsstat skal oprette eller udpege nationale kompetente myndigheder med henblik på at sikre denne forordnings anvendelse og gennemførelse. De nationale kompetente myndigheder skal være organiseret på en sådan måde, at der i deres arbejde og opgaver sikres objektivitet og uvildighed. De lokale og regionale myndigheder har beføjelser til at udføre tilsyns- eller håndhævelsesopgaver, i det omfang den enkelte medlemsstat finder det hensigtsmæssigt.

Begrundelse

For at sikre, at forordningen og den gældende tilsyns- og håndhævelsesramme kan håndhæves, bør den enkelte medlemsstat have mulighed for til at tildele de lokale og regionale myndigheder tilsyns- eller håndhævelsesopgaver, hvor det er nødvendigt, og hvis det er muligt. I den sammenhæng bør de lokale og regionale myndigheder modtage støtte og skoling, så de fuldt ud er i stand til at udføre tilsyns- og håndhævelsesopgaver.

Anbefalet ændring 29

Artikel 69, stk. 3

Kommissionens forslag

RU's ændringsforslag

Adfærdskodekser kan udarbejdes af individuelle udbydere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af brugere og eventuelle interesserede parter og deres repræsentative organisationer. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål.

Adfærdskodekser kan udarbejdes af nationale, regionale eller lokale myndigheder, individuelle udbydere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af brugere og eventuelle interesserede parter og deres repræsentative organisationer. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål.

Begrundelse

Nationale, lokale og regionale myndigheder bør have juridisk beføjelse til at udarbejde adfærdskodekser for de AI-systemer, de udvikler eller anvender.

Anbefalet ændring 30

BILAG I — Teknikker og tilgange til kunstig intelligens jf. artikel 3, stk. 1

Kommissionens forslag

RU's ændringsforslag

 

I lyset af den eksisterende videnskab omfatter kunstig intelligens følgende teknikker og metoder:

a)

maskinlæringstilgange, herunder superviseret, usuperviseret og reinforcement learning, ved hjælp af en bred vifte af metoder, herunder dyb læring

a)

maskinlæringstilgange, herunder superviseret, usuperviseret og reinforcement learning, ved hjælp af en bred vifte af metoder, herunder dyb læring

b)

logiske og videnbaserede tilgange, herunder videnrepræsentation, induktiv (logisk) programmering, videnbaser, inferens- og deduktionsmotorer, (symbolsk) ræsonnement og ekspertsystemer

b)

logiske og videnbaserede tilgange, herunder videnrepræsentation, induktiv (logisk) programmering, videnbaser, inferens- og deduktionsmotorer, (symbolsk) ræsonnement og ekspertsystemer

c)

statistiske metoder, bayesianske estimations-, søgnings- og optimeringsmetoder.

c)

statistiske metoder, bayesianske estimations-, søgnings- og optimeringsmetoder.

Begrundelse

Definitionen af og listen over AI-teknikker skal være fremtidssikret. Listen over specifikke teknikker og tilgange, der anvendes til udvikling af AI-systemer, må ikke være en udtømmende liste, og det skal være tydeligt, at den er baseret på den nuværende videnskabelige situation.

Anbefalet ændring 31

Bilag III, punkt 1-5

Kommissionens forslag

RU's ændringsforslag

Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder:

Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder:

1.

biometrisk identifikation og kategorisering af fysiske personer:

1.

biometrisk identifikation og kategorisering af fysiske personer:

a)

AI-systemer der er beregnet til biometrisk fjernidentifikation i realtid og efterfølgende biometrisk fjernidentifikation af fysiske personer

a)

AI-systemer der er beregnet til biometrisk fjernidentifikation i realtid og efterfølgende biometrisk fjernidentifikation af fysiske personer

2.

Forvaltning og drift af kritisk infrastruktur:

2.

Forvaltning og drift af kritisk infrastruktur:

a)

AI-systemer, der er beregnet til anvendelse som sikkerhedskomponenter i forvaltningen og driften af vejtrafik og forsyning af vand, gas, varme og elektricitet

a)

AI-systemer, der er beregnet til anvendelse som sikkerhedskomponenter i forvaltningen og driften af vejtrafik og forsyning af vand, gas, varme og elektricitet samt telekommunikations-, vand- og internetinfrastruktur

3.

Uddannelse og erhvervsuddannelse:

3.

Uddannelse og erhvervsuddannelse:

a)

AI-systemer, der er beregnet til at fastslå, om fysiske personer skal optages, eller hvordan de skal fordeles, på uddannelsesinstitutioner

a)

AI-systemer, der er beregnet til at fastslå, om fysiske personer skal optages, eller hvordan de skal fordeles, på uddannelsesinstitutioner

b)

AI-systemer, der er beregnet til evaluering af studerende på uddannelsesinstitutioner og til at vurdere personer i forbindelse med prøver, der normalt kræves for at få adgang til uddannelsesinstitutioner

b)

AI-systemer, der er beregnet til evaluering af studerende på uddannelsesinstitutioner og til at vurdere personer i forbindelse med prøver, der normalt kræves for at få adgang til uddannelsesinstitutioner

4.

beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:

4.

beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:

a)

AI-systemer, der er beregnet til rekruttering eller udvælgelse af fysiske personer, navnlig til annoncering af ledige stillinger, screening eller filtrering af ansøgninger, evaluering af ansøgere under samtaler eller prøver

a)

AI-systemer, der er beregnet til rekruttering eller udvælgelse af fysiske personer, navnlig til annoncering af ledige stillinger, screening eller filtrering af ansøgninger, evaluering af ansøgere under samtaler eller prøver

b)

AI-systemer, der er beregnet til beslutningstagning om forfremmelse og afskedigelse og til opgavefordeling, overvågning og evaluering af personers præstationer og adfærd i arbejdsrelaterede kontraktforhold

b)

AI-systemer, der er beregnet til beslutningstagning om forfremmelse og afskedigelse og til opgavefordeling, overvågning og evaluering af personers præstationer og adfærd i arbejdsrelaterede kontraktforhold

5.

Adgang til og benyttelse af væsentlige private og offentlige tjenester og fordele:

5.

Adgang til og benyttelse af væsentlige private og offentlige tjenester og fordele:

a)

AI-systemer, der er beregnet til at blive anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder til at vurdere fysiske personer s berettigelse til offentlige sociale ydelser og tjenester samt til at tildele, reducere, annullere eller tilbagekalde sådanne ydelser og tjenester

a)

AI-systemer, der er beregnet til at blive anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder til at vurdere og beslutte om fysiske personer er berettiget til offentlige sociale ydelser og tjenester samt til at tildele, reducere, annullere eller tilbagekalde sådanne ydelser og tjenester

b)

AI-systemer, der er beregnet til at foretage kreditvurderinger af fysiske personer eller fastslå deres kreditværdighed, med undtagelse af AI-systemer, der tages i brug af mindre udbydere til eget brug

b)

AI-systemer, der er beregnet til at udarbejde kreditvurderinger af fysiske personer eller fastslå deres kreditværdighed, med undtagelse af AI-systemer, der tages i brug af mindre udbydere til eget brug

c)

AI-systemer, der er beregnet til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder brandslukning og lægehjælp.

c)

AI-systemer, der er beregnet til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder brandslukning og lægehjælp.

Begrundelse

Telekommunikations-, vand- og internetinfrastruktur er en integreret del af kritisk infrastruktur.

I forbindelse med kategoriseringen af højrisikosystemer er det afgørende, om systemet kan udgøre en reel risiko for borgerne. Hvis der udelukkende er tale om en analytisk og teoretisk vurdering af indbyggernes ret til offentlige tjenester, indebærer dette ikke i sig selv en høj risiko. Hvis man supplerer ordet »vurdere« med »beslutte«, understreger man, at denne risiko for indbyggerne reelt afspejles i beslutningstagningen.

II.   POLITISKE ANBEFALINGER

DET EUROPÆISKE REGIONSUDVALG

Ekspertisemiljø

1.

Det Europæiske Regionsudvalg understreger, at Kommissionens ambition om at give EU en global førerposition inden for ansvarlig udvikling af AI, der sætter mennesket i centrum, kun kan opfyldes, hvis de lokale og regionale myndigheder får tildelt en vigtig rolle. De lokale og regionale myndigheder har de bedste forudsætninger for at bidrage til at skabe gunstige rammevilkår for større investeringer i kunstig intelligens i de kommende år og fremme tilliden til denne;

2.

understreger, at det ud over at inddrage de lokale og regionale myndigheder er vigtigt at yde støtte og skoling for at styrke deres kompetencer på området, navnlig da de kan få tildelt tilsyns- og håndhævelsesroller;

3.

bemærker, at der vil blive stillet EU-midler til rådighed for udvikling af kunstig intelligens, men påpeger den fragmenterede tilgang som følge af de mange forskellige programmer. Dette øger risikoen for opsplitning og overlapning;

4.

opfordrer derfor Kommissionen til at udvikle og forbinde stærke og pluralistiske fælles dataområder, hvor samfundsmæssige udfordringer løses ved hjælp af offentlige og private data i forskellige brugsscenarier. Dette kræver også en afstemning med lovgivningsinitiativer under den europæiske datastrategi.

Tillidsmiljø

5.

Det Europæiske Regionsudvalg beklager, at forslaget til forordning ikke henviser til de lokale og regionale myndigheder, selv om den retlige ramme vil gælde for både offentlige og private aktører;

6.

bemærker i den sammenhæng, at AI-systemer kan spille en væsentlig rolle for lokale og regionale myndigheders interaktion med borgerne og leveringen af serviceydelser. Derudover har AI-systemer potentialet til bl.a. at øge effektiviseringen af den offentlige sektor og hjælpe lokale og regionale myndigheder med at imødekomme de tilpasninger, der skal finde sted lokalt og regionalt i forbindelse med den grønne og den digitale omstilling. Det er derfor vigtigt, at den erfaring der indhøstes hos lokale og regionale myndigheder bruges aktivt i forbindelse med den løbende revision af forordningen;

7.

opfordrer til yderligere præcisering af definitionerne af »udbyder« og »bruger«, navnlig i situationer, hvor virksomheder, forskningsinstitutioner, offentlige myndigheder og beboere i fællesskab udvikler og tester AI-systemer i levende laboratorier. Der bør også tages behørigt hensyn til borgere eller forbrugere, der er berørt af AI-baserede beslutninger i systemer, der anvendes af erhvervsmæssige brugere;

8.

understreger behovet for forudgående høring af de relevante lokale og regionale myndigheder i tilfælde af, at der anvendes AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentlige steder med henblik på retshåndhævelse;

9.

glæder sig over Kommissionens offentlige høring om tilpasningen af reglerne om civilretligt ansvar til de specifikke udfordringer i tilknytning til den digitale tidsalder og kunstig intelligens (1) og forventer, at dette vil resultere i en opdateret ramme, der skal sikre, at forbrugerne får erstatning for skader forårsaget af AI-applikationer;

10.

undrer sig over, at AI-systemer, der anvendes i demokratiske processer såsom valg, ikke står opført på listen over højrisiko-AI-systemer;

11.

opfordrer til, at højrisiko-AI-systemer underlægges de samme krav til gennemsigtighed og information for fysiske personer, som det i øjeblikket er tilfældet for brugerne;

12.

fremhæver de store menneskerettighedsrisici og konsekvenser, der er forbundet med anvendelsen af social klassificering;

13.

er i den forbindelse meget skeptisk over for forordningens to grunde (2) til at fastslå, hvornår en social klassificering fører til en skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf, da det er yderst vanskeligt at fastslå, at der foreligger sådanne grunde. Udvalget opfordrer på den baggrund til, at der formuleres klare garantier, som skal sikre, at forbuddet mod social klassificering ikke omgås;

14.

noterer sig, at betragtningerne i forordningen omhandler de risici, som fysiske personer udsættes for som følge af deres interaktion med højrisiko-AI-systemer i forbindelse med bl.a. uddannelse, beskæftigelse, forvaltning af arbejdskraft, adgang til selvstændig erhvervsvirksomhed eller adgang til og benyttelse af visse væsentlige private og offentlige tjenester;

15.

opfordrer Kommissionen til yderligere at undersøge klassificeringen af højrisiko-AI-systemer, der er beregnet til brug for offentlige myndigheder (3);

16.

opfordrer til, at der oprettes en myndighed, der kan yde vigtig forudgående rådgivning om fortolkningen af forordningens bestemmelser, også set i forhold til den generelle forordning om databeskyttelse. Dette styrker retssikkerheden og mindsker omkostningerne ved udformning og gennemførelse af AI-systemer;

17.

understreger i den forbindelse betydningen af klarhed i formuleringen af forordningen, hvilket er en afgørende forudsætning for at opbygge et tillidsøkosystem og fjerne den retsusikkerhed, der er forbundet med udviklingen og anvendelsen af AI-systemer. Dette vil forhindre fejlfortolkninger af de foreslåede krav og minimere risikoen for efterfølgende dårlig forvaltning af AI-applikationer, hvilket vil maksimere forordningens effektivitet og sanktionernes troværdighed. Samtidig og i overensstemmelse med Kommissionens dagsorden for bedre regulering er tidlig opsporing og eliminering af potentielle overlapninger og/eller konflikter med eksisterende regler af afgørende betydning;

18.

bemærker, at mange lokale og regionale myndigheder anvender de samme AI-systemer til sammenlignelige opgaver. I langt de fleste tilfælde er systemerne udviklet af private virksomheder;

19.

bemærker at forordningsforslaget ikke står alene i forhold til at sikre borgernes rettigheder, og at forslaget skal ses i sammenhæng med eksisterende lovgivning. Derfor opfordres medlemsstaterne til at sikre, at de løbende tager de nødvendige administrative forholdsregler i forhold til at kunne håndtere de muligheder og de risici som brugen af kunstig intelligens i den offentlige sektor medfører;

20.

bemærker, at dette betyder, at europæiske og nationale regler fortolkes af virksomheder og bemyndigede organer i forbindelse med overensstemmelsesvurderinger, hvilket har en indvirkning på praksis hos de lokale og regionale myndigheder, der anvender disse AI-systemer. Dette gør det vanskeligt at afgøre, i hvor høj grad de lokale og regionale politikker kan påvirke disse AI-systemer. Udvalget er derfor opmærksom på de lokale og regionale myndigheders særlige behov og på, at en »one-size-fits-all«-tilgang kan underminere AI-systemernes effektivitet med hensyn til opfyldelsen af disse behov. Derudover foreslår udvalget, at medlemsstaterne bør have beføjelse til at regulere højrisiko-AI-systemer på grundlag af tvingende og berettigede almene hensyn;

21.

opfordrer i den forbindelse til, at overensstemmelsesvurderingerne skal være gennemsigtige og tilgængelige for offentligheden. Derudover bør de lokale og regionale myndigheder også kunne deltage i overvågningen af AI-systemer, rapportere om deres praktiske gennemførelse og bidrage formelt til Kommissionens evaluering af anvendelsen af forordningen;

22.

understreger, at anvendelsen af den reguleringsmæssige sandkasse kræver, at der skabes de rette juridiske, metodologiske og etiske betingelser, der gør det muligt at udvikle teknologi, lovgivning og evaluering af lovgivning. Der bør fastsættes klare kriterier for iværksætteres adgang til den reguleringsmæssige sandkasse. For at sikre, at forbrugerorganisationer kan håndhæve bestemmelserne i retsakten om kunstig intelligens, bør sidstnævnte føjes til bilag I til direktiv (EU) 2020/1828 om adgang til anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser.

Informationskampagner

23.

Det Europæiske Regionsudvalg understreger betydningen af offentlige kampagner, således at den brede offentlighed er orienteret om og fortrolig med eksistensen og nytten af AI-systemer såvel som potentielle risici i forbindelse hermed. RU understreger videre det akutte behov for konkrete oplysninger til forbrugerne om kunstig intelligens/maskinstyret beslutningstagning. Udvalget opfordrer derfor Kommissionen til at stille finansiering til rådighed for sådanne kampagner.

Administrativ byrde

24.

Det Europæiske Regionsudvalg er bekymret for den potentielle administrative byrde ved den foreslåede forordning. Den administrative byrde kan udgøre en hindring, når små og mellemstore virksomheder og lokale og regionale myndigheder ønsker at fremme innovation og anvende AI-systemer (4).

Proportionalitetsprincippet og nærhedsprincippet

25.

Det Europæiske Regionsudvalg mener, at forslaget til forordning opfylder kravene i henhold til proportionalitets- og nærhedsprincippet. Merværdien af EU's indsats på dette område og hensigtsmæssigheden af de retsgrundlag, som Kommissionen har valgt, fremgår klart og konsekvent. Konsekvensanalysen indeholdt et særskilt afsnit om nærhedsprincippet. Derudover havde ingen nationale parlamenter afgivet en begrundet udtalelse om manglende overholdelse af nærhedsprincippet inden for fristen for indsendelse den 2. september 2021.

Bruxelles, den 2. december 2021.

Apostolos TZITZIKOSTAS

Formand for Det Europæiske Regionsudvalg


([62])  Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).

([62])  Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).

(1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_da.

(2)  Artikel 5, stk. 1, litra c).

(3)  Bilag III, punkt 5, litra a).

(4)  I en nylig undersøgelse gennemført med støtte fra Kommissionen (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, s. 12) anslås det med udgangspunkt i rimelige antagelser, at de gennemsnitlige omkostninger til certificering af et AI-system beløber sig til 16 800-23 000 EUR, hvilket svarer til 10-14 % af udviklingsomkostningerne.