This document is an excerpt from the EUR-Lex website
Document 52021AE2482
Opinion of the European Economic and Social Committee on Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts (COM(2021) 206 final — 2021/106 (COD))
Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter (COM(2021) 206 final — 2021/106 (COD))
Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter (COM(2021) 206 final — 2021/106 (COD))
EESC 2021/02482
EUT C 517 af 22.12.2021, p. 61–66
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
22.12.2021 |
DA |
Den Europæiske Unions Tidende |
C 517/61 |
Det Europæiske Økonomiske og Sociale Udvalgs udtalelse om forslag til Europa-Parlamentets og Rådets forordning om harmoniserede regler for kunstig intelligens (retsakten om kunstig intelligens) og om ændring af visse af Unionens lovgivningsmæssige retsakter
(COM(2021) 206 final — 2021/106 (COD))
(2021/C 517/09)
Ordfører: |
Catelijne MULLER |
Anmodning om udtalelse |
Europa-Parlamentet, 7.6.2021 Rådet, 15.6.2021 |
Retsgrundlag |
Artikel 114 i traktaten om Den Europæiske Unions Funktionsmåde |
Kompetence |
Sektionen for Det Indre Marked, Produktion og Forbrug |
Vedtaget i sektionen |
2.9.2021 |
Vedtaget på plenarforsamlingen |
22.9.2021 |
Plenarforsamling nr. |
563 |
Resultat af afstemningen (for/imod/hverken for eller imod) |
225/03/06 |
1. Konklusioner og anbefalinger
1.1. |
Det Europæiske Økonomiske og Sociale Udvalg (EØSU) glæder sig over, at Kommissionens forslag til en retsakt om kunstig intelligens ikke alene behandler de risici, der er forbundet med kunstig intelligens (AI), men også højner standarderne væsentligt for den kvalitet, funktion og pålidelighed, som EU kræver af kunstig intelligens. EØSU glæder sig især over, at retsakten om kunstig intelligens sætter sundhed, sikkerhed og grundlæggende rettigheder i centrum og har global rækkevidde. |
1.2. |
EØSU ser muligheder for forbedringer, når det gælder anvendelsesområdet for samt definitionen og præciseringen af de forbudte former for AI-praksis, konsekvenserne af de kategorivalg, der foretages i forbindelse med »risikopyramiden«, virkningerne af kravene om risikoafbødning i forbindelse med højrisiko-AI, muligheden for at håndhæve retsakten og forholdet mellem retsakten og eksisterende lovgivning og andre nyligt fremsatte lovgivningsforslag. |
1.3. |
EØSU understreger, at kunstig intelligens aldrig har fungeret uden lovgivning. Retsakten om kunstig intelligens kan som følge af dens brede anvendelsesområde og dens forrang som en EU-forordning skabe spændinger i forhold til eksisterende national og europæisk lovgivning og relaterede lovgivningsforslag. EØSU anbefaler, at betragtning (41) ændres for at tage højde for og tydeliggøre sammenhængen mellem retsakten om kunstig intelligens og eksisterende og kommende lovgivning. |
1.4. |
EØSU anbefaler desuden, at kunstig intelligens defineres tydeligere ved at lade bilag I udgå, foretage lettere ændringer i artikel 3 og udbrede anvendelsesområdet for retsakten om kunstig intelligens til at omfatte »ældre AI-systemer« og AI-komponenter til store IT-systemer inden for området frihed, sikkerhed og retfærdighed som anført i bilag IX. |
1.5. |
Endelig anbefaler EØSU, at forbuddene vedrørende »subliminale teknikker« og »udnyttelse af sårbarheder« præciseres for at afspejle forbuddet mod skadelig manipulation, og at »skade på grundlæggende rettigheder, demokrati og retssikkerhed« tilføjes som en betingelse for disse forbud. |
1.6. |
EØSU mener ikke, at det hører hjemme i EU at bedømme EU-borgeres troværdighed på baggrund af deres sociale adfærd og personlighedstræk, uanset hvilken aktør der foretager bedømmelsen. EØSU anbefaler at udvide dette forbuds anvendelsesområde til også at omfatte private organisationers og halvoffentlige myndigheders sociale pointsystemer. |
1.7. |
EØSU efterlyser et forbud mod brug af kunstig intelligens til automatiseret biometrisk genkendelse på offentlige og private steder, undtagen til verifikation i specifikke tilfælde, og til automatiseret genkendelse af menneskelige adfærdsmæssige signaler på offentlige og private steder, undtagen i meget specifikke tilfælde såsom til visse sundhedsformål, hvor genkendelse af en patients følelser kan være nyttigt. |
1.8. |
Den »listebaserede« tilgang til kunstig intelligens med høj risiko risikerer at normalisere og udbrede en række AI-systemer og -anvendelser, som fortsat er stærkt kritisable. EØSU advarer om, at overholdelse af de krav, der er fastsat for AI-systemer med mellemhøj og høj risiko, ikke nødvendigvis nedbringer risikoen for at skade sundheden, sikkerheden og de grundlæggende rettigheder for al høj-risiko-AI. Udvalget anbefaler, at der i retsakten om kunstig intelligens tages højde for denne situation. Som minimum bør retsakten tilføjes kravene i de etiske retningslinjer for troværdig kunstig intelligens vedrørende i) menneskers ageren, ii) overholdelse af privatlivets fred, iii) diversitet, ikkeforskelsbehandling og retfærdighed, iv) forklarlighed og v) miljømæssig og social trivsel. |
1.9. |
I tråd med den tilgang til kunstig intelligens, hvor mennesket bevarer kontrollen, som EØSU længe har været fortaler for, anbefaler udvalget på det kraftigste, at retsakten om kunstig intelligens foreskriver, at visse beslutninger fortsat skal træffes af mennesker — navnlig på områder, hvor disse beslutninger har moralske aspekter og retslige eller samfundsmæssige følger, f.eks. inden for retsvæsenet, retshåndhævelse, sociale tjenester, sundhedspleje, boliger, finansielle tjenesteydelser, arbejdslivet og uddannelse. |
1.10. |
EØSU anbefaler at gøre overensstemmelsesvurderinger foretaget af tredjepart obligatoriske for al kunstig intelligens med høj risiko. |
1.11. |
EØSU anbefaler at indføre en klage- og søgsmålsmekanisme for organisationer og borgere, der har lidt skade som følge af et AI-system eller en AI-praksis og -anvendelse, som falder inden for anvendelsesområdet for retsakten om kunstig intelligens. |
2. Forslag til forordning om kunstig intelligens — retsakten om kunstig intelligens
2.1. |
EØSU glæder sig over, at Kommissionens forslag til retsakt om kunstig intelligens ikke alene behandler de risici, der er forbundet med kunstig intelligens, men også højner standarderne væsentligt for den kvalitet, funktion og pålidelighed, som EU kræver af kunstig intelligens. |
3. Overordnede bemærkninger — retsakten om kunstig intelligens
Formål og anvendelsesområde
3.1. |
EØSU bifalder både formålet med og anvendelsesområdet for retsakten om kunstig intelligens. EØSU glæder sig især over, at sundhed, sikkerhed og grundlæggende rettigheder er omdrejningspunktet i retsakten om kunstig intelligens. Udvalget glæder sig desuden over de eksterne virkninger af retsakten om kunstig intelligens, som sikrer, at kunstig intelligens, der udvikles uden for EU, skal overholde de samme retlige standarder, hvis den anvendes eller har virkninger inden for EU. |
Definition af kunstig intelligens
3.2. |
Definitionen af kunstig intelligens (artikel 3, stk. 1, sammen med bilag I til retsakten om kunstig intelligens) har ført til drøftelser blandt AI-forskere, da AI-forskere ikke betragter en del af eksemplerne i bilag I som kunstig intelligens og mener, at der mangler flere vigtige AI-teknikker. EØSU ser ikke nogen merværdi i bilag I og anbefaler, at det helt fjernes fra retsakten om kunstig intelligens. Udvalget anbefaler endvidere at ændre definitionen i artikel 3, nr. 1, som følger:
»system med kunstig intelligens« (AI-system): software, der automatisk for et givet sæt mål, som er fastsat af mennesker, kan generere output såsom indhold, forudsigelser, anbefalinger eller beslutninger, der påvirker det miljø, som det interagerer med.« |
Sundhed, sikkerhed og grundlæggende rettigheder — risikopyramiden
3.3. |
Det anerkendes i den trinvise »risikopyramide« (fra lav/mellemhøj risiko over høj risiko til uacceptabel risiko), som anvendes til at kategorisere en række generelle AI-praksisser og områdespecifikke AI-anvendelser, at ikke al kunstig intelligens udgør en risiko, og at ikke alle risici er lige store eller kræver samme risikobegrænsende foranstaltninger. |
3.4. |
Den valgte tilgang rejser to vigtige spørgsmål. Det første spørgsmål er, om de risikobegrænsende foranstaltninger (for kunstig intelligens med lav, mellemhøj og høj risiko) i tilstrækkelig grad afhjælper risiciene for at skade sundheden, sikkerheden og de grundlæggende rettigheder? Det andet spørgsmål er, om vi er klar til at lade kunstig intelligens træde i stedet for menneskelig beslutningstagning — selv i meget vigtige processer som f.eks. inden for retshåndhævelse og retsvæsenet? |
3.5. |
Med hensyn til det første spørgsmål advarer EØSU om, at overholdelse af de krav, der er fastsat for kunstig intelligens med mellemhøj og høj risiko, ikke nødvendigvis begrænser risikoen for at skade sundheden, sikkerheden og de grundlæggende rettigheder i alle tilfælde. Dette behandles mere grundigt i afsnit 4. |
3.6. |
Med hensyn til det andet spørgsmål mangler der i retsakten om kunstig intelligens en forståelse af, at kunstig intelligens skal forbedre den menneskelige beslutningstagning og den menneskelige intelligens og ikke erstatte den. Retsakten om kunstig intelligens tager udgangspunkt i princippet om, at kunstig intelligens — når kravene til kunstig intelligens med mellemhøj og høj risiko er opfyldt — i vid udstrækning kan erstatte menneskelig beslutningstagning. |
3.7. |
EØSU anbefaler på det kraftigste, at retsakten om kunstig intelligens foreskriver, at visse beslutninger fortsat skal træffes af mennesker — navnlig på områder, hvor disse beslutninger indebærer moralske aspekter og retslige eller samfundsmæssige følger, f.eks. inden for retsvæsenet, retshåndhævelse, sociale tjenester, sundhedspleje, boliger, finansielle tjenesteydelser, arbejdslivet og uddannelse. |
3.8. |
AI-systemer fungerer ikke uden lovgivning. På nuværende tidspunkt finder en række retligt bindende regler på europæisk, nationalt og internationalt plan allerede anvendelse på eller er relevante for AI-systemer. De retslige kilder omfatter, men er ikke begrænset til: EU's primære ret (EU-traktaterne og chartret om grundlæggende rettigheder), afledt EU-ret (såsom den generelle forordning om databeskyttelse, direktivet om produktansvar, forordningen om fri udveksling af andre data end personoplysninger, direktivet om bekæmpelse af forskelsbehandling, direktivet om forbrugerlovgivning og direktivet om sikkerhed og sundhed på arbejdspladsen), FN's menneskerettighedstraktater og Europarådets konventioner (såsom den europæiske menneskerettighedskonvention) og talrige love i EU-medlemsstaterne. Ud over de horisontalt gældende regler findes der en række områdespecifikke regler, som gælder for bestemte AI-anvendelser (f.eks. forordningen om medicinsk udstyr i sundhedssektoren). EØSU anbefaler, at betragtning 41 ændres for at afspejle dette. |
4. Specifikke bemærkninger og anbefalinger — retsakten om kunstig intelligens
Forbudte AI-praksisser
4.1. |
EØSU er enig i, at de i artikel 5 omhandlede AI-praksisser ikke har nogen sociale fordele og bør forbydes. Udvalget finder dog visse formuleringer uklare, hvilket kan vanskeliggøre fortolkningen af nogle af forbuddene og gøre det nemt at omgå dem. |
4.2. |
Det er dokumenteret, at subliminale teknikker ikke alene kan medføre fysisk eller psykisk skade (de nuværende betingelser for, at dette særlige forbud kan finde anvendelse), men også — afhængigt af i hvilken kontekst de anvendes i — andre negative personlige, samfundsmæssige eller demokratiske virkninger, som f.eks. ændret adfærd ved afstemninger. Endvidere er det ofte ikke den subliminale teknik i sig selv, men snarere beslutningen om, hvem den subliminale teknik skal rettes mod, som drives af kunstig intelligens. |
4.3. |
For at formidle, hvad forordningen om kunstig intelligens sigter mod at forbyde i artikel 5, stk. 1, litra a), dvs. at manipulere mennesker til skadelig adfærd, anbefaler EØSU, at stykket ændres som følger: »(…) et AI-system, der udvikles til, sigter mod eller bruges til i væsentlig grad at fordreje en persons adfærd på en måde, der skader eller sandsynligvis vil skade den pågældende persons, en anden persons eller en gruppe af personers grundlæggende rettigheder, herunder deres fysiske eller psykiske sundhed og sikkerhed, eller skader eller sandsynligvis vil skade demokratiet og retsstaten«. |
4.4. |
EØSU anbefaler at ændre den forbudte praksis med udnyttelse af sårbarheder i artikel 5, stk. 1, litra b), tilsvarende for at medtage skade på grundlæggende rettigheder, herunder fysisk eller psykisk skade. |
4.5. |
EØSU bifalder forbuddet mod »sociale pointsystemer« i artikel 5, stk. 1, litra c). EØSU anbefaler, at forbuddet mod sociale pointsystemer også finder anvendelse på private organisationer og halvoffentlige myndigheder og ikke kun på offentlige myndigheder. EØSU mener ikke, at det i EU bør være tilladt at bedømme EU-borgernes troværdighed på grundlag af deres sociale adfærd eller personlighedstræk, uanset hvilken aktør der udfører bedømmelsen. Hvis det blev tilladt, ville EU åbne op for, at sociale pointsystemer kunne bruges mange forskellige steder, f.eks. på arbejdspladsen. Betingelserne i nr. i) og ii) bør præciseres for klart at skelne mellem, hvad der betragtes som »sociale pointsystemer«, og hvad der kan betragtes som en acceptabel form for evaluering til et bestemt formål, dvs. på det tidspunkt, hvor de oplysninger, der anvendes til evalueringen, ikke længere bør betragtes som relevante eller med rimelighed kan relateres til målet med evalueringen. |
4.6. |
Forordningen om kunstig intelligens sigter mod at forbyde biometrisk fjernidentifikation i realtid (med f.eks. ansigtsgenkendelse) til retshåndhævelse og at kategorisere det som »højrisikobetonet«, når det anvendes til andre formål. Dette medfører, at efterfølgende biometrisk genkendelse og nærbiometrisk genkendelse fortsat er tilladt. Den betyder også, at biometrisk genkendelse, der ikke har til formål at identificere en person, men snarere at vurdere en persons adfærd ud fra vedkommendes biometriske karakteristika (mikroudtryk, gangart, temperatur, hjertefrekvens osv.) er tilladt. Begrænsningen til »retshåndhævelsesformål« baner vejen for biometrisk identifikation og alle andre former for biometrisk genkendelse, der ikke har til formål at identificere en person, herunder alle nævnte former for »følelsesgenkendelse« til alle andre formål, af alle andre aktører på alle offentlige og private steder, herunder på arbejdspladsen, i butikker, på stadioner, i teatre osv. Det åbner op for en verden, hvor vi konstant bliver »følelsesmæssigt vurderet« uanset formålet. |
4.7. |
I retsakten om kunstig intelligens kategoriseres »følelsesgenkendelse« overordnet set som lavrisikobetonet, dog med undtagelse af få anvendelsesområder, der kategoriseres som højrisikobetonet. Denne type biometrisk genkendelse kaldes også »affektgenkendelse« og somme tider »adfærdsgenkendelse«. Alle disse AI-metoder er yderst indgribende, har intet solidt videnskabeligt grundlag og kan i høj grad være skadelig for en række af EU-chartrets grundlæggende rettigheder, såsom retten til menneskelig værdighed, retten til personlig integritet (herunder mental integritet) og retten til privatlivs fred. |
4.8. |
Overordnet set i tråd med opfordringen fra Den Europæiske Tilsynsførende for Databeskyttelse og Det Europæiske Databeskyttelsesråd af 21. juni 2021 om et forbud mod anvendelse af kunstig intelligens til automatisk genkendelse af menneskelige træk på offentlige steder og visse andre anvendelser af kunstig intelligens, der kan føre til urimelig forskelsbehandling, opfordrer EØSU til:
|
Højrisiko-AI
4.9. |
I afgørelsen af, hvorvidt der under overholdelse af strenge betingelser skal gives tillades til en AI-praksis eller -anvendelse, der udgør en risiko for sundheden, sikkerheden eller de grundlæggende rettigheder, har Kommissionen set på to elementer, nemlig i) om den pågældende AI-praksis eller -anvendelse kan have nogen social nyttevirkning, og ii) om risikoen for at skade sundheden, sikkerheden og de grundlæggende rettigheder, som denne anvendelse medfører, ikke desto mindre kan afhjælpes ved at opfylde en række krav. |
4.10. |
EØSU bifalder, at disse krav tilpasses dele af de etiske retningslinjer for troværdig kunstig intelligens (»EGTAI«). Fem vigtige EGTAI-krav behandles imidlertid ikke specifikt i retsaktens krav til højrisiko-AI, nemlig i) menneskers ageren, ii) privatlivets fred, iii) diversitet, ikkeforskelsbehandling og rimelighed, iv) forklarlighed og v) miljømæssig og social trivsel. EØSU mener, at man hermed spiller en chance, da mange af de risici, som kunstig intelligens indebærer, handler om beskyttelse af privatlivets fred, forudindtagethed, udelukkelse, uforklarlige resultater af AI-beslutninger, underminering af menneskers ageren og miljøet, og de afspejles alle i EU's grundlæggende rettigheder. |
4.11. |
EØSU anbefaler, at disse krav føjes til kravene i afsnit III i kapitel 2 i retsakten om kunstig intelligens, således at retsakten bedre kan beskytte vores sundhed, sikkerhed og grundlæggende rettigheder effektivt mod negative virkninger af kunstig intelligens, der anvendes af såvel offentlige myndigheder som private organisationer. |
4.12. |
EØSU bifalder den tætte kobling mellem retsakten om kunstig intelligens og EU's harmoniseringslovgivning. Udvalget anbefaler desuden, at anvendelsesområdet for retsakten om kunstig intelligens og kravene til højrisiko-AI udvides til at gælde ud over »AI-sikkerhedskomponenter« eller situationer, hvor selve AI-systemet udgør et produkt, som er omfattet af EU's harmoniseringslovgivning som anført i bilag II. Dette skyldes, at kunstig intelligens — ikke blot, når den anvendes som sikkerhedskomponenter i disse produkter — kan indebære risici, og at AI-systemet ikke altid er et produkt i sig selv. F.eks. når det bruges som led i et diagnostisk eller prognostisk værktøj på det medicinske område eller en AI-drevet termostat, der regulerer en kedel. |
4.13. |
EØSU advarer dog om, at den valgte »listebaserede« tilgang for højrisiko-AI i bilag III kan føre til legitimering, normalisering og standardisering af en lang række AI-praksisser, der stadig er stærkt kritisable, og hvor den samfundsmæssige nytte er tvivlsom eller helt mangler. |
4.14. |
Endvidere kan risikoen for at skade sundheden, sikkerheden og de grundlæggende rettigheder ikke nødvendigvis altid afhjælpes gennem overholdelse af de fem krav til højrisiko-AI, navnlig når det gælder mindre omtalte grundlæggende rettigheder, der kan påvirkes af kunstig intelligens, såsom retten til menneskelig værdighed, uskyldsformodningen, retten til rimelige og retfærdige arbejdsforhold, forenings- og forsamlingsfriheden og retten til at strejke for blot at nævne nogle stykker. |
4.15. |
EØSU anbefaler på det kraftigste at tilføje forvaltning og drift af telekommunikations- og internetinfrastruktur til punkt 2 i bilag III. EØSU anbefaler også at udvide anvendelsesområdet for dette punkt til at gælde andet end AI-sikkerhedskomponenter. |
4.16. |
AI-systemer til fastsættelse af adgangen til uddannelse og til evaluering af studerende risikerer at skade de studerendes sundhed, sikkerhed og grundlæggende rettigheder. Onlineovervågningsværktøjer til f.eks. markering af »mistænkelig adfærd« og »tegn på snyd« ved onlineeksaminer ved brug af enhver form for biometrisk måling og adfærdssporing er ekstremt indgribende og har intet videnskabeligt grundlag. |
4.17. |
Anvendelsen af AI-systemer til overvågning, sporing og evaluering af arbejdstagere vækker stor bekymring i forhold til arbejdstageres grundlæggende ret til rimelige og retfærdige arbejdsforhold, til information og høring samt til afskedigelse på et berettiget grundlag. Tilføjelsen af disse AI-systemer til højrisikolisten vil sandsynligvis give anledning til konflikt med nationale arbejdsmarkedslove og kollektive overenskomster vedrørende (u)rimelig afskedigelse, sunde og sikre arbejdsforhold og information af arbejdstagere. EØSU efterlyser en garanti for, at arbejdstagerne og arbejdsmarkedets parter inddrages og oplyses fuldt ud i beslutningsprocessen om anvendelsen af kunstig intelligens på arbejdspladsen og om udviklingen, indkøbet og anvendelsen heraf. |
4.18. |
Kravene om »menneskeligt tilsyn« er navnlig relevant på arbejdsmarkedet, fordi tilsynet vil blive udført af en arbejdstager eller en gruppe af arbejdstagere. EØSU understreger, at disse arbejdstagere bør undervises i, hvordan opgaven skal udføres. I betragtning af at disse arbejdstagere forventes at få mulighed for at se bort fra AI-systemets output eller endda beslutte ikke at anvende det, bør der endvidere indføres foranstaltninger for at undgå frygten for negative konsekvenser (såsom degradering eller afskedigelse), hvis en sådan beslutning træffes. |
4.19. |
Anvendelsen af AI-systemer, når det gælder adgang til og udnyttelse af offentlige tjenesteydelser er bredere end anvendelsen af AI-systemer, når det gælder adgang til og udnyttelse af centrale private tjenesteydelser. I sidstnævnte tilfælde er det kun kreditvurderingen (kreditværdighed), som foretages ved hjælp af kunstig intelligens, og som derved betragtes som højrisikobetonet. EØSU anbefaler at udvide anvendelsesområdet for punkt 5, litra b), i bilag III til at omfatte AI-systemer beregnet til bedømmelse af berettigelse til væsentlige private tjenesteydelser. |
4.20. |
Kunstig intelligens, der anvendes af retshåndhævende myndigheder og i forbindelse med forvaltningen af migration, asyl og grænsekontrol til individuelle (strafferetlige og sikkerhedsmæssige) risikovurderinger, risikerer at skade uskyldsformodningen, retten til forsvar og retten til asyl som fastsat i EU's charter. AI-systemer søger i det store hele blot sammenfald af karakteristika fundet i andre »tilfælde«. Mistanken i disse tilfælde er ikke baseret på en faktisk mistanke om en strafferetlig handling eller en forseelse begået af en bestemt person, men blot på karakteristika, som personen tilfældigvis deler med dømte forbrydere (såsom adresse, indkomst, nationalitet, gæld, beskæftigelse, adfærd, venners og familiemedlemmers adfærd osv.). |
4.21. |
Anvendelsen af kunstig intelligens i forbindelse med retspleje og demokratiske processer er særdeles følsomt og bør håndteres mere nuanceret og undersøges mere nøje, end hvad der for nuværende er tilfældet. Anvender man blot systemer til at hjælpe retlige myndigheder med at undersøge og fortolke fakta og lovgivning og med at anvende lovgivningen på konkrete fakta, overser man nemt den omstændighed, at domsafsigelse handler om meget mere end at finde mønstre i historiske data (hvilket i princippet er det, som aktuelle AI-systemer gør). I retsakten formodes det desuden, at disse former for kunstig intelligens kun er til støtte for retsvæsenet, mens fuldt automatiserede retlige afgørelser falder uden for anvendelsesområdet. EØSU beklager også, at der ikke er nogen omtale af AI-systemer eller -anvendelser i forbindelse med demokratiske processer som f.eks. valg. |
4.22. |
Udvalget anbefaler, at der tilføjes en bestemmelse, der tager højde for situationer, hvor det enten er åbenlyst eller afklaret under den forudgående overensstemmelsesvurdering, at de seks krav ikke i tilstrækkelig grad vil afhjælpe risikoen for skade på sundheden, sikkerheden og menneskerettighederne (f.eks. ved at ændre artikel 16, litra g), i retsakten om kunstig intelligens). |
Forvaltningspraksis og retshåndhævelse
4.23. |
EØSU bifalder den forvaltningsstruktur, som retsakten om kunstig intelligens fastlægger. Udvalget anbefaler, at Det Europæiske Udvalg for Kunstig Intelligens regelmæssigt holder obligatoriske meningsudvekslinger med den brede offentlighed, herunder med arbejdsmarkedets parter og NGO'er. |
4.24. |
EØSU anbefaler stærkt at udvide anvendelsesområdet for retsakten for kunstig intelligens til også at omfatte »ældre AI-systemer«, dvs. systemer, der allerede er i brug eller installeres, inden retsakten om kunstig intelligens træder i kraft, for at undgå, at aktører hurtigt tager forbudt kunstig intelligens med høj og mellemhøj risiko i brug med det mål for øje at undgå overensstemmelseskravene. Derudover anbefaler EØSU kraftigt ikke at udelukke kunstig intelligens, der er en del af store IT-systemer inden for området med frihed, sikkerhed og retfærdighed som anført i bilag IX fra anvendelsesområdet for retsakten om kunstig intelligens. |
4.25. |
Som følge af de komplekse krav og ansvarlighedsaktiviteter samt egenvurderingen er der risiko for, at proceduren reduceres til tjeklister, og at overholdelse af kravene kan bekræftes med et enkelt »ja« eller »nej«. EØSU anbefaler at gøre vurderinger udført af tredjepart obligatoriske for al højrisiko-AI. |
4.26. |
EØSU anbefaler, at der indføres tilstrækkelige (finansielle) støtteforanstaltninger og enkle og tilgængelige værktøjer møntet på mikrovirksomheder og små organisationer samt civilsamfundsorganisationer med henblik på at fremme deres forståelse af retsaktens formål og mening og deres evne til at overholde kravene. Disse foranstaltninger bør gå længere end til at støtte de digitale innovationsknudepunkter og bestå i at fremme adgangen til ekspertise på højt niveau om retsakten om kunstig intelligens, dens krav og forpligtelser og navnlig ræsonnementet bag disse. |
4.27. |
EØSU anbefaler at tilføje en klage- og søgsmålsmekanisme for organisationer og borgere, der har lidt skade på grund af et AI-system, en AI-praksis eller -anvendelse, der falder inden for anvendelsesområdet for retsakten om kunstig intelligens. |
Bruxelles, den 22. september 2021.
Christa SCHWENG
Formand for Det Europæiske Økonomiske og Sociale Udvalg