Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Yttrande från Europeiska ekonomiska och sociala kommittén om Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (COM(2021) 206 final – 2021/106 (COD))

    EESC 2021/02482

    EUT C 517, 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    SV

    Europeiska unionens officiella tidning

    C 517/61


    Yttrande från Europeiska ekonomiska och sociala kommittén om Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter

    (COM(2021) 206 final – 2021/106 (COD))

    (2021/C 517/09)

    Föredragande:

    Catelijne MULLER

    Remiss

    Europaparlamentet, 7.6.2021

    Rådet, 15.6.2021

    Rättslig grund

    Artikel 114 i fördraget om Europeiska unionens funktionssätt

    Ansvarig sektion

    Sektionen för inre marknaden, produktion och konsumtion

    Antagande av sektionen

    2.9.2021

    Antagande vid plenarsessionen

    22.9.2021

    Plenarsession nr

    563

    Resultat av omröstningen

    (för/emot/nedlagda röster)

    225/3/6

    1.   Slutsatser och rekommendationer

    1.1

    Europeiska ekonomiska och sociala kommittén (EESK) välkomnar att kommissionens förslag till rättsakt om artificiell intelligens (nedan kallad ”rättsakten”) inte bara behandlar de risker som är förknippade med AI, utan också avsevärt höjer ribban när det gäller kvalitet, prestanda och tillförlitlighet hos AI som EU står redo att tillåta. Kommittén är särskilt nöjd med att rättsakten sätter hälsa, säkerhet och grundläggande rättigheter i centrum och har global räckvidd.

    1.2

    EESK ser möjligheter till förbättringar när det gäller de förbjudna AI-metodernas omfattning, definition och tydlighet, konsekvenserna av de kategoriseringsval som görs i förhållande till ”riskpyramiden”, den riskreducerande effekten av kraven på AI med hög risk, rättsaktens verkställbarhet och förhållandet till befintlig lagstiftning och andra lagstiftningsförslag som nyligen lagts fram.

    1.3

    EESK betonar att AI aldrig har verkat i en laglös värld. På grund av sitt stora tillämpningsområde och sitt företräde som EU-förordning skulle rättsakten kunna skapa spänningar med befintlig nationell lagstiftning och EU-lagstiftning samt med relaterade lagstiftningsförslag. EESK rekommenderar att skäl 41 ändras för att ta vederbörlig hänsyn till och klargöra förhållandet mellan rättsakten och befintlig och kommande lagstiftning.

    1.4

    Kommittén rekommenderar att definitionen av AI förtydligas genom att man stryker bilaga I och ändrar artikel 3 något samt breddar rättsaktens tillämpningsområde så att det omfattar befintliga AI-system och AI-komponenter i stora it-system på området frihet, säkerhet och rättvisa i enlighet med förteckningen i bilaga IX.

    1.5

    EESK rekommenderar att man förtydligar förbuden avseende ”subliminal teknik” och ”utnyttjande av sårbarheter” så att de återspeglar förbudet mot skadlig manipulation, och även lägger till ”skada på de grundläggande rättigheterna, demokratin och rättsstatsprincipen” som villkor för dessa förbud.

    1.6

    EESK menar att poängsättning av EU-medborgarnas pålitlighet på grundval av deras sociala beteende eller personlighetsrelaterade egenskaper inte är något som hör hemma i EU, oavsett vilken aktör som utför poängsättningen. EESK rekommenderar att detta förbud utvidgas till att omfatta social poängsättning som utförs av privata organisationer och halvoffentliga myndigheter.

    1.7

    EESK efterlyser ett förbud mot användning av AI för automatisk biometrisk igenkänning på allmänt och privat tillgängliga platser, utom i autentiseringssyfte under särskilda omständigheter, samt för automatisk igenkänning av mänskliga beteendemässiga signaler på allmänt och privat tillgängliga platser, utom i mycket specifika fall, såsom vissa hälsosyften, där det kan vara värdefullt med igenkänning av patienternas känslor.

    1.8

    Strategin med en förteckning över AI med hög risk riskerar att normalisera och ge allmän spridning åt ett antal AI-system och AI-tillämpningar som fortfarande är starkt ifrågasatta. EESK varnar för att efterlevnaden av de krav som fastställts för AI med medelhög och hög risk inte nödvändigtvis minskar riskerna för skador på hälsa, säkerhet och grundläggande rättigheter för all AI med hög risk. EESK rekommenderar att rättsakten tar höjd för denna situation. Åtminstone bör krav på i) mänskligt agentskap, ii) integritet, iii) mångfald, icke-diskriminering och rättvisa, iv) förklarbarhet och v) miljömässigt och socialt välbefinnande läggas till i de etiska riktlinjerna för tillförlitlig AI.

    1.9

    I linje med den human-in-command-strategi för AI som EESK sedan länge har förespråkat rekommenderar kommittén starkt att rättsakten föreskriver att vissa beslut även fortsättningsvis ska fattas av människor, särskilt på områden där dessa beslut har en moralisk komponent och rättsliga eller samhälleliga följder, t.ex. inom rättsväsendet, brottsbekämpning, sociala tjänster, hälso- och sjukvård, bostäder, finansiella tjänster, arbetslivet och utbildning.

    1.10

    EESK rekommenderar att tredjepartsbedömningar av överensstämmelse görs obligatoriska för all AI med hög risk.

    1.11

    EESK rekommenderar att en mekanism för klagomål och prövning införs för organisationer och medborgare som har lidit skada av ett AI-system, en AI-metod eller en AI-tillämpning som omfattas av rättsakten.

    2.   Lagförslag om artificiell intelligens – rättsakten om artificiell intelligens

    2.1

    EESK välkomnar att kommissionens förslag till rättsakt om artificiell intelligens inte bara behandlar de risker som är förknippade med AI, utan också avsevärt höjer ribban när det gäller kvalitet, prestanda och tillförlitlighet hos AI som EU står redo att tillåta.

    3.   Övergripande kommentarer – rättsakten om artificiell intelligens

    Syfte och tillämpningsområde

    3.1

    EESK välkomnar både rättsaktens syfte och dess tillämpningsområde. EESK välkomnar i synnerhet att kommissionen sätter hälsa, säkerhet och grundläggande rättigheter i centrum för rättsakten. EESK välkomnar också den externa effekten av rättsakten, som säkerställer att AI som utvecklas utanför EU måste uppfylla samma rättsliga normer om den används eller har en inverkan inom EU.

    Definition av AI

    3.2

    Definitionen av AI (artikel 3.1 i tillsammans med bilaga I till rättsakten) har gett upphov till en diskussion bland AI-forskare eftersom ett antal exempel i bilaga I inte betraktas som AI av AI-forskare och ett antal viktiga AI-tekniker saknas. EESK ser inget mervärde i bilaga I och rekommenderar att den utgår helt från rättsakten. EESK rekommenderar också att definitionen i artikel 3.1 ändras på följande sätt:

    ”system med artificiell intelligens (AI-system): programvara som på ett automatiserat sätt och för en viss uppsättning människodefinierade mål kan generera utdata såsom innehåll, förutsägelser, rekommendationer eller beslut som påverkar den miljö som den samverkar med.”

    Hälsa, säkerhet och grundläggande rättigheter – riskpyramiden

    3.3

    I den eskalerande ”riskpyramid” (från låg/medelhög risk till hög risk, till oacceptabel risk) som används för att kategorisera ett antal allmänna AI-metoder och domänspecifika AI-användningsfall medges att inte all AI medför risker och inte alla risker är lika stora eller kräver samma riskreducerande åtgärder.

    3.4

    Den valda strategin väcker två viktiga frågor. För det första, är de riskreducerande åtgärderna (för AI med hög och låg/medelhög risk) verkligen tillräckliga för att minska riskerna för skador på hälsa, säkerhet och grundläggande rättigheter? För det andra, är vi beredda att låta AI i stor utsträckning ersätta mänskligt beslutsfattande, även i mycket viktiga processer såsom inom brottsbekämpning och rättsväsendet?

    3.5

    När det gäller den första frågan varnar EESK för att efterlevnaden av de krav som fastställts för AI med medelhög och hög risk inte nödvändigtvis minskar riskerna för skador på hälsa, säkerhet och grundläggande rättigheter i samtliga fall. Detta kommer att vidareutvecklas i avsnitt 4.

    3.6

    När det gäller den andra frågan är det som saknas i rättsakten tanken att AI ska förbättra det mänskliga beslutsfattandet och den mänskliga intelligensen, snarare än ersätta dem. I rättsakten förutsätts att AI, när kraven på AI med medelhög och hög risk är uppfyllda, i stor utsträckning kan ersätta det mänskliga beslutsfattandet.

    3.7

    EESK rekommenderar starkt att rättsakten föreskriver att vissa beslut även fortsättningsvis ska fattas av människor, särskilt på områden där dessa beslut har en moralisk komponent och rättsliga eller samhälleliga följder, t.ex. inom rättsväsendet, brottsbekämpning, sociala tjänster, hälso- och sjukvård, bostäder, finansiella tjänster, arbetslivet och utbildning.

    3.8

    AI-system verkar inte i en laglös värld. Ett antal rättsligt bindande regler på europeisk, nationell och internationell nivå gäller redan i dag för AI-system eller berör dem. Till de rättsliga källorna hör bland annat EU:s primärrätt (EU-fördragen och EU-stadgan om de grundläggande rättigheterna), EU:s sekundärrätt (såsom dataskyddsförordningen, produktansvarsdirektivet, förordningen om det fria flödet av andra data än personuppgifter samt direktiven om icke-diskriminering, konsumenträtt och arbetsmiljö), FN:s konventioner om mänskliga rättigheter, Europarådets konventioner (såsom Europeiska konventionen om de mänskliga rättigheterna) och ett stort antal lagar i EU:s medlemsstater. Utöver regler som tillämpas övergripande finns det flera domänspecifika regler som endast gäller för vissa AI-tillämpningar (till exempel förordningen om medicintekniska produkter inom hälso- och sjukvårdssektorn). EESK rekommenderar att skäl 41 ändras för att ta vederbörlig hänsyn till detta.

    4.   Särskilda kommentarer och rekommendationer – rättsakten om artificiell intelligens

    Förbjudna AI-metoder

    4.1

    EESK håller med om att AI-metoderna i artikel 5 verkligen inte har några sociala fördelar och bör förbjudas. Kommittén anser dock att vissa formuleringar är otydliga, vilket skulle kunna göra vissa förbud svåra att tolka och lätta att kringgå.

    4.2

    Det finns bevis för att subliminala tekniker inte bara kan leda till fysisk eller psykisk skada (de nuvarande villkoren för att just detta förbud ska gälla), utan även – med tanke på den miljö som de används i – till andra negativa personliga, samhälleliga eller demokratiska effekter, såsom förändrat röstningsbeteende. Dessutom är det ofta inte själva den subliminala tekniken, utan snarare beslutet om vem en subliminal teknik ska inriktas på, som drivs av AI.

    4.3

    För att fånga upp vad rättsakten syftar till att förbjuda i artikel 5.1 a, vilket är att manipulera människor till skadligt beteende, rekommenderar EESK att ledet ändras på följande sätt: ”[…] ett AI-system som utvecklas för, syftar till eller används för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka skada på den personens, en annan persons eller en grupp av personers grundläggande rättigheter, inbegripet deras fysiska eller psykiska hälsa och säkerhet, eller på demokratin och rättsstatsprincipen”.

    4.4

    EESK rekommenderar att det förbjudna utnyttjandet av sårbarheter i artikel 5.1 b ändras på samma sätt, så att det även omfattar skada på de grundläggande rättigheterna, inbegripet fysisk eller psykisk skada.

    4.5

    EESK välkomnar förbudet mot ”social poängsättning” i artikel 5.1 c. Kommittén rekommenderar att förbudet mot social poängsättning också ska gälla privata organisationer och halvoffentliga myndigheter, snarare än bara offentliga myndigheter. Poängsättning av EU-medborgarnas pålitlighet på grundval av deras sociala beteende eller personlighetsrelaterade egenskaper är inte något som hör hemma i EU, oavsett vilken aktör som utför poängsättningen. Om så var fallet skulle EU öppna upp för att tillåta social poängsättning på flera områden, till exempel på arbetsplatsen. Villkoren i leden i och ii bör tydliggöras så att en tydlig gräns dras mellan vad som anses vara ”social poängsättning” och vad som kan anses vara en godtagbar form av utvärdering för ett särskilt syfte: gränsen överskrids då den information som används för utvärderingen inte längre kan anses vara relevant eller ha ett rimligt samband med utvärderingens mål.

    4.6

    Rättsakten syftar till att förbjuda biometrisk fjärridentifiering i realtid (med t.ex. ansiktsigenkänning) för brottsbekämpande ändamål och kategorisera detta som ”hög risk” när metoden används för andra ändamål. Detta innebär att biometrisk igenkänning ”i efterhand” och ”näst intill i realtid” fortfarande tillåts. Även biometrisk igenkänning som inte syftar till att identifiera en person utan snarare bedöma personers beteende utifrån deras biometriska kännetecken (mikrouttryck, gångstil, temperatur, hjärtfrekvens osv.) tillåts. Genom begränsningen till ”brottsbekämpning” tillåts biometrisk identifiering, samt all annan form av biometrisk igenkänning som inte syftar till att identifiera en person, inbegripet alla nämnda former av ”känsloigenkänning” för alla andra syften, av alla andra aktörer, på alla offentliga och privata platser, tex. arbetsplatser, butiker, arenor, teatrar etc. Detta lämnar dörren vidöppen till en värld där vi ständigt utsätts för ”känslomässig bedömning” för det syfte som den bedömande aktören anser vara nödvändigt.

    4.7

    I rättsakten kategoriseras i allmänhet ”känsloigenkänning” som låg risk, med undantag för ett fåtal användningsområden som kategoriseras som hög risk. Denna typ av biometrisk igenkänning kallas också ”affektigenkänning” och ibland ”beteendeigenkänning”. Alla dessa AI-metoder är extremt inkräktande, saknar en solid vetenskaplig grund och medför en betydande risk för skada på ett antal grundläggande rättigheter i EU-stadgan, såsom rätten till mänsklig värdighet, rätten till personlig integritet (som inbegriper psykisk integritet) och rätten till privatliv.

    4.8

    I stort sett i linje med uppmaningen från Europeiska datatillsynsmannen och Europeiska dataskyddsstyrelsen den 21 juni 2021 om att förbjuda AI för automatisk igenkänning av mänskliga drag på allmänt tillgängliga platser och för vissa andra sätt att använda AI som kan leda till otillbörlig diskriminering, efterlyser EESK

    ett förbud mot användning av AI för automatisk biometrisk igenkänning på offentligt och privat tillgängliga platser (såsom igenkänning av ansikten, gångstil, röst och andra biometriska kännetecken), utom i autentiseringssyfte under särskilda omständigheter (t.ex. för att ge tillträde till säkerhetskänsliga platser),

    ett förbud mot användning av AI för automatisk igenkänning av mänskliga beteendemässiga signaler på offentligt och privat tillgängliga platser,

    ett förbud mot AI-system som använder biometri för att kategorisera individer i kluster på grundval av etnicitet, kön, politisk åskådning eller sexuell läggning eller andra grunder på vilka diskriminering är förbjuden enligt artikel 21 i stadgan,

    ett förbud mot användning av AI för att dra slutsatser om en fysisk persons känslor, beteende, intentioner eller egenskaper, utom i mycket specifika fall, såsom vissa hälsosyften, där det är viktigt med igenkänning av patienternas känslor.

    AI med hög risk

    4.9

    Vid beslutet om huruvida en AI-metod eller AI-tillämpning som utgör en risk för hälsa, säkerhet eller grundläggande rättigheter ändå bör tillåtas på stränga villkor undersökte kommissionen två faktorer: i) huruvida AI-metoden eller AI-tillämpningen kan ha sociala fördelar och ii) huruvida de risker för att skada hälsa, säkerhet och grundläggande rättigheter som denna användning trots allt medför kan minskas genom att ett antal krav uppfylls.

    4.10

    EESK välkomnar anpassningen av dessa krav till inslagen i de etiska riktlinjerna för tillförlitlig AI. Fem viktiga krav i de etiska riktlinjerna behandlas dock inte specifikt i kraven på AI med hög risk i rättsakten, nämligen i) mänskligt agentskap, ii) integritet, iii) mångfald, icke-diskriminering och rättvisa, iv) förklarbarhet och v) miljömässigt och socialt välbefinnande. EESK anser att detta är en försummad möjlighet, eftersom många av de risker som AI medför rör integritet, snedvridenhet, utestängning, oförklarliga resultat av AI-beslut, undergrävande av mänskligt agentskap och miljön, och alla återspeglas i våra grundläggande rättigheter.

    4.11

    EESK rekommenderar att dessa krav läggs till i kapitel 2 i avdelning III i rättsakten för att förbättra dess förmåga att effektivt skydda vår hälsa, vår säkerhet och våra grundläggande rättigheter mot negativa effekter av AI som används av såväl offentliga myndigheter som privata organisationer.

    4.12

    EESK välkomnar det ”sammanflätade systemet” mellan rättsakten och unionens lagstiftning om harmonisering. Kommittén rekommenderar att rättsaktens tillämpningsområde och kraven på AI med hög risk utvidgas till att omfatta mer än ”AI-säkerhetskomponenter” eller den situation där AI-systemet i sig är en produkt som omfattas av unionens lagstiftning om harmonisering som förtecknas i bilaga II. Detta beror på att AI kan medföra risker inte bara när det används som säkerhetskomponenter i dessa produkter och på att AI-systemet i sig inte alltid är en produkt. Detta gäller till exempel när AI används som en del av ett diagnos- eller prognosverktyg inom medicin eller en AI-driven termostat som reglerar en panna.

    4.13

    EESK varnar dock för att den valda strategin med en förteckning över AI med hög risk i bilaga III kan leda till att ganska många AI-metoder som fortfarande är kraftigt kritiserade och vars samhällsfördelar kan ifrågasättas eller är obefintliga legitimeras, normaliseras och ges allmän spridning.

    4.14

    Dessutom kan riskerna för skada på hälsa, säkerhet och grundläggande rättigheter inte nödvändigtvis alltid reduceras genom efterlevnad av de fem kraven för AI med hög risk, särskilt när det gäller mer sällan nämnda grundläggande rättigheter som skulle kunna påverkas av AI, såsom rätten till mänsklig värdighet, oskuldspresumtionen, rätten till rättvisa arbetsförhållanden, förenings- och mötesfriheten samt strejkrätten, för att bara nämna några få.

    4.15

    EESK rekommenderar starkt att förvaltning och drift av telekom- och internetinfrastruktur läggs till i punkt 2 i bilaga III. EESK rekommenderar också att utvidga denna punkts tillämpningsområde till att omfatta mer än AI-säkerhetskomponenter.

    4.16

    AI-system för att fastställa tillgången till utbildning och utvärdera studerande medför ett antal risker för skada på de studerandes hälsa, säkerhet och grundläggande rättigheter. Verktyg för att övervaka prov online, till exempel för att markera ”misstänkt beteende” och ”indikationer på fusk” under prov online, med hjälp av all slags biometri och beteendespårning är verkligt inkräktande och saknar vetenskaplig grund.

    4.17

    Användning av AI-system för övervakning, spårning och utvärdering av arbetstagare ger upphov till allvarliga farhågor när det gäller arbetstagarnas grundläggande rätt till rättvisa arbetsförhållanden, till information och samråd samt till uppsägning på saklig grund. Tillägget av dessa AI-system till högriskförteckningen kommer sannolikt att orsaka konflikter med nationell arbetslagstiftning och kollektivavtal om (o)skälig uppsägning, hälsosamma och säkra arbetsförhållanden och information till arbetstagare. EESK efterlyser en garanti för att arbetstagarna och arbetsmarknadens parter fullt ut involveras och hålls underrättade i beslutsprocessen om användningen av AI på arbetsplatsen samt när det gäller dess utveckling, upphandling och användning.

    4.18

    Kravet på ”mänsklig tillsyn” är särskilt relevant i arbetslivet, eftersom tillsynen kommer att utföras av en arbetstagare eller en grupp arbetstagare. EESK betonar att dessa arbetstagare bör få utbildning om hur de ska utföra denna uppgift. Med tanke på att dessa arbetstagare dessutom förväntas ha tillåtelse att bortse från AI-systemets utdata eller till och med besluta att inte använda dem, bör det finnas åtgärder för att undvika rädsla för negativa följder (såsom degradering eller uppsägning) om ett sådant beslut fattas.

    4.19

    Användning av AI-system när det gäller tillgång till och åtnjutande av offentliga tjänster är bredare än användning av AI-system när det gäller tillgång till och åtnjutande av grundläggande privata tjänster, där endast bedömning av kreditvärdighet eller fastställande av kreditbetyg genom AI anses utgöra en hög risk. EESK rekommenderar att tillämpningsområdet för punkt 5 b i bilaga III utvidgas till att omfatta AI-system som syftar till att bedöma berättigande till grundläggande privata tjänster.

    4.20

    AI som används av brottsbekämpande myndigheter och vid migrations-, asyl- och gränskontrollförvaltning för att göra individuella (straffrättsliga eller säkerhetsrelaterade) riskbedömningar utgör en risk för skada på oskuldspresumtionen, rätten till försvar och rätten till asyl i EU-stadgan. AI-system söker i allmänhet enbart korrelationer som bygger på egenskaper som finns i andra ”fall”. Misstanke i dessa fall grundar sig inte på faktisk misstanke om brott eller förseelser från den berörda personens sida, utan enbart på egenskaper som personen råkar dela med dömda brottslingar (såsom adress, inkomst, nationalitet, skulder, sysselsättning, beteende, vänners och familjemedlemmars beteende osv.).

    4.21

    Användning av AI i rättskipning och demokratiska processer är särskilt känslig och bör hanteras med mer nyans och granskning än vad som nu är fallet. Genom att enbart använda systemen för att hjälpa en rättslig myndighet att undersöka och tolka fakta och lagstiftning och att tillämpa lagen på konkreta fakta förbiser man att avgivande av domar handlar om så mycket mer än att hitta mönster i historiska uppgifter (vilket i grund och botten är vad nuvarande AI-system gör). I texten förutsätts också att dessa typer av AI enbart kommer att bistå rättsväsendet, samtidigt som fullständigt automatiserade rättsliga beslut inte omfattas. EESK beklagar också att AI-system eller AI-tillämpningar på området demokratiska processer, såsom val, inte nämns.

    4.22

    EESK rekommenderar att man lägger till en bestämmelse som gäller en situation där det antingen är uppenbart eller framkom under den föregående bedömningen av överensstämmelse att de sex kraven inte i tillräcklig utsträckning minskar risken för skada på hälsa, säkerhet och mänskliga rättigheter (till exempel genom att ändra artikel 16 g i rättsakten).

    Styrning och verkställbarhet

    4.23

    EESK välkomnar den styrningsstruktur som inrättas genom rättsakten. Kommittén rekommenderar att AI-nämnden håller regelbundna obligatoriska åsiktsutbyten med samhället i stort, inbegripet arbetsmarknadens parter och icke-statliga organisationer.

    4.24

    EESK rekommenderar starkt att rättsaktens tillämpningsområde utvidgas till att omfatta befintliga AI-system, dvs. system som redan används eller tas i drift innan rättsakten träder i kraft, för att undvika att aktörer snabbt tar förbjudna AI-system med hög och medelhög risk i drift för att undvika efterlevnadskrav. Kommittén rekommenderar dessutom starkt att AI som är en del av ett stort it-system på området frihet, säkerhet och rättvisa enligt förteckningen i bilaga IX, inte undantas från rättsaktens tillämpningsområde.

    4.25

    Komplexiteten i kraven och ansvarsskyldigheten, samt självbedömningen, riskerar att leda till att denna process förenklas till kontrollistor där ett enkelt ”ja” eller ”nej” skulle kunna räcka för att uppfylla kraven. EESK rekommenderar att tredjepartsbedömningar görs obligatoriska för all AI med hög risk.

    4.26

    EESK rekommenderar lämpliga (ekonomiska) stödåtgärder och enkla och tillgängliga verktyg för mikroorganisationer och små organisationer samt organisationer i det civila samhället för att de ska kunna förstå syftet med och innebörden av rättsakten samt kunna uppfylla dess krav. Dessa åtgärder bör gå längre än att stödja digitala innovationsknutpunkter och bestå i att underlätta tillgången till expertkunskaper på hög nivå om rättsakten, kraven och skyldigheterna i den samt i synnerhet resonemanget bakom dessa.

    4.27

    EESK rekommenderar att en mekanism för klagomål och prövning införs för organisationer och medborgare som har lidit skada av ett AI-system, en AI-metod eller en AI-tillämpning som omfattas av rättsakten.

    Bryssel den 22 september 2021.

    Christa SCHWENG

    Europeiska ekonomiska och sociala kommitténs ordförande


    Top