Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Yttrande från Europeiska regionkommittén – En europeisk strategi för artificiell intelligens – rättsakten om artificiell intelligens (reviderat yttrande)

    COR 2021/02682

    EUT C 97, 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    SV

    Europeiska unionens officiella tidning

    C 97/60


    Yttrande från Europeiska regionkommittén – En europeisk strategi för artificiell intelligens – rättsakten om artificiell intelligens

    (reviderat yttrande)

    (2022/C 97/12)

    Föredragande:

    Guido RINK (NL–PES), ledamot, kommunstyrelsen, Emmen

    Referensdokument:

    Meddelande från kommissionen till Europaparlamentet, rådet, Europeiska ekonomiska och sociala kommittén samt Regionkommittén – Främjande av en europeisk strategi för artificiell intelligens

    COM(2021) 205

    Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter

    COM(2021) 206

    I.   ÄNDRINGSREKOMMENDATIONER

    Ändringsrekommendation 1

    Skäl 1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Syftet med denna förordning är att förbättra den inre marknadens funktionssätt genom att fastställa en enhetlig rättslig ram för i synnerhet utveckling, saluföring och användning av artificiell intelligens i enlighet med unionens värden. Denna förordnings syften baseras på ett antal tvingande hänsyn till allmänintresset, såsom en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter, och säkerställer fri rörlighet över gränserna för AI-baserade varor och tjänster, vilket förhindrar att medlemsstaterna inför begränsningar av utvecklingen, saluföringen och användningen av AI-system, om sådana inte uttryckligen tillåts enligt denna förordning.

    Syftet med denna förordning är att förbättra den inre marknadens funktionssätt och garantera medborgarnas grundläggande rättigheter genom att fastställa en enhetlig rättslig ram för i synnerhet utveckling, saluföring och användning av artificiell intelligens i enlighet med unionens värden. Denna förordnings syften baseras på ett antal tvingande hänsyn till allmänintresset, såsom en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter, och säkerställer fri rörlighet över gränserna för AI-baserade varor och tjänster, vilket förhindrar att medlemsstaterna inför begränsningar av utvecklingen, saluföringen och användningen av AI-system, om sådana inte uttryckligen tillåts enligt denna förordning.

    Motivering

    Syftet med hänvisningen till de grundläggande rättigheterna är att betona kopplingen till EU:s stadga om de grundläggande rättigheterna.

    Ändringsrekommendation 2

    Nytt skäl efter skäl 6

    Kommissionens textförslag

    ReK:s ändringsförslag

     

    Definitionen av AI-system är en fortlöpande process, där man beaktar det sammanhang i vilket AI används, håller jämna steg med samhällsutvecklingen inom detta område och inte förlorar sambandet mellan ekosystemet av spetskompetens och ekosystemet av förtroende ur sikte.

    Motivering

    Utvecklingen inom AI och teknik kräver en anpassningsbar och föränderlig strategi. Genom detta skäl framhålls att definitionen av AI bör följa AI-systemens och AI-tillämpningarnas utveckling över tiden.

    Ändringsrekommendation 3

    Skäl 20

    Kommissionens textförslag

    ReK:s ändringsförslag

    För att säkerställa att dessa system används på ett ansvarfullt och proportionerligt sätt är det också viktigt att fastställa att hänsyn bör tas till vissa faktorer i var och en av de tre snävt definierade situationerna i den uttömmande förteckningen, i synnerhet vad gäller arten av situation som ger upphov till begäran och användningens konsekvenser för alla berörda personers rättigheter och friheter samt de skyddsåtgärder och villkor som föreskrivs i samband med användningen. Användningen av system för biometrisk fjärridentifiering i realtid på allmänt tillgänglig plats för brottsbekämpande ändamål bör omfattas av lämpliga tids- och platsmässiga begränsningar, med särskild hänsyn till bevis eller indikationer vad gäller hoten, offren eller gärningsmännen. Referensdatabasen över personer bör vara ändamålsenlig för varje användningsfall i var och en av de tre situationer som anges ovan.

    För att säkerställa att dessa system används på ett ansvarfullt och proportionerligt sätt är det också viktigt att fastställa att hänsyn bör tas till vissa faktorer i var och en av de tre snävt definierade situationerna i den uttömmande förteckningen, i synnerhet vad gäller arten av situation som ger upphov till begäran och användningens konsekvenser för alla berörda personers rättigheter och friheter samt de skyddsåtgärder och villkor som föreskrivs i samband med användningen. Samråd med berörda lokala och regionala myndigheter bör äga rum före den undantagsvisa användningen av dessa system. Användningen av system för biometrisk fjärridentifiering i realtid på allmänt tillgänglig plats för brottsbekämpande ändamål bör omfattas av strikta tids- och platsmässiga begränsningar, med särskild hänsyn till bevis eller indikationer vad gäller hoten, offren eller gärningsmännen. Referensdatabasen över personer bör vara ändamålsenlig för varje användningsfall i var och en av de tre situationer som anges ovan.

    Motivering

    Biometriska fjärridentifieringssystem i realtid bör inte användas lättvindigt.

    Ändringsrekommendation 4

    Skäl 21

    Kommissionens textförslag

    ReK:s ändringsförslag

    Varje användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpande ändamål bör vara föremål för ett uttryckligt och specifikt tillstånd som lämnas av en oberoende administrativ myndighet i en medlemsstat. Dessa tillstånd bör i princip erhållas före användningen, utom i vederbörligen motiverade brådskande situationer, alltså situationer då behovet av att använda de berörda systemen är sådant att det i praktiken är objektivt omöjligt att erhålla ett tillstånd innan användningen inleds. I sådana brådskande situationer bör användningen begränsas till det absoluta minimum som är nödvändigt och omfattas av lämpliga skyddsmekanismer och villkor som fastställs i nationell lagstiftning och som specificeras av den berörda brottsbekämpande myndigheten i samband med varje enskilt fall av brådskande användning . Den brottsbekämpande myndigheten bör i sådana situationer också sträva efter att erhålla ett tillstånd så snart som möjligt, och även ange skälen till att den inte kunnat ansöka om tillstånd tidigare .

    Varje användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpande ändamål bör vara föremål för ett uttryckligt och specifikt tillstånd som lämnas av en oberoende administrativ myndighet i en medlemsstat. Dessa tillstånd bör erhållas före användningen, utom i vederbörligen motiverade brådskande situationer, alltså situationer då behovet av att använda de berörda systemen är sådant att det i praktiken är objektivt omöjligt att erhålla ett tillstånd innan användningen inleds. Under alla omständigheter bör användningen begränsas till det absoluta minimum som är nödvändigt och omfattas av lämpliga skyddsmekanismer och villkor som fastställs i nationell lagstiftning. Den brottsbekämpande myndigheten bör också genast informera den berörda lokala och regionala myndigheten och sträva efter att erhålla ett tillstånd från de behöriga myndigheterna .

    Motivering

    Det politiska och administrativa ansvaret för att förvalta och övervaka offentliga platser ligger hos de lokala och regionala myndigheterna. De bör därför involveras på lämpligt sätt vid användningen av sådana system på offentliga platser. I brådskande situationer där föregående samråd inte rimligen kan förväntas bör den berörda lokala eller regionala myndigheten omedelbart informeras om användningen av biometriska system på offentliga platser.

    Ändringsrekommendation 5

    Skäl 39

    Kommissionens textförslag

    ReK:s ändringsförslag

    AI-system som används inom förvaltning av migration, asyl och gränskontroll påverkar människor som ofta är i en särskilt utsatt situation och som är beroende av resultatet av de behöriga offentliga myndigheternas åtgärder. Det är därmed särskilt viktigt att de AI-system som används i dessa sammanhang är tillförlitliga, icke-diskriminerande och transparenta, för att garantera iakttagandet av de påverkade personernas grundläggande rättigheter, i synnerhet deras rätt till fri rörlighet, icke-diskriminering, skydd av privatliv och personuppgifter, internationellt skydd och god förvaltning. Det är därför lämpligt att som hög risk klassificera AI-system avsedda att användas av behöriga offentliga myndigheter som anförtrotts uppdrag på områdena migration, asyl och gränskontroll, såsom lögndetektorer och liknande verktyg för att läsa av en fysisk persons emotionella tillstånd, för bedömning av vissa risker som utgörs av fysiska personer som reser in till en medlemsstats territorium eller som ansöker om visum eller asyl, för att kontrollera äktheten i fysiska personers relevanta handlingar, och för att bistå behöriga offentliga myndigheter i granskningen av ansökningar om asyl, visum och uppehållstillstånd och därmed förbundna klagomål med avseende på syftet att fastställa om den ansökande fysiska personen uppfyller kraven för denna status. AI-system på området migration, asyl och gränskontroll vilka omfattas av denna förordning bör uppfylla de relevanta förfarandemässiga krav som fastställs i Europaparlamentets och rådets direktiv 2013/32/EU, Europaparlamentets och rådets förordning (EG) nr 810/2009 och annan relevant lagstiftning

    AI-system som används inom förvaltning av migration, asyl och gränskontroll påverkar människor som ofta är i en särskilt utsatt situation och som är beroende av resultatet av de behöriga offentliga myndigheternas åtgärder. Det är därmed särskilt viktigt att de AI-system som används i dessa sammanhang är tillförlitliga, icke-diskriminerande och transparenta, för att garantera iakttagandet av de påverkade personernas grundläggande rättigheter, i synnerhet deras rätt till fri rörlighet, icke-diskriminering, skydd av privatliv och personuppgifter, internationellt skydd och god förvaltning. Det är därför nödvändigt att som hög risk klassificera AI-system avsedda att användas av behöriga offentliga myndigheter som anförtrotts uppdrag på områdena migration, asyl och gränskontroll, såsom lögndetektorer och liknande verktyg för att läsa av en fysisk persons emotionella tillstånd, för bedömning av vissa risker som utgörs av fysiska personer som reser in till en medlemsstats territorium eller som ansöker om visum eller asyl, för att kontrollera äktheten i fysiska personers relevanta handlingar, och för att bistå behöriga offentliga myndigheter i granskningen av ansökningar om asyl, visum och uppehållstillstånd och därmed förbundna klagomål med avseende på syftet att fastställa om den ansökande fysiska personen uppfyller kraven för denna status. AI-system på området migration, asyl och gränskontroll vilka omfattas av denna förordning bör uppfylla de relevanta förfarandemässiga krav som fastställs i Europaparlamentets och rådets direktiv 2013/32/EU, Europaparlamentets och rådets förordning (EG) nr 810/2009 och annan relevant lagstiftning

    Motivering

    Denna anpassning återspeglar behovet av att låta de berörda AI-systemen omfattas av den skärpta ordningen för AI-system med hög risk.

    Ändringsrekommendation 6

    Skäl 43

    Kommissionens textförslag

    ReK:s ändringsförslag

    Kraven bör tillämpas på AI-system med hög risk när det gäller kvaliteten på använda dataset, teknisk dokumentation och arkivering, transparens och information till användarna, mänsklig tillsyn samt robusthet, noggrannhet och cybersäkerhet. Dessa krav är nödvändiga för att på ett effektivt sätt begränsa riskerna för hälsa, säkerhet och grundläggande rättigheter, såsom tillämpligt mot bakgrund av systemets avsedda syfte, och om inga andra åtgärder som är mindre handelsbegränsande finns rimligen tillgängliga, för att på så sätt motverka omotiverade begränsningar av handeln.

    Kraven bör tillämpas på AI-system med hög risk när det gäller kvaliteten på använda dataset, teknisk dokumentation och arkivering, transparens och information till användarna, mänsklig tillsyn samt robusthet, noggrannhet och cybersäkerhet. Dessa krav är nödvändiga för att på ett effektivt sätt begränsa riskerna för hälsa, säkerhet , datasäkerhet, konsumenträttigheter och grundläggande rättigheter, såsom tillämpligt mot bakgrund av systemets syfte, och om inga andra åtgärder som är mindre handelsbegränsande finns rimligen tillgängliga, för att på så sätt motverka omotiverade begränsningar av handeln. Fysiska personer eller grupper av personer som berörs av AI-system med hög risk som släpps ut på marknaden i unionen eller som på annat sätt tas i bruk bör på ett lämpligt, lättillgängligt och lättfattligt sätt informeras och ha tillgång till uttrycklig, lättåtkomlig och allmänt tillgänglig information om att de omfattas av sådana system.

    Motivering

    De transparens- och informationskrav som gäller för leverantörer och användare bör utvidgas till att omfatta de personer eller grupper av personer som kan påverkas av användningen av AI-system med hög risk, enligt förteckningen i bilaga III till förordningen. Med ”lättfattligt” avses också ett språk som är begripligt och tillgängligt för användaren, inklusive orala-auditiva språk och visuella-gestuella språk.

    Ändringsrekommendation 7

    Nytt skäl efter skäl 44

    Kommissionens textförslag

    ReK:s ändringsförslag

     

    Leverantörer av AI-system ska i sina kvalitetsstyrningssystem avstå från alla åtgärder som främjar omotiverad diskriminering på grund av kön, ursprung, religion eller övertygelse, funktionsnedsättning, ålder eller sexuell läggning eller diskriminering på någon annan grund.

    Motivering

    Olaglig diskriminering har sitt ursprung i mänskligt agerande. Leverantörer av AI-system bör i sina kvalitetsstyrningssystem avstå från alla åtgärder som skulle kunna främja diskriminering.

    Ändringsrekommendation 8

    Skäl 47

    Kommissionens textförslag

    ReK:s ändringsförslag

    I och med att vissa AI-system kan vara så svårgenomträngliga att de blir obegripliga eller för komplexa för fysiska personer bör en viss grad av transparens krävas för AI-system med hög risk. Användarna bör kunna tolka systemets utdata och använda dessa på lämpligt sätt. AI-system med hög risk bör därför åtföljas av relevant dokumentation och bruksanvisning och innefatta koncis och tydlig information, däribland vad gäller möjliga risker för grundläggande rättigheter och diskriminering, när så är lämpligt.

    I och med att vissa AI-system kan vara så svårgenomträngliga att de blir obegripliga eller för komplexa för fysiska personer eller för myndigheter på alla förvaltningsnivåer bör en hög grad av transparens krävas för AI-system med hög risk. Användarna bör kunna tolka systemets utdata och använda dessa på lämpligt sätt. AI-system med hög risk bör därför åtföljas av relevant dokumentation och bruksanvisning och innefatta koncis och tydlig information, däribland vad gäller möjliga risker för grundläggande rättigheter och diskriminering, när så är lämpligt.

    Motivering

    Ansvarsskyldigheten hos dem som utformar AI-system med hög risk försvagas av formuleringen ”en viss grad av transparens”.

    Ändringsrekommendation 9

    Skäl 48

    Kommissionens textförslag

    ReK:s ändringsförslag

    AI-system med hög risk bör utformas och utvecklas på ett sådant sätt att fysiska personer kan övervaka deras funktionssätt. Därför bör lämpliga åtgärder för mänsklig tillsyn identifieras av leverantören av systemet innan detta släpps ut på marknaden eller tas i bruk. Sådana åtgärder bör i synnerhet, när så är lämpligt, garantera att systemet är föremål för inbyggda operativa begränsningar som inte systemet själv kan åsidosätta och lyder den mänskliga operatören, och att de fysiska personer som anförtros uppgiften att utöva mänsklig tillsyn har den kompetens, utbildning och auktoritet som de behöver för att utföra sina uppgifter.

    AI-system med hög risk bör utformas och utvecklas på ett sådant sätt att fysiska personer och myndigheter på alla förvaltningsnivåer kan övervaka deras funktionssätt. Därför bör lämpliga åtgärder för mänsklig tillsyn identifieras av leverantören av systemet innan detta släpps ut på marknaden eller tas i bruk. Sådana åtgärder bör i synnerhet, när så är lämpligt, garantera att systemet är föremål för inbyggda operativa begränsningar som inte systemet själv kan åsidosätta och lyder den mänskliga operatören, och att de fysiska personer som anförtros uppgiften att utöva mänsklig tillsyn har den kompetens, utbildning och auktoritet som de behöver för att utföra sina uppgifter.

    Motivering

    Självförklarande.

    Ändringsrekommendation 10

    Skäl 67

    Kommissionens textförslag

    ReK:s ändringsförslag

    AI-system med hög risk bör vara försedda med en CE-märkning som visar att de överensstämmer med denna förordning, så att de omfattas av den fria rörligheten på den inre marknaden. Medlemsstaterna bör inte sätta upp omotiverade hinder för utsläppandet på marknaden eller ibruktagandet av AI-system som uppfyller kraven i denna förordning och är försedda med en CE-märkning.

    AI-system med hög risk bör vara försedda med en CE-märkning som visar att de överensstämmer med denna förordning, så att de omfattas av den fria rörligheten på den inre marknaden. Medlemsstaterna bör inte sätta upp hinder för utsläppandet på marknaden eller ibruktagandet av riskfyllda AI-system som uppfyller kraven i denna förordning och är försedda med en CE-märkning. Medlemsstaterna ska ha befogenhet att reglera riskfyllda AI-metoder och AI-system enbart på grundval av tvingande och vederbörligen motiverade allmänna och nationella säkerhetsintressen.

    Motivering

    Medlemsstaterna bör inte hindra tillämpningen av förordningen, men de bör behålla rätten att reglera riskfyllda AI-system om allmänna och nationella säkerhetsintressen står på spel.

    Ändringsrekommendation 11

    Skäl 70

    Kommissionens textförslag

    ReK:s ändringsförslag

    Vissa AI-system avsedda för att interagera med fysiska personer eller generera innehåll kan utgöra särskilda risker för identitetsmissbruk eller vilseledning oavsett om de kategoriseras som hög risk eller inte. Under vissa omständigheter bör därför användningen av dessa system omfattas av särskilda transparensskyldigheter utan att det påverkar kraven eller skyldigheterna för AI-system med hög risk. I synnerhet bör fysiska personer underrättas om att de interagerar med ett AI-system , utom om detta är uppenbart utifrån omständigheterna eller användningssituationen . Fysiska personer bör också meddelas när de exponeras för ett system för känsloigenkänning eller ett system för biometrisk kategorisering. Sådan information och sådana meddelanden bör tillhandahållas i format som är tillgängliga för personer med funktionsnedsättning. Vidare bör användare som använder ett AI-system för att generera eller manipulera bilder eller ljud- eller videoinnehåll som på ett märkbart sätt liknar befintliga personer, platser eller händelser, och som för en person felaktigt kan framstå som autentiska, upplysa om att innehållet har skapats artificiellt eller manipulerats genom märkning av det innehåll som producerats med artificiell intelligens och upplysa om innehållets artificiella ursprung.

    Vissa AI-system avsedda för att interagera med fysiska personer eller generera innehåll kan utgöra särskilda risker för identitetsmissbruk eller vilseledning oavsett om de kategoriseras som hög risk eller inte. Användningen av dessa system bör därför omfattas av särskilda transparensskyldigheter utan att det påverkar kraven eller skyldigheterna för AI-system med hög risk. I synnerhet bör fysiska personer systematiskt underrättas om att de interagerar med ett AI-system. Fysiska personer bör också meddelas när de exponeras för ett system för känsloigenkänning eller ett system för biometrisk kategorisering. Sådan information och sådana meddelanden bör tillhandahållas i format som är tillgängliga för personer med funktionsnedsättning. Vidare bör användare som använder ett AI-system för att generera eller manipulera bilder eller ljud- eller videoinnehåll som på ett märkbart sätt liknar befintliga personer, platser eller händelser, och som för en person felaktigt kan framstå som autentiska, upplysa om att innehållet har skapats artificiellt eller manipulerats genom märkning av det innehåll som producerats med artificiell intelligens och upplysa om innehållets artificiella ursprung.

    Motivering

    Inga undantag får göras från kravet på transparens och information när fysiska personer interagerar med AI-system.

    Ändringsrekommendation 12

    Skäl 76

    Kommissionens textförslag

    ReK:s ändringsförslag

    För att främja ett smidigt, effektivt och harmoniserat genomförande av denna förordning bör en europeisk nämnd för artificiell intelligens inrättas. Nämnden bör ansvara för ett antal rådgivande uppgifter, däribland att utfärda yttranden, rekommendationer, råd eller vägledning om frågor som rör genomförandet av denna förordning, inbegripet när det gäller tekniska specifikationer eller befintliga standarder avseende kraven i denna förordning och råd och bistånd till kommissionen om specifika frågor som rör artificiell intelligens.

    För att främja ett smidigt, effektivt och harmoniserat genomförande av denna förordning bör en europeisk nämnd för artificiell intelligens inrättas. Nämnden bör ansvara för ett antal rådgivande uppgifter, däribland att utfärda yttranden, rekommendationer, råd eller vägledning om frågor som rör genomförandet av denna förordning, inbegripet när det gäller tekniska specifikationer eller befintliga standarder avseende kraven i denna förordning och råd och bistånd till kommissionen om specifika frågor som rör artificiell intelligens. Den europeiska nämnden för artificiell intelligens bör ha en sammansättning som återspeglar de olika intressena i det europeiska samhället. Den europeiska nämnden för artificiell intelligens bör ha en jämn könsfördelning.

    Motivering

    Den europeiska nämnden för artificiell intelligens bör på ett lämpligt sätt återspegla de breda intressena i det europeiska samhället. Det handlar här bland annat om intressen på områden som mänskliga rättigheter, klimat och energisnål användning av AI-system, säkerhet, social delaktighet, hälsa osv. En jämn könsfördelning är en förutsättning för mångfald när det gäller rådgivning, fastställande av riktlinjer osv.

    Ändringsrekommendation 13

    Skäl 77

    Kommissionens textförslag

    ReK:s ändringsförslag

    EU-länderna har en central roll i tillämpningen och kontrollen av efterlevnaden av denna förordning. I detta hänseende bör varje medlemsstat utse en eller flera nationella behöriga myndigheter för att övervaka tillämpningen och genomförandet av denna förordning. För att öka den organisatoriska effektiviteten från medlemsstaternas sida och inrätta en officiell kontaktpunkt för kontakterna med allmänheten och andra motparter på medlemsstatsnivå och unionsnivå bör en nationell myndighet utses till nationell tillsynsmyndighet i varje medlemsstat.

    EU-länderna har en central roll i tillämpningen och kontrollen av efterlevnaden av denna förordning. I detta hänseende bör varje medlemsstat utse en eller flera nationella behöriga myndigheter för att övervaka tillämpningen och genomförandet av denna förordning. För att öka den organisatoriska effektiviteten från medlemsstaternas sida och inrätta en officiell kontaktpunkt för kontakterna med allmänheten och andra motparter på medlemsstatsnivå och unionsnivå bör en nationell myndighet utses till nationell tillsynsmyndighet i varje medlemsstat. Lokala och regionala myndigheter ska anförtros uppgifter för tillsyn eller efterlevnadskontroll när medlemsstaten anser att detta är lämpligt.

    Motivering

    För att säkerställa att förordningen och dess ram för tillsyn och efterlevnadskontroll kan genomföras bör medlemsstaterna ges befogenhet att vid behov och när så är möjligt anförtro de lokala och regionala myndigheterna uppgifter för tillsyn eller efterlevnadskontroll.

    Ändringsrekommendation 14

    Skäl 79

    Kommissionens textförslag

    ReK:s ändringsförslag

    För att säkerställa en ändamålsenlig och effektiv kontroll av uppfyllandet av de krav och skyldigheter som fastställs i denna förordning, som utgör en del av unionens harmoniseringslagstiftning, bör det system för marknadskontroll och överensstämmelse för produkter som inrättas genom förordning (EU) 2019/1020 gälla i sin helhet. När det är nödvändigt för deras uppdrag bör nationella offentliga myndigheter eller organ, som övervakar tillämpningen av unionslagstiftning som skyddar grundläggande rättigheter, inbegripet likabehandlingsorgan, också ha tillgång till all dokumentation som skapas i enlighet med denna förordning.

    För att säkerställa en ändamålsenlig och effektiv kontroll av uppfyllandet av de krav och skyldigheter som fastställs i denna förordning, som utgör en del av unionens harmoniseringslagstiftning, bör det system för marknadskontroll och överensstämmelse för produkter som inrättas genom förordning (EU) 2019/1020 gälla i sin helhet. När det är nödvändigt för deras uppdrag bör nationella offentliga myndigheter och, i tillämpliga fall, lokala och regionala myndigheter eller organ, som övervakar tillämpningen av unionslagstiftning som skyddar grundläggande rättigheter, inbegripet likabehandlingsorgan, också ha tillgång till all dokumentation som skapas i enlighet med denna förordning.

    Motivering

    Genom denna ändringsrekommendation tar man hänsyn till olika förvaltningsstrukturer i EU:s medlemsstater.

    Ändringsrekommendation 15

    Skäl 83

    Kommissionens textförslag

    ReK:s ändringsförslag

    För att säkerställa ett förtroendefullt och konstruktivt samarbete mellan behöriga myndigheter på unionsnivå och nationell nivå bör alla parter som är involverade i tillämpningen av denna förordning respektera konfidentialiteten för information och data som de erhåller i utförandet av sina uppgifter.

    För att säkerställa ett förtroendefullt och konstruktivt samarbete mellan behöriga myndigheter på unionsnivå och nationell , regional och lokal nivå bör alla parter som är involverade i tillämpningen av denna förordning respektera konfidentialiteten för information och data som de erhåller i utförandet av sina uppgifter.

    Motivering

    Genom denna ändringsrekommendation tar man hänsyn till olika förvaltningsstrukturer i EU:s medlemsstater.

    Ändringsrekommendation 16

    Avdelning I – artikel 3.1 – Definitioner

    Kommissionens textförslag

    ReK:s ändringsförslag

    system med artificiell intelligens (AI-system): programvara som utvecklats med en eller flera av de tekniker och metoder som förtecknas i bilaga I och som, för en viss uppsättning människodefinierade mål, kan generera utdata såsom innehåll, förutsägelser, rekommendationer eller beslut som påverkar de miljöer som de samverkar med.

    system med artificiell intelligens (AI-system): programvara som utvecklats med en eller flera av de tekniker och metoder som förtecknas i den icke uttömmande förteckningen i bilaga I , i kombination med social praxis, identitet och kultur och som, för en viss uppsättning människodefinierade mål, genom att observera omgivningen genom att samla in data, tolka insamlade strukturerade eller ostrukturerade data, hantera kunskap eller behandla den information som härrör från dessa data, kan generera utdata såsom innehåll, förutsägelser, rekommendationer eller beslut som påverkar de miljöer som de samverkar med.

    Motivering

    Ett AI-system består av en kombination av tekniska komponenter där data, algoritmer och datorkraft förenas med social praxis, samhälle, identitet och kultur. Definitionen av en sådan dynamisk socioteknisk kombination bör därför vara framtidssäkrad och regelbundet uppdateras så att AI:s allt större samhällspåverkan återspeglas på ett korrekt sätt och snabba förändringar i AI-relaterade utmaningar och möjligheter identifieras, bland annat kopplingen mellan kunskapshantering och AI. I detta sammanhang bör även en algoritm som utvecklats av en annan algoritm omfattas av förordningen.

    Ändringsrekommendation 17

    Artikel 5.1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Följande AI-tillämpningar ska vara förbjudna:

    Följande AI-tillämpningar ska vara förbjudna:

    (a)

    Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som använder subliminala tekniker som människor inte är medvetna om för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person.

    (a)

    Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som använder subliminala tekniker som människor inte är medvetna om för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person , kränker eller sannolikt kommer att kränka en annan persons eller en grupp personers grundläggande rättigheter, inbegripet deras fysiska eller psykiska hälsa och säkerhet, har eller sannolikt kommer att ha skadliga effekter för konsumenter, inbegripet ekonomiska förluster eller ekonomisk diskriminering, eller undergräver eller sannolikt kommer att undergräva demokratin och rättsstatsprincipen .

    (b)

    Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som utnyttjar någon sårbarhet, som härrör från ålder eller fysisk eller psykisk funktionsnedsättning, hos en specifik grupp av personer, för att väsentligt snedvrida beteendet hos en person som tillhör den gruppen på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person.

    (b)

    Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som utnyttjar någon sårbarhet, som härrör från ålder eller fysisk eller psykisk funktionsnedsättning, hos en specifik grupp av personer, för att väsentligt snedvrida beteendet hos en person som tillhör den gruppen på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person.

    (c)

    Utsläppande på marknaden, ibruktagande eller användning av AI-system av offentliga myndigheter eller på deras vägnar för utvärdering eller klassificering av fysiska personers pålitlighet under en viss tidsperiod på grundval av deras sociala beteende eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper , med en social poängsättning som leder till det ena eller båda av följande :

    (i)

    Skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer i sociala sammanhang som saknar koppling till de sammanhang i vilka berörda data ursprungligen genererades eller samlades in.

    ii)

    Skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer som är omotiverad eller oproportionerlig i förhållande till personernas sociala beteende eller till hur allvarligt beteendet är.

    (c)

    Utsläppande på marknaden, ibruktagande eller användning av AI-system av offentliga myndigheter eller på deras vägnar för utvärdering eller klassificering av fysiska personers eller grupper av personers pålitlighet under en viss tidsperiod på grundval av deras sociala beteende eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper , som leder till en AI-baserad social poängsättning för allmänna ändamål .

    (d)

    Användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål, såvida inte och endast i den mån sådan användning är absolut nödvändig för något av följande syften:

    (i)

    Målinriktad sökning efter specifika potentiella brottsoffer, inbegripet försvunna barn.

    (ii)

    Förhindrande av ett specifikt, betydande och överhängande hot mot fysiska personers liv eller fysiska säkerhet eller förhindrande av en terroristattack.

    (iii)

    Avslöjande, lokalisering, identifiering eller lagföring av en gärningsman eller misstänkt vid brott som avses i artikel 2.2 i rådets rambeslut 2002/584/RIF ([62]) och som i den berörda medlemsstaten kan leda till fängelsestraff eller annan frihetsberövande åtgärd för en maxperiod av minst tre år, i enlighet med den medlemsstatens lagstiftning.

    (d)

    Utsläppande på marknaden, ibruktagande eller användning av AI-system av offentliga myndigheter eller på deras vägnar, där AI-baserad social poängsättning utan mänsklig tillsyn tillämpas för specifika ändamål, det vill säga i sociala sammanhang med koppling till de sammanhang där berörda data ursprungligen genererades eller samlades in, för utvärdering eller klassificering av fysiska personers eller grupper av personers pålitlighet under en viss tidsperiod på grundval av deras sociala beteende eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper, med en social poängsättning som leder till skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer som är omotiverad eller oproportionerlig i förhållande till personernas sociala beteende eller till hur allvarligt beteendet är.

     

    (e)

    Användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål, såvida inte och endast i den mån sådan användning är absolut nödvändig för något av följande syften:

    (i)

    Målinriktad sökning efter specifika potentiella brottsoffer, inbegripet försvunna barn.

    (ii)

    Förhindrande av ett specifikt, betydande och överhängande hot mot fysiska personers liv eller fysiska säkerhet eller förhindrande av en terroristattack.

    (iii)

    Avslöjande, lokalisering, identifiering eller lagföring av en gärningsman eller misstänkt vid brott som avses i artikel 2.2 i rådets rambeslut 2002/584/RIF ([62]) och som i den berörda medlemsstaten kan leda till fängelsestraff eller annan frihetsberövande åtgärd för en maxperiod av minst tre år, i enlighet med den medlemsstatens lagstiftning.

    Motivering

    Subliminal teknik kan generellt undergräva frihet, mänskliga rättigheter och därmed den demokratiska rättsstatens funktion. Samtidigt kan artificiell intelligens undergräva konsumenternas rättigheter. Syftet med tilläggen är att ställa detta utom allt tvivel.

    När det gäller social klassificering från myndigheternas sida eller för deras räkning bör denna förbjudas om den utförs för allmänna ändamål, med tanke på farorna med sådana metoder, såsom förklaras i skäl 17. Generering eller insamling av data för specifika ändamål bör endast tillåtas med mänsklig tillsyn och under förutsättning att den inte kränker rätten till värdighet och icke-diskriminering och värdena jämlikhet och rättvisa.

    Ändringsrekommendation 18

    Artikel 5.4

    Kommissionens textförslag

    ReK:s ändringsförslag

    En medlemsstat får besluta att föreskriva en möjlighet att helt eller delvis tillåta användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål inom de gränser och på de villkor som anges i punkterna 1 d, 2 och 3. Den medlemsstaten ska i sin nationella lagstiftning fastställa de nödvändiga detaljerade reglerna för begäran om, utfärdande av och användning av, samt utövande av tillsyn över, de tillstånd som avses i punkt 3. I dessa regler ska det också anges för vilka av de syften som förtecknas i punkt 1 d, inbegripet vilka av de brott som avses i led iii i punkten, de behöriga myndigheterna kan få tillstånd att använda dessa system för brottsbekämpningsändamål.

    En medlemsstat får besluta att föreskriva en möjlighet att helt eller delvis tillåta användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål inom de gränser och på de villkor som anges i punkterna 1 d, 2 och 3. Den medlemsstaten ska i sin nationella lagstiftning fastställa de nödvändiga detaljerade reglerna för begäran om, utfärdande av och användning av, samt utövande av tillsyn över, de tillstånd som avses i punkt 3. I dessa regler ska det också anges för vilka av de syften som förtecknas i punkt 1 d, inbegripet vilka av de brott som avses i led iii i punkten, de behöriga myndigheterna kan få tillstånd att använda dessa system för brottsbekämpningsändamål. I dessa regler ska formerna för tillhandahållande av information till och samråd med berörda lokala och regionala myndigheter fastställas. Samrådet bör äga rum före den undantagsvisa användningen av dessa system på offentliga platser. I brådskande situationer där föregående samråd inte rimligen kan förväntas ska den berörda lokala eller regionala myndigheten genast informeras om användningen av den relevanta AI-metoden.

    Motivering

    Det politiska och administrativa ansvaret för att förvalta och övervaka offentliga platser ligger hos de lokala och regionala myndigheterna. De bör därför ges möjlighet att lämna synpunkter före införandet av sådana AI-metoder och vederbörligen informeras om den undantagsvisa användningen av AI-system för brottsbekämpningsändamål.

    I brådskande situationer där föregående samråd inte rimligen kan förväntas bör den berörda lokala eller regionala myndigheten omedelbart informeras.

    Ändringsrekommendation 19

    Artikel 13

    Kommissionens textförslag

    ReK:s ändringsförslag

    Artikel 13  – Transparens och tillhandahållande av information till användare

    Artikel 13a  – Transparens och tillhandahållande av information till användare

    1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att driften av dem är tillräckligt transparent för att användare ska kunna tolka systemets utdata och använda dem på lämpligt sätt. En lämplig typ och grad av transparens ska säkerställas, i syfte att uppnå uppfyllelse av användarens och leverantörens relevanta skyldigheter enligt kapitel 3 i denna avdelning.

    1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att driften av dem är tillräckligt transparent för att användare ska kunna tolka systemets utdata och använda dem på lämpligt sätt. En lämplig typ och grad av transparens och en lättfattlig förklaring ska säkerställas, i syfte att uppnå uppfyllelse av användarens och leverantörens relevanta skyldigheter enligt kapitel 3 i denna avdelning. Förklaringen ska tillhandahållas åtminstone på språket i det land där AI-systemet används.

    2.   AI-system med hög risk ska åtföljas av en bruksanvisning i ett lämpligt digitalt format eller på annat sätt som inbegriper kortfattad, fullständig, korrekt och tydlig information som är relevant, tillgänglig och begriplig för användare.

    2.   AI-system med hög risk ska åtföljas av en offentlig, lättfattlig och allmänt tillgänglig bruksanvisning i ett lämpligt digitalt format eller på annat sätt som inbegriper kortfattad, fullständig, korrekt och tydlig information som är relevant, tillgänglig och begriplig för användare.

    3.   I den information som avses i punkt 2 ska följande specificeras:

    3.   I den information som avses i punkt 2 ska följande specificeras:

    (a)

    Namn och kontaktuppgifter för leverantören och i tillämpliga fall för dennes ombud.

    (a)

    Namn och kontaktuppgifter för leverantören och i tillämpliga fall för dennes ombud.

    (b)

    Egenskaperna, kapaciteten och prestandabegränsningarna hos AI-systemet med hög risk, inbegripet

    (b)

    Egenskaperna, kapaciteten och prestandabegränsningarna hos AI-systemet med hög risk, inbegripet

     

    (i)

    dess avsedda ändamål,

     

    (i)

    dess avsedda ändamål,

     

    (ii)

    den nivå avseende noggrannhet, robusthet och cybersäkerhet som avses i artikel 15 mot vilken AI-systemet med hög risk har testats och validerats och som kan förväntas, samt alla kända och förutsebara omständigheter som kan påverka den förväntade noggrannhets-, robusthets- och cybersäkerhetsnivån,

     

    (ii)

    den nivå avseende noggrannhet (uttryckt i relevanta parametrar för utvärdering av modeller) , robusthet och cybersäkerhet som avses i artikel 15 mot vilken AI-systemet med hög risk har testats och validerats och som kan förväntas, samt alla kända och förutsebara omständigheter som kan påverka den förväntade noggrannhets-, robusthets- och cybersäkerhetsnivån,

     

    (iii)

    varje känd eller förutsebar omständighet, som har samband med användningen av AI-systemet med hög risk i enlighet med dess avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, som kan leda till risker för hälsa och säkerhet eller grundläggande rättigheter,

     

    (iii)

    varje känd eller förutsebar omständighet, som har samband med användningen av AI-systemet med hög risk i enlighet med dess avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, som kan leda till risker för hälsa och säkerhet eller grundläggande rättigheter,

     

    (iv)

    dess prestanda vad gäller de personer eller grupper av personer som omfattas av den avsedda användningen av systemet.

     

    (iv)

    dess prestanda vad gäller de personer eller grupper av personer som omfattas av den avsedda användningen av systemet.

     

    (v)

    i tillämpliga fall, specifikationer för indata, eller all annan relevant information i fråga om de tränings-, validerings- och testningsdataset som används, med beaktande av AI-systemets avsedda ändamål.

     

    (v)

    i tillämpliga fall, specifikationer för indata, eller all annan relevant information i fråga om de tränings-, validerings- och testningsdataset som används, med beaktande av AI-systemets avsedda ändamål.

    (vi)

    de parametrar som använts för att stämma av modellen och de åtgärder som vidtagits för att förhindra över- och underanpassning.

    (c)

    Eventuella ändringar av AI-systemet med hög risk och dess prestanda som leverantören i förväg har fastställt vid tidpunkten för den inledande bedömningen av överensstämmelse.

    (c)

    Eventuella ändringar av AI-systemet med hög risk och dess prestanda som leverantören i förväg har fastställt vid tidpunkten för den inledande bedömningen av överensstämmelse.

    (d)

    De åtgärder för mänsklig tillsyn som avses i artikel 14, inbegripet de tekniska åtgärder som införts för att underlätta användarnas tolkning av AI-systemens utdata.

    (d)

    De åtgärder för mänsklig tillsyn som avses i artikel 14, inbegripet de tekniska åtgärder som införts för att underlätta användarnas tolkning av AI-systemens utdata.

    (e)

    Den förväntade livslängden för AI-systemet med hög risk och alla nödvändiga underhålls- och omsorgsåtgärder för att säkerställa att AI-systemet fungerar korrekt, även när det gäller programvaruuppdateringar.

    (e)

    Den förväntade livslängden för AI-systemet med hög risk och alla nödvändiga underhålls- och omsorgsåtgärder för att säkerställa att AI-systemet fungerar korrekt, även när det gäller programvaruuppdateringar.

     

    13b – Transparens och tillhandahållande av information till berörda personer

    Personer eller grupper av personer för vilka ett AI-system med hög risk är avsett att användas ska på ett lämpligt, lättillgängligt och lättfattligt sätt informeras och ha tillgång till uttrycklig, lättåtkomlig och allmänt tillgänglig information om sådan användning.

    Motivering

    För att stärka ekosystemet av förtroende bör bruksanvisningar för AI-system med hög risk offentliggöras för allmänheten. Dessa anvisningar bör vara författade på ett för läsaren lättfattligt språk i det land där AI-systemet används.

    Inom ramen för algoritmernas transparens och tolkningsbarhet bör det vara möjligt att förklara med vilka parametrar modellen har stämts av och vilka åtgärder som har vidtagits för att förhindra över- och underanpassning.

    I artikel 13b regleras transparenskrav och tillhandahållande av information till personer som interagerar med AI-system eller som kan påverkas av AI-system.

    Ändringsrekommendation 20

    Artikel 14.4

    Kommissionens textförslag

    ReK:s ändringsförslag

    De åtgärder som avses i punkt 3 ska göra det möjligt för de personer som fått i uppdrag att ombesörja mänsklig tillsyn att göra följande, beroende på omständigheterna:

    De åtgärder som avses i punkt 3 ska göra det möjligt för de personer som fått i uppdrag att ombesörja mänsklig tillsyn att göra följande, beroende på omständigheterna:

    (a)

    Fullt ut förstå kapaciteten och begränsningarna hos AI-systemet med hög risk och på vederbörligt sätt kunna övervaka dess drift, så att tecken på avvikelser, funktionsstörningar och oväntad prestanda kan upptäckas och åtgärdas så snart som möjligt.

    (a)

    Fullt ut förstå kapaciteten och begränsningarna hos AI-systemet med hög risk och på vederbörligt sätt kunna övervaka dess drift, så att tecken på avvikelser, funktionsstörningar och oväntad prestanda kan upptäckas och åtgärdas så snart som möjligt.

    (b)

    Förbli medvetna om den möjliga tendensen att automatiskt eller i alltför hög grad lita på de utdata som produceras av ett AI-system med hög risk (”automationssnedvridning”, ”automation bias”), särskilt när det gäller AI-system med hög risk som används för att tillhandahålla information eller rekommendationer för beslut som ska fattas av fysiska personer.

    (b)

    Förbli medvetna om den möjliga tendensen att automatiskt eller i alltför hög grad lita på de utdata som produceras av ett AI-system med hög risk (”automationssnedvridning”, ”automation bias”) och om andra former av bias , särskilt när det gäller AI-system med hög risk som används för att tillhandahålla information eller rekommendationer för beslut som ska fattas av fysiska personer.

    (c)

    Korrekt kunna tolka utdata från AI-systemet med hög risk, särskilt med beaktande av systemets egenskaper och tillgängliga tolkningsverktyg och tolkningsmetoder.

    (c)

    Korrekt kunna tolka utdata från AI-systemet med hög risk, särskilt med beaktande av systemets egenskaper och tillgängliga tolkningsverktyg och tolkningsmetoder.

    (d)

    I vissa situationer kunna besluta att inte använda AI-systemet med hög risk eller på annat sätt bortse från, åsidosätta eller reversera de resultat som AI-systemet med hög risk genererar.

    (d)

    I vissa situationer kunna besluta att inte använda AI-systemet med hög risk eller på annat sätt bortse från, åsidosätta eller reversera de resultat som AI-systemet med hög risk genererar.

    (e)

    Kunna ingripa i driften av AI-systemet med hög risk eller stoppa systemet med en ”stoppknapp” eller ett liknande förfarande.

    (e)

    Kunna ingripa i driften av AI-systemet med hög risk eller stoppa systemet med en ”stoppknapp” eller ett liknande förfarande.

    Motivering

    Det finns flera former av bias som kan vara problematiska. Exempel på detta är utvecklarens eller användarens egna förutfattade meningar (”social bias”), bias när det gäller huruvida det AI-system som används verkligen är en lämplig lösning på problemet (”techno bias”) och statistiska former av bias.

    Ändringsrekommendation 21

    Artikel 14 – ny punkt efter punkt 5

    Kommissionens textförslag

    ReK:s ändringsförslag

     

    Alla beslut som fattas av AI-system enligt punkt 5 a och b i bilaga III ska vara föremål för mänskligt ingripande och grunda sig på en omsorgsfull beslutsprocess. Mänsklig kontakt angående dessa beslut måste garanteras.

    Motivering

    I artikel 14 behandlas endast mänsklig tillsyn över AI-system med hög risk. När det gäller myndighetsbeslut är det viktigt att betona att mänskligt ingripande, mänsklig kontakt och rättssäkerhet måste garanteras.

    Ändringsrekommendation 22

    Artikel 17.1 – två nya led efter led m

    Kommissionens textförslag

    ReK:s ändringsförslag

    Leverantörer av AI-system med hög risk ska inrätta ett kvalitetsstyrningssystem som säkerställer efterlevnad av denna förordning. Systemet ska dokumenteras på ett systematiskt och ordnat sätt i form av skriftliga riktlinjer, förfaranden och instruktioner och ska omfatta åtminstone följande aspekter:

    Leverantörer av AI-system med hög risk ska inrätta ett kvalitetsstyrningssystem som säkerställer efterlevnad av denna förordning. Systemet ska dokumenteras på ett systematiskt och ordnat sätt i form av skriftliga riktlinjer, förfaranden och instruktioner och ska omfatta åtminstone följande aspekter:

    (a)

    En strategi för efterlevnad av regelverket, inklusive efterlevnad av förfaranden för bedömning av överensstämmelse och för hantering av ändringar av AI-systemet med hög risk.

    (a)

    En strategi för efterlevnad av regelverket, inklusive efterlevnad av förfaranden för bedömning av överensstämmelse och för hantering av ändringar av AI-systemet med hög risk.

    (b)

    Tekniker, förfaranden och systematiska åtgärder som ska användas för utformning av AI-systemet med hög risk samt för kontroll och verifikation för utformningen.

    (b)

    Tekniker, förfaranden och systematiska åtgärder som ska användas för utformning av AI-systemet med hög risk samt för kontroll och verifikation för utformningen.

    (c)

    Tekniker, förfaranden och systematiska åtgärder som ska användas för utveckling, kvalitetskontroll och kvalitetssäkring av AI-systemet med hög risk.

    (c)

    Tekniker, förfaranden och systematiska åtgärder som ska användas för utveckling, kvalitetskontroll och kvalitetssäkring av AI-systemet med hög risk.

    (d)

    Undersöknings-, test- och valideringsförfaranden som ska utföras före, under och efter utvecklingen av AI-systemet med hög risk och hur ofta de ska utföras.

    (d)

    Undersöknings-, test- och valideringsförfaranden som ska utföras före, under och efter utvecklingen av AI-systemet med hög risk och hur ofta de ska utföras.

    (e)

    Tekniska specifikationer, inbegripet standarder, som ska tillämpas och, om de relevanta harmoniserade standarderna inte tillämpas fullt ut, de medel som ska användas för att säkerställa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

    (e)

    Tekniska specifikationer, inbegripet standarder, som ska tillämpas och, om de relevanta harmoniserade standarderna inte tillämpas fullt ut, de medel som ska användas för att säkerställa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

    (f)

    System och förfaranden för datahantering, inbegripet datainsamling, dataanalys, datamärkning, datalagring, datafiltrering, datautvinning, dataaggregering, lagring av uppgifter och varje annan åtgärd som avser data och som utförs före och för utsläppandet på marknaden eller ibruktagandet av AI-system med hög risk.

    (f)

    System och förfaranden för datahantering, inbegripet datainsamling, dataanalys, datamärkning, datalagring, datafiltrering, datautvinning, dataaggregering, lagring av uppgifter och varje annan åtgärd som avser data och som utförs före och för utsläppandet på marknaden eller ibruktagandet av AI-system med hög risk.

    (g)

    Det riskhanteringssystem som avses i artikel 9.

    (g)

    Det riskhanteringssystem som avses i artikel 9.

    (h)

    Upprättande, genomförande och underhåll av ett system för övervakning efter utsläppande på marknaden i enlighet med artikel 61.

    (h)

    Upprättande, genomförande och underhåll av ett system för övervakning efter utsläppande på marknaden i enlighet med artikel 61.

    (i)

    Förfaranden som berör rapportering av allvarliga incidenter och av funktionsstörningar i enlighet med artikel 62.

    (i)

    Förfaranden som berör rapportering av allvarliga incidenter och av funktionsstörningar i enlighet med artikel 62.

    (j)

    Hantering av kommunikation med nationella behöriga myndigheter, behöriga myndigheter, inbegripet sektorsmyndigheter, som tillhandahåller eller stöder tillgången till uppgifter, anmälda organ, andra operatörer, kunder eller andra berörda parter.

    (j)

    Hantering av kommunikation med nationella behöriga myndigheter, behöriga myndigheter, inbegripet sektorsmyndigheter, som tillhandahåller eller stöder tillgången till uppgifter, anmälda organ, andra operatörer, kunder eller andra berörda parter.

    (k)

    System och förfaranden för arkivering av all relevant dokumentation och information.

    (k)

    System och förfaranden för arkivering av all relevant dokumentation och information.

    (l)

    Resurshantering, inbegripet åtgärder som berör försörjningstrygghet.

    (l)

    Resurshantering, inbegripet åtgärder som berör försörjningstrygghet.

    (m)

    En ram för ansvarsutkrävande som fastställer ledningens och övrig personals ansvar vad gäller alla aspekter som anges i denna punkt.

    (m)

    En ram för ansvarsutkrävande som fastställer ledningens och övrig personals ansvar vad gäller alla aspekter som anges i denna punkt.

     

    (n)

    Åtgärder för att förhindra omotiverad diskriminering på grund av kön, etniskt ursprung, religion eller övertygelse, funktionsnedsättning, ålder eller sexuell läggning eller på någon annan grund.

    (o)

    En redogörelse för hur etiska frågor har beaktats vid utformningen av AI-systemet med hög risk.

    Motivering

    Genom tillägget betonas att delaktighet och bekämpning av omotiverad diskriminering måste vara viktiga inslag i kvalitetsstyrningssystemet.

    Systemet bör uppfylla de etiska värden som en användare av AI-systemet vill fastställa för det systemet eller som leverantören rimligen kan förvänta sig kommer att ställas som krav på ett AI-system med hög risk. Leverantören måste kunna redogöra för hur detta har beaktats.

    Ändringsrekommendation 23

    Artikel 19.1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Leverantörer av AI-system med hög risk ska säkerställa att deras system genomgår det relevanta förfarandet för bedömning av överensstämmelse i enlighet med artikel 43 innan de släpps ut på marknaden eller tas i bruk. Om AI-systemens överensstämmelse med kraven i kapitel 2 i denna avdelning har påvisats efter denna bedömning av överensstämmelse ska leverantörerna upprätta en EU-försäkran om överensstämmelse i enlighet med artikel 48 och anbringa CE-märkningen om överensstämmelse i enlighet med artikel 49.

    Leverantörer av AI-system med hög risk ska säkerställa att deras system genomgår det relevanta förfarandet för bedömning av överensstämmelse i enlighet med artikel 43 innan de släpps ut på marknaden eller tas i bruk. Om AI-systemens överensstämmelse med kraven i kapitel 2 i denna avdelning har påvisats efter denna bedömning av överensstämmelse ska leverantörerna upprätta en EU-försäkran om överensstämmelse i enlighet med artikel 48 och anbringa CE-märkningen om överensstämmelse i enlighet med artikel 49. Leverantörer av AI-system med hög risk ska offentliggöra EU-försäkran om överensstämmelse och en sammanfattning av bedömningen av överensstämmelse på en allmänt tillgänglig plats.

    Motivering

    För att stärka ekosystemet av förtroende för AI-system bör leverantörer av AI-system med hög risk beakta öppenheten. Allmänheten bör således kunna kontrollera att bedömningen av överensstämmelse har upprättats på ett korrekt sätt i enlighet med förordningens bestämmelser.

    Ändringsrekommendation 24

    Artikel 29 – ny punkt efter punkt 6

    Kommissionens textförslag

    ReK:s ändringsförslag

     

    Användare av AI-system med hög risk ska ansvara för att göra en etisk avvägning innan de tar systemet i bruk. De måste kunna förklara hur användningen av tekniken kan påverka människor och samhället. De ska ange sitt avsedda syfte med att använda AI-systemet, de överordnade värdena och hur dessa värden har viktats samt huruvida de har integrerats i systemet eller inte. De ska under hela AI-systemets livscykel utvärdera systemets verkliga effekter på människor och samhälle.

    Motivering

    Etik är ett brett begrepp. Det finns många sätt att utöva etik med koppling till teknik, när det gäller både teoretiska grunder och konkreta metoder, verktyg och utvecklingsvärden. Värden är frågor som vissa (grupper av) människor anser vara viktiga. De kan vara mer specifika eller mer begreppsmässiga. Det är viktigt att hålla förteckningen över etiska värden som kan komma att genomföras öppen och att fortsätta att utvärdera AI-systemet under hela dess livscykel.

    Ändringsrekommendation 25

    Artikel 52.1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Leverantörer ska säkerställa att AI-system som är avsedda att interagera med fysiska personer utformas och utvecklas på ett sådant sätt att fysiska personer informeras om att de interagerar med ett AI-system , såvida detta inte är uppenbart på grund av användningens omständigheter och sammanhang . Denna skyldighet ska inte gälla AI-system som enligt lag får upptäcka, förebygga, utreda och lagföra brott, såvida inte dessa system är tillgängliga för allmänheten för att anmäla ett brott.

    Leverantörer ska säkerställa att AI-system som är avsedda att interagera med fysiska personer utformas och utvecklas på ett sådant sätt att fysiska personer informeras om att de interagerar med ett AI-system. Denna skyldighet ska inte gälla AI-system som enligt lag får upptäcka, förebygga, utreda och lagföra brott, såvida inte dessa system är tillgängliga för allmänheten för att anmäla ett brott. Antalet alternativ och den rättsliga ställningen för fysiska personer som interagerar med AI-system får inte begränsas av denna interaktion.

    Motivering

    När tekniska artefakter används som ett medel för interaktion med fysiska personer kan det finnas en risk för att valmöjligheterna begränsas för de fysiska personer som interagerar med dessa artefakter. Fysiska personer bör alltid vederbörligen informeras när de ställs inför ett AI-system och detta bör inte vara föremål för tolkning i en given situation. Deras rättigheter bör alltid garanteras vid interaktioner med AI-system.

    Ändringsrekommendation 26

    Artikel 57.1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Nämnden ska bestå av de nationella tillsynsmyndigheterna, som ska företrädas av chefen eller motsvarande högre tjänsteman vid den myndigheten, och Europeiska datatillsynsmannen. Andra nationella myndigheter får bjudas in till möten där frågor av relevans för dem diskuteras.

    Nämnden ska bestå av de nationella tillsynsmyndigheterna, som ska företrädas av chefen eller motsvarande högre tjänsteman vid den myndigheten, och Europeiska datatillsynsmannen. Andra nationella , regionala och lokala myndigheter får bjudas in till möten där frågor av relevans för dem diskuteras.

    Motivering

    De lokala och regionala myndigheterna bör kunna delta i tillsynen av AI-system och rapportera om deras genomförande på fältet.

    Ändringsrekommendation 27

    Artikel 58

    Kommissionens textförslag

    ReK:s ändringsförslag

    När nämnden ger råd och stöd till kommissionen inom ramen för artikel 56.2 ska den särskilt

    När nämnden ger råd och stöd till kommissionen inom ramen för artikel 56.2 ska den särskilt

    (a)

    samla in och utbyta sakkunskap och bästa praxis bland medlemsstaterna,

    (a)

    samla in och utbyta sakkunskap och bästa praxis bland medlemsstaterna och regionala och lokala myndigheter ,

    (b)

    bidra till enhetlig administrativ praxis i medlemsstaterna, inbegripet hur de regulatoriska sandlådor som avses i artikel 53 fungerar,

    (b)

    bidra till enhetlig administrativ praxis i medlemsstaterna, inbegripet hur de regulatoriska sandlådor som avses i artikel 53 fungerar,

    (c)

    utfärda yttranden, rekommendationer eller skriftliga bidrag i frågor som rör genomförandet av denna förordning, särskilt

    (c)

    utfärda yttranden, rekommendationer eller skriftliga bidrag i frågor som rör genomförandet av denna förordning, särskilt

     

    (i)

    om tekniska specifikationer eller befintliga standarder avseende de krav som anges i avdelning III kapitel 2,

    (ii)

    om användning av harmoniserade standarder eller gemensamma specifikationer som avses i artiklarna 40 och 41,

    (iii)

    om utarbetande av vägledande handlingar, inbegripet de riktlinjer för fastställande av administrativa sanktionsavgifter som avses i artikel 71.

     

    (i)

    om tekniska specifikationer eller befintliga standarder avseende de krav som anges i avdelning III kapitel 2,

    (ii)

    om användning av harmoniserade standarder eller gemensamma specifikationer som avses i artiklarna 40 och 41,

    (iii)

    om utarbetande av vägledande handlingar, inbegripet de riktlinjer för fastställande av administrativa sanktionsavgifter som avses i artikel 71.

    Motivering

    De lokala och regionala myndigheterna befinner sig närmast de lokala invånarna och ekonomierna. De bör uttryckligen inbegripas så att de kan dela med sig av sina kunskaper.

    Ändringsrekommendation 28

    Artikel 59.1

    Kommissionens textförslag

    ReK:s ändringsförslag

    Nationella behöriga myndigheter ska inrättats eller utses av varje medlemsstat i syfte att säkerställa tillämpningen och genomförandet av denna förordning. Nationella behöriga myndigheter ska vara organiserade och fungera på ett sådant sätt att deras verksamhet är objektiv och opartisk.

    Nationella behöriga myndigheter ska inrättats eller utses av varje medlemsstat i syfte att säkerställa tillämpningen och genomförandet av denna förordning. Nationella behöriga myndigheter ska vara organiserade och fungera på ett sådant sätt att deras verksamhet är objektiv och opartisk. Lokala och regionala myndigheter ska ges befogenhet att utföra uppgifter för tillsyn eller efterlevnadskontroll när medlemsstaten anser att detta är lämpligt.

    Motivering

    För att säkerställa att förordningen och den angivna ramen för tillsyn och efterlevnadskontroll kan genomföras bör medlemsstaterna ha möjlighet att vid behov och när så är möjligt anförtro de lokala och regionala myndigheterna uppgifter för tillsyn eller efterlevnadskontroll. I detta sammanhang måste de lokala och regionala myndigheterna få stöd och utbildning för att fullt ut kunna ges befogenhet utföra uppgifter för tillsyn eller efterlevnadskontroll.

    Ändringsrekommendation 29

    Artikel 69.3

    Kommissionens textförslag

    ReK:s ändringsförslag

    Uppförandekoder kan utarbetas av enskilda leverantörer av AI-system eller av organisationer som företräder dem eller av både och, inbegripet genom en involvering av användare och eventuella berörda parter och dessas representativa organisationer. Uppförandekoder kan omfatta ett eller flera AI-system med beaktande av likheten mellan de berörda systemens avsedda ändamål.

    Uppförandekoder kan utarbetas av nationella, lokala eller regionala myndigheter, enskilda leverantörer av AI-system eller av organisationer som företräder dem eller av både och, inbegripet genom en involvering av användare och eventuella berörda parter och dessas representativa organisationer. Uppförandekoder kan omfatta ett eller flera AI-system med beaktande av likheten mellan de berörda systemens avsedda ändamål.

    Motivering

    Nationella, lokala och regionala myndigheter bör ges rättslig befogenhet att utarbeta uppförandekoder för de AI-system som de utvecklar eller använder.

    Ändringsrekommendation 30

    Bilaga I – Tekniker och metoder som omfattar artificiell intelligens enligt artikel 3.1

    Kommissionens textförslag

    ReK:s ändringsförslag

     

    Med hänsyn till det aktuella forskningsläget omfattar AI följande tekniker och metoder:

    (a)

    Metoder för maskininlärning, inbegripet övervakad, oövervakad och förstärkt inlärning, med hjälp av en mängd olika tillvägagångssätt, inklusive djupinlärning.

    (a)

    Metoder för maskininlärning, inbegripet övervakad, oövervakad och förstärkt inlärning, med hjälp av en mängd olika tillvägagångssätt, inklusive djupinlärning.

    (b)

    Logik- och kunskapsbaserade metoder, inklusive kunskapsrepresentation, induktiv (logisk) programmering, kunskapsbaser, inferens- och deduktionsmotorer, (symboliska) resonemang och expertsystem.

    (b)

    Logik- och kunskapsbaserade metoder, inklusive kunskapsrepresentation, induktiv (logisk) programmering, kunskapsbaser, inferens- och deduktionsmotorer, (symboliska) resonemang och expertsystem.

    (c)

    Statistiska metoder, bayesisk beräkning, sök- och optimeringsmetoder.

    (c)

    Statistiska metoder, bayesisk beräkning, sök- och optimeringsmetoder.

    Motivering

    Definitionen av och förteckningen över AI-tekniker bör vara framtidssäkrad. Förteckningen över specifika tekniker och metoder som används för utveckling av AI-system bör inte vara uttömmande, och det måste stå klart att den grundar sig på det aktuella forskningsläget.

    Ändringsrekommendation 31

    Bilaga III – punkterna 1–5

    Kommissionens textförslag

    ReK:s ändringsförslag

    AI-system med hög risk enligt artikel 6.2 är de AI-system som används inom något av följande områden:

    AI-system med hög risk enligt artikel 6.2 är de AI-system som används inom något av följande områden:

    1.

    Biometrisk identifiering och kategorisering av fysiska personer:

    1.

    Biometrisk identifiering och kategorisering av fysiska personer:

    (a)

    AI-system som är avsedda att användas för biometrisk fjärridentifiering av fysiska personer i ”realtid” och i ”efterhand”.

    (a)

    AI-system som är avsedda att användas för biometrisk fjärridentifiering av fysiska personer i ”realtid” och i ”efterhand”.

    2.

    Förvaltning och drift av kritisk infrastruktur:

    2.

    Förvaltning och drift av kritisk infrastruktur:

    (a)

    AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift av vägtrafik och i samband med försörjning av vatten, gas, värme och el.

    (a)

    AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift av vägtrafik och i samband med försörjning av vatten, gas, värme och el samt telekommunikations-, vatten- och internetinfrastruktur .

    3.

    Utbildning och yrkesutbildning:

    3.

    Utbildning och yrkesutbildning:

    (a)

    AI-system som är avsedda att användas för att besluta om tillträde till eller anvisa fysiska personer till utbildnings- och yrkesutbildningsinstitutioner.

    (a)

    AI-system som är avsedda att användas för att besluta om tillträde till eller anvisa fysiska personer till utbildnings- och yrkesutbildningsinstitutioner.

    (b)

    AI-system som är avsedda att användas för att bedöma studenter vid utbildnings- och yrkesutbildningsinstitutioner och för att bedöma deltagare i samband med prov som normalt krävs för att antas till utbildningsinstitutioner.

    (b)

    AI-system som är avsedda att användas för att bedöma studenter vid utbildnings- och yrkesutbildningsinstitutioner och för att bedöma deltagare i samband med prov som normalt krävs för att antas till utbildningsinstitutioner.

    4.

    Sysselsättning, arbetsledning och tillgång till egenföretagande:

    4.

    Sysselsättning, arbetsledning och tillgång till egenföretagande:

    (a)

    AI-system som är avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för utannonsering av lediga platser, granskning eller filtrering av ansökningar samt utvärdering av sökande vid intervjuer eller prov.

    (a)

    AI-system som är avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för utannonsering av lediga platser, granskning eller filtrering av ansökningar samt utvärdering av sökande vid intervjuer eller prov.

    (b)

    AI som är avsedd att användas för att fatta beslut om befordringar och uppsägningar av arbetsrelaterade avtalsförhållanden, för uppgiftsfördelning och för övervakning och utvärdering av anställdas prestationer och beteende inom ramen för sådana förhållanden.

    (b)

    AI som är avsedd att användas för att fatta beslut om befordringar och uppsägningar av arbetsrelaterade avtalsförhållanden, för uppgiftsfördelning och för övervakning och utvärdering av anställdas prestationer och beteende inom ramen för sådana förhållanden.

    5.

    Tillgång till och åtnjutande av grundläggande privata tjänster och offentliga tjänster och förmåner:

    5.

    Tillgång till och åtnjutande av grundläggande privata tjänster och offentliga tjänster och förmåner:

    (a)

    AI-system som är avsedda att användas av myndigheter eller för offentliga myndigheters räkning för att utvärdera fysiska personers rätt till förmåner och tjänster i form av offentligt stöd samt för att bevilja, dra ner på, återkalla eller återkräva sådana förmåner och tjänster.

    (a)

    AI-system som är avsedda att användas av myndigheter eller för offentliga myndigheters räkning för att utvärdera och besluta om fysiska personers rätt till förmåner och tjänster i form av offentligt stöd samt för att bevilja, dra ner på, återkalla eller återkräva sådana förmåner och tjänster.

    (b)

    AI-system som är avsedda att användas för att utvärdera fysiska personers kreditvärdighet eller fastställa deras kreditbetyg, med undantag för AI-system som tas i bruk av småskaliga leverantörer för deras eget bruk.

    b)

    AI-system som är avsedda att användas för att avgöra fysiska personers kreditvärdighet eller deras kreditbetyg, med undantag för AI-system som tas i bruk av småskaliga leverantörer för deras eget bruk.

    (c)

    AI-system som är avsedda att användas för att sända ut eller för att fastställa prioriteringsordningen för utsändning av larmtjänster, inbegripet brandkår och ambulans.

    (c)

    AI-system som är avsedda att användas för att sända ut eller för att fastställa prioriteringsordningen för utsändning av larmtjänster, inbegripet brandkår och ambulans.

    Motivering

    Telekommunikations-, vatten- och internetinfrastruktur är en integrerad del av kritisk infrastruktur.

    Frågan i samband med klassificering av system med hög risk är huruvida sådana system skulle kunna utgöra en verklig risk för medborgarna. Om det endast rör sig om en analytisk och teoretisk bedömning av invånarnas rätt till offentliga tjänster innebär detta inte i sig någon hög risk. Ordet ”utvärdera” kompletteras med ”besluta” för att understryka att denna risk faktiskt uppstår i beslutsfattandet, särskilt för invånarna i fråga.

    II.   POLITISKA REKOMMENDATIONER

    EUROPEISKA REGIONKOMMITTÉNS STÅNDPUNKT

    Ekosystem av spetskompetens

    1.

    ReK framhåller att kommissionens ambition att göra EU världsledande inom en ansvarsfull och människocentrerad utveckling av AI endast kan uppnås om de lokala och regionala myndigheterna ges en stark ställning. Lokala och regionala myndigheter är bäst lämpade att bidra till att det skapas ett gynnsamt klimat för ökade investeringar i artificiell intelligens under de kommande åren och till att förtroendet för artificiell intelligens främjas.

    2.

    Utöver att involvera de lokala och regionala myndigheterna är det viktigt att tillhandahålla stöd och utbildning för att stärka deras kompetens på området, särskilt med tanke på att de kan komma att anförtros uppgifter för tillsyn och efterlevnadskontroll.

    3.

    Kommittén noterar att EU-finansiering kommer att bli tillgänglig för utveckling av AI, men pekar på den fragmenterade strategin i detta avseende till följd av mångfalden av program, vilket ökar risken för uppsplittring och överlappning.

    4.

    Vi uppmanar därför kommissionen att utveckla och koppla samman starka och pluralistiska gemensamma dataområden där samhälleliga användningsfall kan lösas med hjälp av offentliga och privata data. För detta krävs även anpassning till lagstiftningsinitiativ inom ramen för den europeiska datastrategin.

    Ekosystem av förtroende

    5.

    Kommittén beklagar att förslaget till förordning inte tar upp lokala och regionala myndigheter, trots att den rättsliga ramen kommer att gälla för både offentliga och privata aktörer.

    6.

    ReK konstaterar i detta sammanhang att AI-system kan spela en viktig roll i de lokala och regionala myndigheternas kontakter med medborgarna och tillhandahållande av tjänster. AI-system har dessutom bland annat potential att förbättra den offentliga sektorns effektivitet och hjälpa lokala och regionala myndigheter att göra de anpassningar som måste ske på lokal och regional nivå i samband med den gröna och digitala omställningen. Det är därför viktigt att de lokala och regionala myndigheternas erfarenheter utnyttjas aktivt i den pågående översynen av förordningen.

    7.

    Vi efterlyser ytterligare förtydliganden av definitionerna av ”leverantör” och ”användare”, särskilt i situationer där företag, forskningsinstitut, myndigheter och invånare gemensamt utvecklar och testar AI-system i levande laboratorier. Vederbörlig hänsyn bör också tas till medborgare eller konsumenter som påverkas av AI-baserade beslut av system som används av yrkesmässiga användare.

    8.

    ReK betonar behovet av föregående samråd med berörda lokala och regionala myndigheter vid användning av AI-system för biometrisk identifiering i realtid av fysiska personer på distans på allmänt tillgängliga platser för brottsbekämpningsändamål.

    9.

    ReK välkomnar kommissionens offentliga samråd om anpassning av reglerna om civilrättsligt ansvar till de specifika utmaningarna i samband med den digitala tidsåldern och artificiell intelligens (1), och förväntar sig att detta kommer att resultera i en uppdaterad ram som syftar till att säkerställa att konsumenterna får ersättning för skador som orsakats av AI-tillämpningar.

    10.

    Kommittén undrar varför AI-system som används i demokratiska processer såsom val inte finns med i förteckningen över AI-system med hög risk.

    11.

    Vi uppmanar till att AI-system med hög risk ska omfattas av samma krav på transparens och information för fysiska personer som för närvarande är fallet för användare.

    12.

    ReK pekar på de stora risker och konsekvenser för de mänskliga rättigheterna som är förknippade med användningen av social klassificering.

    13.

    Kommittén är i detta sammanhang mycket skeptisk till de två grunder som anges i förordningen (2) för att bedöma när en social klassificering leder till skadlig eller ogynnsam behandling av enskilda personer eller grupper av personer, eftersom det är mycket svårt att fastställa att sådana grunder föreligger. I detta sammanhang uppmanar ReK med eftertryck till en tydlig formulering av starka skyddsmekanismer för att säkerställa att förbudet mot social klassificering inte kringgås.

    14.

    ReK noterar att man i skälen i förordningen tar upp de risker som fysiska personer utsätts för till följd av sin interaktion med AI-system med hög risk i samband med bland annat utbildning, sysselsättning, arbetsledning, tillgång till egenföretagande eller tillgång till och åtnjutande av vissa väsentliga privata och offentliga tjänster.

    15.

    Kommissionen uppmanas att närmare undersöka högriskklassificeringen av AI-system som är avsedda att användas av offentliga myndigheter (3).

    16.

    ReK efterlyser en myndighet som kan ge viktiga förhandsråd angående tolkningen av bestämmelserna i förordningen, även i förhållande till den allmänna dataskyddsförordningen. Det skulle främja rättssäkerheten och minska kostnaderna för utveckling och införande av AI-system.

    17.

    ReK understryker i detta sammanhang vikten av tydlighet i utformningen av förordningen, vilket är avgörande för att skapa ett ekosystem av förtroende och undanröja rättsosäkerheten kring utvecklingen och användningen av AI-system. På så sätt skulle man undvika feltolkningar av de föreslagna kraven och minimera riskerna för efterföljande bristfällig hantering av AI-tillämpningar, och således maximera förordningens effektivitet och sanktionernas trovärdighet. Samtidigt, och i linje med kommissionens agenda för bättre lagstiftning, är tidig upptäckt och eliminering av potentiella överlappningar och/eller konflikter med befintliga regler av avgörande betydelse.

    18.

    Många lokala och regionala myndigheter använder samma AI-system för liknande uppgifter. Systemen utformas i de allra flesta fall av privata företag.

    19.

    Kommittén påpekar att förslaget till förordning inte på egen hand ska garantera medborgarnas rättigheter och att det måste ses mot bakgrund av befintlig lagstiftning. Medlemsstaterna uppmanas följaktligen att se till att de fortlöpande vidtar nödvändiga administrativa åtgärder för att hantera de möjligheter och risker som användningen av AI innebär inom den offentliga sektorn.

    20.

    Det innebär att europeiska och nationella bestämmelser tolkas av företag och anmälda organ i samband med bedömningar av överensstämmelse, och därmed påverkar praxis hos de lokala och regionala myndigheter som använder dessa AI-system. Det gör det svårt att avgöra i vilken utsträckning lokal och regional politik beaktas i dessa AI-system. Kommittén uppmärksammar därför de lokala och regionala myndigheternas särskilda behov och det faktum att en ”one-size-fits-all”-strategi kan undergräva AI-systemens effektivitet när det gäller att tillgodose dessa behov. Vi föreslår dessutom att medlemsstaterna bör ges befogenhet att reglera AI-system med hög risk i samband med tvingande och motiverade hänsyn till allmänintresset.

    21.

    Vi efterlyser i anknytning till detta att bedömningarna av överensstämmelse ska vara transparenta och tillgängliga för allmänheten. Dessutom bör de lokala och regionala myndigheterna också kunna delta i övervakningen av AI-system, kunna rapportera om genomförandet på fältet och formellt kunna bidra till kommissionens utvärdering av förordningens tillämpning.

    22.

    Angående tillämpningen av den regulatoriska sandlådan bör de rätta juridiska, metodologiska och etiska förutsättningarna skapas för att möjliggöra utveckling av teknik, lagstiftning och utvärdering av lagstiftning. Dessutom bör tydliga kriterier för företagares tillträde till den regulatoriska sandlådan fastställas. För att konsumentorganisationer ska kunna säkerställa att bestämmelserna i rättsakten om artificiell intelligens efterlevs måste den senare läggas till i bilaga I till direktivet om grupptalan för att skydda konsumenters kollektiva intressen ((EU) 2020/1828).

    Informationskampanjer

    23.

    Offentliga kampanjer är viktiga för att informera allmänheten om och göra den förtrogen med AI-systemens existens och användbarhet samt potentiella risker. Kommittén understryker vidare att det omgående behövs utförlig information till konsumenterna om AI/maskinstyrt beslutsfattande. Vi uppmanar därför kommissionen att tillhandahålla finansiering för sådana kampanjer.

    Administrativa bördor

    24.

    ReK uttrycker sin oro över de administrativa bördor som den föreslagna förordningen kan ge upphov till. De administrativa bördorna kan hindra små och medelstora företag samt lokala och regionala myndigheter från att främja innovation och införa AI-system (4).

    Proportionalitet och subsidiaritet

    25.

    Kommittén anser att förslaget till förordning uppfyller kraven i proportionalitets- och subsidiaritetsprinciperna. Mervärdet av EU-åtgärder på detta område och lämpligheten hos de rättsliga grunder som kommissionen valt är tydliga och konsekventa. Konsekvensbedömningen innehöll ett särskilt avsnitt om subsidiaritet. Dessutom har inget nationellt parlament avgett ett motiverat yttrande om bristande efterlevnad av subsidiaritetsprincipen inom tidsfristen, som var satt till den 2 september 2021.

    Bryssel den 2 december 2021.

    Apostolos TZITZIKOSTAS

    Europeiska regionkommitténs ordförande


    ([62])  Rådets rambeslut 2002/584/RIF av den 13 juni 2002 om en europeisk arresteringsorder och överlämnande mellan medlemsstaterna (EGT L 190, 18.7.2002, s. 1).

    ([62])  Rådets rambeslut 2002/584/RIF av den 13 juni 2002 om en europeisk arresteringsorder och överlämnande mellan medlemsstaterna (EGT L 190, 18.7.2002, s. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_sv.

    (2)  Artikel 5.1 c.

    (3)  Punkt 5 a i bilaga III.

    (4)  I en färsk studie (”Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe”, s. 12), som fick stöd av Europeiska kommissionen, gjordes en uppskattning, på grundval av rimliga antaganden, att erhållande av certifiering för ett AI-system i genomsnitt skulle kunna kosta 16 800–23 000 euro, vilket ungefär motsvarar 10–14 % av utvecklingskostnaderna.


    Top