EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52023AP0236

Europaparlamentets ändringar antagna den 14 juni 2023 av förslaget till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))

EUT C, C/2024/506, 23.1.2024, ELI: http://data.europa.eu/eli/C/2024/506/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

ELI: http://data.europa.eu/eli/C/2024/506/oj

European flag

officiella tidning
Europeiska unionens

SV

Serien C


C/2024/506

23.1.2024

P9_TA(2023)0236

Rättsakten om artificiell intelligens

Europaparlamentets ändringar antagna den 14 juni 2023 av förslaget till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)) (1)

(Ordinarie lagstiftningsförfarande: första behandlingen)

(C/2024/506)

Ändring 1

Förslag till förordning

Beaktandeled 4a (nytt)

Kommissionens förslag

Ändring

 

med beaktande av Europeiska centralbankens yttrande,

Ändring 2

Förslag till förordning

Beaktandeled 4b (nytt)

Kommissionens förslag

Ändring

 

med beaktande av det gemensamma yttrandet från Europeiska dataskyddsstyrelsen och Europeiska datatillsynsmannen,

Ändring 3

Förslag till förordning

Skäl 1

Kommissionens förslag

Ändring

(1)

Syftet med denna förordning är att förbättra den inre marknadens funktionssätt genom att fastställa en enhetlig rättslig ram för i synnerhet utveckling , saluföring och användning av artificiell intelligens i  enlighet med unionens värden . Denna förordnings syften baseras på ett antal tvingande hänsyn till allmänintresset , såsom en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter , och säkerställer fri rörlighet över gränserna för AI-baserade varor och tjänster, vilket förhindrar att medlemsstaterna inför begränsningar av utvecklingen, saluföringen och användningen av AI-system, om sådana inte uttryckligen tillåts enligt denna förordning.

(1)

Syftet med denna förordning är att främja användningen av människocentrerad och tillförlitlig artificiell intelligens och att säkerställa en hög skyddsnivå för hälsa, säkerhet, grundläggande rättigheter , demokrati och rättsstatsprincipen samt miljön mot skadliga effekter av system för artificiell intelligens i  unionen och samtidigt stödja innovation och förbättra den inre marknadens funktionssätt . Denna förordning fastställer en enhetlig rättslig ram för i synnerhet utveckling, utsläppande på marknaden , ibruktagande och användning av artificiell intelligens i enlighet med unionens värden , och säkerställer fri rörlighet över gränserna för AI-baserade varor och tjänster, vilket förhindrar att medlemsstaterna inför begränsningar av utvecklingen, saluföringen och användningen av AI-system, om sådana inte uttryckligen tillåts enligt denna förordning. Vissa AI-system kan också påverka demokratin, rättsstatsprincipen och miljön. Dessa problem behandlas särskilt inom de kritiska sektorer och användningsfall som förtecknas i bilagorna till denna förordning.

Ändring 4

Förslag till förordning

Skäl 1a (nytt)

Kommissionens förslag

Ändring

 

(1a)

Denna förordning bör bevara unionens värden och underlätta spridningen av fördelarna med artificiell intelligens i samhället, skydda individer, företag, demokratin och rättsstatsprincipen och miljön från risker och samtidigt främja innovation och sysselsättning och göra Europa ledande på området.

Ändring 5

Förslag till förordning

Skäl 2

Kommissionens förslag

Ändring

(2)

System med artificiell intelligens ( AI-system) kan enkelt användas inom många olika ekonomiska sektorer och samhällssektorer, inklusive över gränser, och cirkulera i hela unionen. Vissa medlemsstater har redan undersökt antagandet av nationella regler för att säkerställa att artificiell intelligens är säker och att den utvecklas och används i enlighet med skyldigheter som rör grundläggande rättigheter. Olikartade nationella regler kan leda till fragmentering av den inre marknaden och minska rättssäkerheten för aktörer som utvecklar eller använder AI-system. En enhetlig och hög skyddsnivå bör därför säkerställas i hela unionen, och avvikelser som hindrar den fria rörligheten för AI-system och relaterade produkter och tjänster på den inre marknaden bör förhindras genom fastställande av enhetliga skyldigheter för operatörer och garanterande av ett enhetligt skydd för tvingande hänsyn till allmänintresset och personers rättigheter på hela den inre marknaden, baserat på artikel 114 i fördraget om Europeiska unionens funktionssätt (EUF-fördraget). I den utsträckning som förordningen omfattar särskilda regler för skydd av individer när det gäller behandling av personuppgifter i samband med användning av AI-system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser i brottsbekämpande syfte, är det, när det gäller dessa särskilda regler, lämpligt att basera denna förordning på artikel 16 i EUF-fördraget. Mot bakgrund av dessa särskilda regler och användningen av artikel 16 i EUF-fördraget är det lämpligt att samråda med Europeiska dataskyddsstyrelsen.

(2)

AI-system kan enkelt användas inom många olika ekonomiska sektorer och samhällssektorer, inklusive över gränser, och cirkulera i hela unionen. Vissa medlemsstater har redan undersökt antagandet av nationella regler för att säkerställa att artificiell intelligens är tillförlitlig och säker och att den utvecklas och används i enlighet med skyldigheter som rör grundläggande rättigheter. Olikartade nationella regler kan leda till fragmentering av den inre marknaden och minska rättssäkerheten för aktörer som utvecklar eller använder AI-system. En enhetlig och hög skyddsnivå bör därför säkerställas i hela unionen för att tillförlitlig AI ska uppnås , och avvikelser som hindrar den fria rörligheten för , samt innovation inom och användning och spridning av, AI-system och relaterade produkter och tjänster på den inre marknaden bör förhindras genom fastställande av enhetliga skyldigheter för operatörer och garanterande av ett enhetligt skydd för tvingande hänsyn till allmänintresset och personers rättigheter på hela den inre marknaden, baserat på artikel 114 i fördraget om Europeiska unionens funktionssätt (EUF-fördraget).

Ändring 6

Förslag till förordning

Skäl 2a (nytt)

Kommissionens förslag

Ändring

 

(2a)

Eftersom artificiell intelligens ofta förlitar sig på behandling av stora datavolymer, och många AI-system och applikationer vid behandling av personuppgifter, är det lämpligt att basera förordningen på artikel 16 i EUF-fördraget, som garanterar skydd för fysiska personer när det gäller behandling av personuppgifter och som tillhandahåller antagandet av regler för skydd av individer när det gäller behandling av personuppgifter.

Ändring 7

Förslag till förordning

Skäl 2b (nytt)

Kommissionens förslag

Ändring

 

(2b)

Den grundläggande rätten till skydd av personuppgifter garanteras särskilt genom förordningarna (EU) 2016/679 och (EU) 2018/1725 och direktiv (EU) 2016/680. Direktiv 2002/58/EG skyddar dessutom privatlivet och telehemlighet vid kommunikation och fastställer villkor för all lagring av personuppgifter och icke-personuppgifter i terminalutrustning och för åtkomst från terminalutrustning. Dessa rättsakter utgör grunden för hållbar och ansvarsfull databehandling, även när datamängderna innehåller en blandning av personuppgifter och icke-personuppgifter. Denna förordning syftar inte till att påverka tillämpningen av befintlig unionslagstiftning om behandling av personuppgifter, inbegripet uppgifter och befogenheter för de oberoende tillsynsmyndigheter som är behöriga att övervaka efterlevnaden av dessa instrument. Denna förordning påverkar inte de grundläggande rättigheterna till privatliv och skydd av personuppgifter som föreskrivs i unionsrätten om dataskydd och integritet och som fastställs i Europeiska unionens stadga om de grundläggande rättigheterna (stadgan).

Ändring 8

Förslag till förordning

Skäl 2c (nytt)

Kommissionens förslag

Ändring

 

(2c)

System för artificiell intelligens i unionen omfattas av relevant produktsäkerhetslagstiftning som ger en ram som skyddar konsumenterna mot farliga produkter i allmänhet, och sådan lagstiftning bör fortsätta att gälla. Denna förordning påverkar inte heller tillämpningen av bestämmelserna i andra unionsrättsakter om konsumentskydd och produktsäkerhet, inbegripet förordning (EU) 2017/2394, förordning (EU) 2019/1020 och direktiv 2001/95/EG om allmän produktsäkerhet och direktiv 2013/11/EU.

Ändring 9

Förslag till förordning

Skäl 2d (nytt)

Kommissionens förslag

Ändring

 

(2d)

I enlighet med artikel 114.2 i EUF-fördraget bör denna förordning komplettera och inte undergräva de anställdas rättigheter och intressen. Denna förordning bör därför inte påverka unionsrätten om socialpolitik och nationell arbetsrätt eller arbetsrättslig praxis, det vill säga alla rättsliga och avtalsreglerade bestämmelser om anställningsvillkor, arbetsförhållanden, inbegripet hälsa och säkerhet på arbetsplatsen, och förhållandet mellan arbetsgivare och arbetstagare, även vad gäller information, samråd och medverkan. Denna förordning bör inte påverka utövandet av de grundläggande rättigheter som erkänns i medlemsstaterna och på unionsnivå, inbegripet rätten eller friheten att strejka eller att vidta annan åtgärd som ingår i medlemsstaternas respektive arbetsmarknadsmodell, i enlighet med nationell lagstiftning och/eller praxis. Den bör inte heller påverka samrådsförfaranden, rätten att förhandla om, ingå och tillämpa kollektivavtal eller att vidta kollektiva åtgärder i enlighet med nationell lagstiftning och/eller praxis. Den bör under alla omständigheter inte hindra kommissionen från att föreslå särskild lagstiftning om rättigheter och friheter för arbetstagare som påverkas av AI-system.

Ändring 10

Förslag till förordning

Skäl 2e (nytt)

Kommissionens förslag

Ändring

 

(2e)

Denna förordning bör inte påverka de bestämmelser som syftar till att förbättra arbetsvillkoren för plattformsarbete enligt direktiv … [2021/414 (COD)]

Ändring 11

Förslag till förordning

Skäl 2f (nytt)

Kommissionens förslag

Ändring

 

(2f)

Denna förordning bör bidra till att stödja forskning och innovation och bör inte undergräva forsknings- och utvecklingsverksamheten och respektera den vetenskapliga forskningens frihet. Det är därför nödvändigt att från dess tillämpningsområde undanta AI-system som särskilt utvecklats enbart för vetenskaplig forskning och utveckling, och att säkerställa att förordningen inte på annat sätt påverkar vetenskaplig forskning om och utveckling av AI-system. All forsknings- och utvecklingsverksamhet bör under alla omständigheter genomföras i enlighet med stadgan och unionsrätten samt nationell rätt.

Ändring 12

Förslag till förordning

Skäl 3

Kommissionens förslag

Ändring

(3)

Artificiell intelligens tillhör en teknikfamilj under snabb utveckling som kan bidra till en mängd ekonomiska och samhälleliga vinster över hela spektrumet av näringslivssektorer och samhällsverksamheter. Artificiell intelligens kan ge bättre prognoser, optimera verksamheter och resurstilldelning och individanpassa digitala lösningar som finns tillgängliga för enskilda och organisationer och på så sätt ge företagen viktiga konkurrensfördelar och stödja socialt och miljömässigt fördelaktiga utfall, exempelvis inom hälso- och sjukvård, jordbruk, utbildning, infrastrukturförvaltning, energi, transport och logistik, offentliga tjänster, säkerhet, rättsväsen, resurs- och energieffektivitet samt begränsning av och anpassning till klimatförändringar.

(3)

Artificiell intelligens tillhör en teknikfamilj under snabb utveckling som kan bidra till , och redan bidrar till, en mängd ekonomiska , miljömässiga och samhälleliga vinster över hela spektrumet av näringslivssektorer och samhällsverksamheter om den utvecklas i enlighet med relevanta allmänna principer i överensstämmelse med EU-stadgan om grundläggande rättigheter och de värden som ligger till grund för unionen . Artificiell intelligens kan ge bättre prognoser, optimera verksamheter och resurstilldelning och individanpassa digitala lösningar som finns tillgängliga för enskilda och organisationer och på så sätt ge företagen viktiga konkurrensfördelar och stödja socialt och miljömässigt fördelaktiga utfall, exempelvis inom hälso- och sjukvård, jordbruk, livsmedelssäkerhet, utbildning, medier, sport och kultur, infrastrukturförvaltning, energi, transport och logistik, krishantering, offentliga tjänster, säkerhet, rättsväsen, resurs- och energieffektivitet , miljöövervakning, bevarande och återställande av biologisk mångfald och ekosystem samt begränsning av och anpassning till klimatförändringar.

Ändring 13

Förslag till förordning

Skäl 3a (nytt)

Kommissionens förslag

Ändring

 

(3a)

För att bidra till uppnåendet av målen om koldioxidneutralitet bör de europeiska företagen sträva efter att använda alla tillgängliga tekniska framsteg som kan bidra till uppnåendet av detta mål. Artificiell intelligens är en teknik som har potential för att användas för att behandla den ständigt växande mängd data som skapas genom industriella processer, miljöprocesser, hälso-och sjukvårdsprocesser och andra processer. För att underlätta investeringar i AI-baserade analyser och optimeringsverktyg bör denna förordning skapa en förutsägbar och proportionell miljö för industriella lösningar med låg risk.

Ändring 14

Förslag till förordning

Skäl 4

Kommissionens förslag

Ändring

(4)

Samtidigt kan artificiell intelligens, beroende på omständigheterna kring den specifika tillämpningen och användningen, ge upphov till risker och skada allmänna intressen och rättigheter som skyddas av unionsrätten. Dessa skador kan vara materiella eller immateriella.

(4)

Samtidigt kan artificiell intelligens, beroende på omständigheterna kring den specifika tillämpningen och användningen, samt nivån på den tekniska utvecklingen, ge upphov till risker och skada allmänna och privata intressen och fysiska personers grundläggande rättigheter som skyddas av unionsrätten. Dessa skador kan vara materiella eller immateriella , inbegripet fysiska, psykologiska, samhälleliga eller ekonomiska skador .

Ändring 15

Förslag till förordning

Skäl 4a (nytt)

Kommissionens förslag

Ändring

 

(4a)

Med tanke på den stora inverkan som artificiell intelligens kan ha på samhället, och behovet av att bygga upp förtroende, är det mycket viktigt att artificiell intelligens och dess regelverk utvecklas i enlighet med unionens värden som fastställs i artikel 2 i EU-fördraget, de grundläggande rättigheter och friheter som fastställs i fördragen, stadgan och internationell människorättslagstiftning. En förutsättning är att artificiell intelligens är en människocentrerad teknik. Den bör inte ersätta människors självständighet eller innebära att den individuella friheten går förlorad, och den bör i första hand tillgodose samhällets behov och det allmänna bästa. Skyddsåtgärder bör tillhandahållas för att säkerställa utvecklingen och användningen av artificiell intelligens med inbyggd etik som respekterar unionens värden och stadgan.

Ändring 16

Förslag till förordning

Skäl 5

Kommissionens förslag

Ändring

(5)

Därmed behövs en rättslig ram för unionen som omfattar harmoniserade regler för artificiell intelligens, för att främja utvecklingen, användningen och spridningen av artificiell intelligens på den inre marknaden, och som samtidigt uppnår en hög skyddsnivå för allmänintressen, såsom hälsa, säkerhet och grundläggande rättigheter, som erkänns och är skyddade enligt unionsrätten. För att uppnå detta syfte bör det fastställas regler som reglerar utsläppandet på marknaden och ibruktagandet av vissa AI-system, för att på så sätt säkerställa en fungerande inre marknad och göra det möjligt för dessa system att omfattas av principen om fri rörlighet för varor och tjänster. Genom fastställandet av dessa regler stöder denna förordning unionens mål att bli världsledande inom utvecklingen av säker, tillförlitlig och etisk artificiell intelligens, såsom fastställts av Europeiska rådet (33), och säkerställer skyddet av etiska principer, vilket särskilt har begärts av Europaparlamentet (34).

(5)

Därmed behövs en rättslig ram för unionen som omfattar harmoniserade regler för artificiell intelligens, för att främja utvecklingen, användningen och spridningen av artificiell intelligens på den inre marknaden, och som samtidigt uppnår en hög skyddsnivå för allmänintressen, såsom hälsa, säkerhet och grundläggande rättigheter, demokrati och rättsstatsprincipen och miljön, som erkänns och är skyddade enligt unionsrätten. För att uppnå detta syfte bör det fastställas regler som reglerar utvecklingen, utsläppandet på marknaden , ibruktagandet och användningen av vissa AI-system, för att på så sätt säkerställa en fungerande inre marknad och göra det möjligt för dessa system att omfattas av principen om fri rörlighet för varor och tjänster. Dessa regler bör vara tydliga och robusta när det gäller att skydda de grundläggande rättigheterna, stödja nya innovativa lösningar och möjliggöra ett europeiskt ekosystem av offentliga och privata aktörer som skapar AI-system i linje med unionens värden. Genom fastställandet av dessa regler , och åtgärder till stöd för innovation med särskild inriktning på små och medelstora företag och uppstartsföretag, stöder denna förordning unionens mål att främja AI tillverkad i Europa, och bli världsledande inom utvecklingen av säker, tillförlitlig och etisk artificiell intelligens, såsom fastställts av Europeiska rådet (33), och säkerställer skyddet av etiska principer, vilket särskilt har begärts av Europaparlamentet (34).

Ändring 17

Förslag till förordning

Skäl 5a (nytt)

Kommissionens förslag

Ändring

 

(5a)

För att främja utvecklingen av AI i linje med unionens värden måste unionen dessutom ta itu med de viktigaste luckorna och hindren som undergräver den digitala omställningens potential, inklusive bristen på digitalt utbildade arbetare, cybersäkerhetsfrågor, brist på investeringar och tillgång till investeringar samt befintliga och potentiella luckor mellan stora företag, små och medelstora företag och uppstartsföretag. Speciell uppmärksamhet bör fästas vid att säkerställa att fördelarna med AI och innovation vad gäller ny teknik gagnar alla regioner i unionen och att tillräckliga investeringar och resurser tillhandahålls särskilt för de regioner som eventuellt släpar efter när det gäller vissa digitala indikatorer.

Ändring 18

Förslag till förordning

Skäl 6

Kommissionens förslag

Ändring

(6)

Begreppet AI-system bör vara tydligt definierat för att säkerställa rättssäkerhet och samtidigt ge den flexibilitet som behövs för anpassning till framtida teknisk utveckling . Definitionen bör baseras på programvarans viktigaste funktionella egenskaper , i synnerhet förmågan att , för en viss uppsättning mänskligt definierade syften , generera sådana utdata som innehåll, prognoser eller rekommendationer, eller beslut som påverkar den miljö som systemet interagerar med, i en fysisk eller digital dimension . AI-system kan utformas för att arbeta med olika nivåer av autonomi och användas fristående eller som komponent en produkt, oavsett om systemet är fysiskt integrerat produkten (inbyggt) eller tjänar produktens funktioner utan att vara integrerat i produkten (ej inbyggt). Definitionen av AI-system bör kompletteras med en förteckning över specifika tekniker och metoder som används för utvecklingen av AI-system , vilken bör uppdateras i takt med marknadsutvecklingen och den tekniska utvecklingen genom att kommissionen antar delegerade akter om ändring av denna förteckning .

(6)

Begreppet AI-system i denna förordning bör vara tydligt definierat och nära anpassat till det arbete som utförs av internationella organisationer som arbetar med artificiell intelligens för att säkerställa rättssäkerhet , harmonisering och bred acceptans, samtidigt som den ger flexibilitet för att hantera den snabba tekniska utvecklingen på detta område . Definitionen bör dessutom baseras på de viktigaste funktionella egenskaperna hos artificiell intelligens , såsom dess inlärnings-, resonemangs- eller modelleringskapacitet , så att den kan skiljas från enklare programvarusystem och programmeringsmetoder. AI-system är utformade för att fungera med varierande grad av autonomi , vilket innebär att de åtminstone i viss mån är oberoende av mänsklig kontroll och av förmågan att fungera utan mänskligt ingripande. Termen ”maskinbaserad” avser det faktum att AI-system körs på maskiner. Hänvisningen till uttryckliga eller implicita mål understryker att AI-system kan fungera enligt uttryckliga människodefinierade mål eller underförstådda mål. AI-systemets mål kan skilja sig från AI-systemets avsedda ändamål ett specifikt sammanhang. Hänvisningen till förutsägelser omfattar innehåll, som denna förordning betraktas som en form av förutsägelse som en av de möjliga utdata som produceras av ett AI-system . I denna förordning bör miljöer förstås som de sammanhang där AI-systemen fungerar, medan utdata som genereras av AI-systemet , dvs. förutsägelser, rekommendationer eller beslut, svarar mot systemets mål, på grundval av indata från denna miljö. En sådan produktion påverkar ytterligare denna miljö, även genom att endast införa ny information till den.

Ändring 19

Förslag till förordning

Skäl 6a (nytt)

Kommissionens förslag

Ändring

 

(6a)

AI-system har ofta maskininlärningskapacitet som tillåter dem att anpassa sig och utföra nya uppgifter på ett självständigt sätt. Maskininlärning avser beräkningsprocessen för att optimera parametrarna för modellen utifrån data, som är en matematisk konstruktion som genererar utdata baserat på indata. Metoder för maskininlärning inbegriper exempelvis övervakad, oövervakad och förstärkt inlärning, med hjälp av en mängd olika tillvägagångssätt, inklusive djupinlärning med neurala nätverk. Denna förordning syftar till att hantera nya potentiella risker som kan uppstå genom delegering av kontroll till AI-system, särskilt till de AI-system som kan utvecklas efter införandet. Funktionen och resultaten för många av dessa AI-system bygger på abstrakta matematiska förhållanden som är svåra för människor att förstå, övervaka och spåra tillbaka till specifika indata. Dessa komplexa och ogenomskinliga kännetecken (svarta-lådan-faktorn) påverkar möjligheten till ansvarsskyldighet och förklarbarhet. Jämförelsevis enklare tekniker såsom kunskapsbaserade metoder, bayesisk beräkning eller beslutsträd kan också leda till luckor i lagstiftningen som behöver hanteras i denna förordning, i synnerhet när de används i kombination med maskininlärningsmetoder i hybridsystem.

Ändring 20

Förslag till förordning

Skäl 6b (nytt)

Kommissionens förslag

Ändring

 

(6b)

AI-system kan användas i ett fristående programvarusystem, integrerat i produkten (inbyggt), använt för att tjäna produktens funktioner utan att vara integrerat i produkten (ej inbyggt) eller användas som en AI-komponent i ett större system. Om detta större system inte skulle fungera utan AI-komponenten i fråga bör hela det större systemet betraktas som ett enda AI-system enligt denna förordning.

Ändring 21

Förslag till förordning

Skäl 7

Kommissionens förslag

Ändring

(7)

Begreppet biometriska uppgifter, som används i denna förordning är i linje med och bör tolkas i överensstämmelse med begreppet biometriska uppgifter enligt definitionen i artikel 4.14 i Europaparlamentets och rådets förordning (EU) 2016/679 (35) , artikel 3.18 i Europaparlamentets och rådets förordning (EU) 2018/1725  (36) och artikel 3.13 i Europaparlamentets och rådets direktiv (EU) 2016/68037  (37) .

(7)

Begreppet biometriska uppgifter, som används i denna förordning är i linje med och bör tolkas i överensstämmelse med definitionen i artikel 4.14 i Europaparlamentets och rådets förordning (EU) 2016/679 (35) . Biometribaserade uppgifter: uppgifter som erhållits genom särskild teknisk behandling och som avser en fysisk persons fysiska, fysiologiska eller beteendemässiga signaler, såsom ansiktsuttryck, rörelser, pulsfrekvens, röst, tangenttryckningar eller gång, vare sig de kan eller inte kan möjliggöra eller bekräfta den unika identifieringen av en fysisk person .

Ändring 22

Förslag till förordning

Skäl 7a (nytt)

Kommissionens förslag

Ändring

 

(7a)

biometrisk identifiering: användning av AI-system för automatiskt igenkänning av fysiska, fysiologiska, beteendemässiga och psykologiska mänskliga särdrag såsom ansikte, ögonrörelser, ansiktsuttryck, kroppsform, röst, tal, gång, hållning, hjärtfrekvens, blodtryck, lukt, tangenttryckningar, psykologiska reaktioner (ilska, ångest, sorg osv.) för att fastställa en enskild persons identitet genom att jämföra denna individs biometriska uppgifter med lagrade biometriska uppgifter tillhörande individer i en databas (en-till-många-identifiering), oavsett om individen har givit sitt medgivande eller inte.

Ändring 23

Förslag till förordning

Skäl 7b (nytt)

Kommissionens förslag

Ändring

 

(7b)

Begreppet biometrisk kategorisering såsom det används i detta direktiv bör definieras som att fysiska personer hänförs till särskilda kategorier eller att deras egenskaper och attribut uttyds, såsom kön, ålder, hårfärg, ögonfärg, tatueringar, etniskt eller socialt ursprung, hälsa, mental eller fysisk kapacitet, beteendemässiga eller personlighetsrelaterade egenskaper, språk, religion eller tillhörighet till en nationell minoritet eller sexuell eller politisk läggning, på grundval av deras biometriska eller biometribaserade uppgifter eller som kan uttydas från sådana data.

Ändring 24

Förslag till förordning

Skäl 8

Kommissionens förslag

Ändring

(8)

Begreppet system för biometrisk fjärridentifiering enligt denna förordning bör definieras utifrån funktion, som ett AI-system avsett för fjärridentifiering av fysiska personer genom jämförelse mellan en persons biometriska uppgifter och biometriska uppgifter i en referensdatabas, och utan någon förhandskunskap om huruvida den berörda personen kommer att vara närvarande och kan identifieras, oavsett den specifika teknik, process eller typ av biometriska uppgifter som används. Mot bakgrund av systemens olika kännetecken och de olika sätt som de används på, liksom de olika risker som är involverade, bör en åtskillnad göras mellan system för biometrisk identifiering ”i realtid” och ”i efterhand”. När det gäller system i realtid sker insamlingen av biometriska uppgifter, jämförelsen och identifieringen omedelbart, näst intill omedelbart eller under alla omständigheter utan betydande dröjsmål. I detta avseende bör det inte finnas något utrymme för att kringgå denna förordnings regler om användning i realtid av de berörda AI-systemen genom att tillhandahålla mindre fördröjningar. Realtidssystem involverar direktupptagningar eller näst intill direktupptagningar av material, såsom videoupptagningar, genererade med kamera eller annan utrustning med liknande funktion. Efterhandssystem baseras däremot på redan insamlade biometriska uppgifter och jämförelsen och identifieringen sker med en betydande fördröjning. Detta involverar sådant material som bilder eller videoupptagningar som genereras genom övervakningskameror (CCTV) eller privat utrustning och som har genererats före användningen av systemet vad gäller de berörda fysiska personerna.

(8)

Begreppet system för biometrisk fjärridentifiering enligt denna förordning bör definieras utifrån funktion, som ett AI-system avsett för fjärridentifiering av fysiska personer genom jämförelse mellan en persons biometriska uppgifter och biometriska uppgifter i en referensdatabas, och utan någon förhandskunskap om huruvida den berörda personen kommer att vara närvarande och kan identifieras, oavsett den specifika teknik, process eller typ av biometriska uppgifter som används , med undantag för verifieringssystem som enbart jämför en individs biometriska uppgifter med deras egna tidigare angivna biometriska uppgifter (en-till-en) . Mot bakgrund av systemens olika kännetecken och de olika sätt som de används på, liksom de olika risker som är involverade, bör en åtskillnad göras mellan system för biometrisk identifiering ”i realtid” och ”i efterhand”. När det gäller system i realtid sker insamlingen av biometriska uppgifter, jämförelsen och identifieringen omedelbart, näst intill omedelbart eller under alla omständigheter utan betydande dröjsmål. I detta avseende bör det inte finnas något utrymme för att kringgå denna förordnings regler om användning i realtid av de berörda AI-systemen genom att tillhandahålla mindre fördröjningar. Realtidssystem involverar direktupptagningar eller näst intill direktupptagningar av material, såsom videoupptagningar, genererade med kamera eller annan utrustning med liknande funktion. Efterhandssystem baseras däremot på redan insamlade biometriska uppgifter och jämförelsen och identifieringen sker med en betydande fördröjning. Detta involverar sådant material som bilder eller videoupptagningar som genereras genom övervakningskameror (CCTV) eller privat utrustning och som har genererats före användningen av systemet vad gäller de berörda fysiska personerna. Eftersom begreppet biometrisk identifiering är oberoende av en individs medgivande gäller denna definition även när varningsmeddelanden placeras på den plats som övervakas av systemet för biometrisk identifiering, och annulleras inte i praktiken genom förhandsregistrering.

Ändring 25

Förslag till förordning

Skäl 8a (nytt)

Kommissionens förslag

Ändring

 

(8a)

Identifiering av fysiska personer på distans anses skilja system för biometrisk fjärridentifiering från system för individuell verifiering på nära håll med hjälp av medel för biometrisk identifiering, vars enda syfte är att bekräfta huruvida en viss fysisk person som anmäler sig för identifiering är tillåten, till exempel för att få tillgång till en tjänst, en anordning eller lokaler.

Ändring 26

Förslag till förordning

Skäl 9

Kommissionens förslag

Ändring

(9)

I denna förordning bör begreppet allmänt tillgänglig plats förstås som varje fysisk plats som är tillgänglig för allmänheten, oavsett om platsen i fråga är i privat eller offentlig ägo. Därmed omfattar begreppet inte platser som är av privat art och som normalt inte är fritt tillgängliga för tredje part, inbegripet brottsbekämpande myndigheter, om inte dessa parter särskilt har bjudits in eller getts tillåtelse, såsom bostäder, privata klubbar, kontor, lager och fabriker. Onlineplatser omfattas inte heller eftersom de inte är fysiska platser. Enbart det faktum att vissa villkor kan gälla för att få tillträde till en viss plats, såsom inträdesbiljetter eller åldersgränser, betyder inte att platsen inte anses allmänt tillgänglig enligt denna förordning. Vid sidan av sådana offentliga platser som gator, berörda delar av offentliga byggnader och de flesta transportinfrastrukturer är normalt också sådana platser som biografer, teatrar, affärer och köpcentrum tillgängliga för allmänheten. Det bör dock avgöras från fall till fall om en viss plats är tillgänglig för allmänheten, med beaktande av den individuella situationens särdrag.

(9)

I denna förordning bör begreppet allmänt tillgänglig plats förstås som varje fysisk plats som är tillgänglig för allmänheten, oavsett om platsen i fråga är i privat eller offentlig ägo och oavsett de potentiella kapacitetsbegränsningarna . Därmed omfattar begreppet inte platser som är av privat art och som normalt inte är fritt tillgängliga för tredje part, inbegripet brottsbekämpande myndigheter, om inte dessa parter särskilt har bjudits in eller getts tillåtelse, såsom bostäder, privata klubbar, kontor, lager och fabriker. Onlineplatser omfattas inte heller eftersom de inte är fysiska platser. Enbart det faktum att vissa villkor kan gälla för att få tillträde till en viss plats, såsom inträdesbiljetter eller åldersgränser, betyder inte att platsen inte anses allmänt tillgänglig enligt denna förordning. Vid sidan av sådana offentliga platser som gator, berörda delar av offentliga byggnader och de flesta transportinfrastrukturer är normalt också sådana platser som biografer, teatrar, idrottsplatser, skolor, universitet, berörda delar av sjukhus och banker, nöjesparker, festivaler, affärer och köpcentrum tillgängliga för allmänheten. Det bör dock avgöras från fall till fall om en viss plats är tillgänglig för allmänheten, med beaktande av den individuella situationens särdrag.

Ändring 27

Förslag till förordning

Skäl 9a (nytt)

Kommissionens förslag

Ändring

 

(9a)

Det är viktigt att notera att AI-system bör respektera allmänna principer om inrättande av en ram på hög nivå som främjar en enhetlig människocentrerad strategi för etisk och tillförlitlig AI i överensstämmelse med Europeiska unionens stadga om de grundläggande rättigheterna och de värden som ligger till grund för unionen, inbegripet skydd av grundläggande rättigheter, självständigt mänskligt agerande samt mänsklig tillsyn, teknisk robusthet och säkerhet, integritet och dataförvaltning, transparens, icke-diskriminering och rättvisa samt samhällets och miljöns välbefinnande.

Ändring 28

Förslag till förordning

Skäl 9b (nytt)

Kommissionens förslag

Ändring

 

(9b)

AI-kunskaper avser sådan kompetens, kunskap och förståelse som gör det möjligt för leverantörer, användare och berörda personer att, med hänsyn till deras respektive rättigheter och skyldigheter i samband med denna förordning, använda AI-system på ett välgrundat sätt samt bli medvetna om möjligheterna och riskerna med AI, och den potentiella skada den kan vålla, och därmed främja den demokratiska kontrollen över AI. AI-kunskaper bör inte begränsas till lärande om verktyg och teknik, utan bör också syfta till att förse leverantörer och användare med de begrepp och färdigheter som krävs för att säkerställa efterlevnad och genomdrivande av denna förordning. Kommissionen, medlemsstaterna och leverantörer och användare av AI-system måste därför, i samarbete med alla berörda parter, främja utvecklingen av AI-kunskaper på tillräckligt hög nivå inom alla delar av samhället, hos människor av alla åldrar, även kvinnor och flickor, och framstegen inom detta område måste noga följas.

Ändring 29

Förslag till förordning

Skäl 10

Kommissionens förslag

Ändring

(10)

För att säkerställa lika villkor och ett effektivt skydd av individers rättigheter och friheter i hela unionen bör de regler som fastställs genom denna förordning tillämpas på leverantörer av AI-system på ett icke-diskriminerande sätt, oavsett om de är etablerade i unionen eller i ett tredjeland, och på användare av AI-system som är etablerade i unionen.

(10)

För att säkerställa lika villkor och ett effektivt skydd av individers rättigheter och friheter i hela unionen och på internationell nivå bör de regler som fastställs genom denna förordning tillämpas på leverantörer av AI-system på ett icke-diskriminerande sätt, oavsett om de är etablerade i unionen eller i ett tredjeland, och på användare av AI-system som är etablerade i unionen. För att unionen ska kunna respektera sina grundläggande värden bör AI-system som är avsedda att användas för metoder som anses vara oacceptabla enligt denna förordning också anses vara oacceptabla utanför unionen på grund av deras särskilt skadliga inverkan på de grundläggande rättigheterna enligt stadgan. Det är därför lämpligt att förbjuda att leverantörer som är bosatta i unionen exporterar sådana AI-system till tredjeländer.

Ändring 30

Förslag till förordning

Skäl 11

Kommissionens förslag

Ändring

(11)

Mot bakgrund av AI-systemens digitala natur bör vissa AI-system omfattas av denna förordning även om de varken släpps ut på marknaden, tas i bruk eller används i unionen. Detta är exempelvis fallet om en aktör som är etablerad i unionen lägger ut vissa tjänster på entreprenad hos en aktör som är etablerad utanför unionen och entreprenaden avser en aktivitet som ska utföras av ett AI-system som skulle klassificeras som hög risk och vars effekter påverkar fysiska personer som befinner sig i unionen. Under dessa omständigheter skulle det AI-system som används av aktören utanför unionen kunna behandla data som på lagligt sätt samlats in och överförts från unionen och förse den avtalsslutande aktören i unionen med utdata från detta AI-system som är resultatet av denna behandling, utan att det berörda AI-systemet släppts ut på marknaden, tagits i bruk eller använts i unionen. För att förhindra att denna förordning kringgås och säkerställa ett effektivt skydd av fysiska personer som befinner sig i unionen, bör den också tillämpas på leverantörer och användare av AI-system som är etablerade i tredjeländer, i den utsträckning som de utdata som produceras av AI-systemen används i unionen. För att ta hänsyn till befintliga arrangemang och särskilda behov av samarbete med utländska partner med vilka information och bevis utbyts, bör denna förordning dock inte tillämpas på offentliga myndigheter i tredjeländer eller internationella organisationer som agerar inom ramen för internationella avtal som ingåtts på nationell eller europeisk nivå och som avser brottsbekämpande och rättsligt samarbete med unionen eller dess medlemsstater. Sådana avtal har ingåtts bilateralt mellan medlemsstater och tredjeländer eller mellan Europeiska unionen, Europol och andra EU-organ och tredjeländer och internationella organisationer.

(11)

Mot bakgrund av AI-systemens digitala natur bör vissa AI-system omfattas av denna förordning även om de varken släpps ut på marknaden, tas i bruk eller används i unionen. Detta är exempelvis fallet om en aktör som är etablerad i unionen lägger ut vissa tjänster på entreprenad hos en aktör som är etablerad utanför unionen och entreprenaden avser en aktivitet som ska utföras av ett AI-system som skulle klassificeras som hög risk och vars effekter påverkar fysiska personer som befinner sig i unionen. Under dessa omständigheter skulle det AI-system som används av aktören utanför unionen kunna behandla data som på lagligt sätt samlats in och överförts från unionen och förse den avtalsslutande aktören i unionen med utdata från detta AI-system som är resultatet av denna behandling, utan att det berörda AI-systemet släppts ut på marknaden, tagits i bruk eller använts i unionen. För att förhindra att denna förordning kringgås och säkerställa ett effektivt skydd av fysiska personer som befinner sig i unionen, bör den också tillämpas på leverantörer och användare av AI-system som är etablerade i tredjeländer, i den utsträckning som de utdata som produceras av AI-systemen avses att användas i unionen. För att ta hänsyn till befintliga arrangemang och särskilda behov av samarbete med utländska partner med vilka information och bevis utbyts, bör denna förordning dock inte tillämpas på offentliga myndigheter i tredjeländer eller internationella organisationer som agerar inom ramen för internationella avtal som ingåtts på nationell eller europeisk nivå och som avser brottsbekämpande och rättsligt samarbete med unionen eller dess medlemsstater. Sådana avtal har ingåtts bilateralt mellan medlemsstater och tredjeländer eller mellan Europeiska unionen, Europol och andra EU-organ och tredjeländer och internationella organisationer. Detta undantag bör dock begränsas till betrodda länder och internationella organisationer som delar unionens värden.

Ändring 31

Förslag till förordning

Skäl 12

Kommissionens förslag

Ändring

(12)

Denna förordning bör också tillämpas på unionens institutioner, kontor, organ och byråer när de agerar som tillhandahållare eller användare av AI-system. AI-system som uteslutande utvecklas eller används för militära ändamål bör undantas från denna förordnings tillämpningsområde i de fall då användningen faller under den gemensamma utrikes- och säkerhetspolitikens exklusiva behörighet vilken regleras genom avdelning V i fördraget om Europeiska unionen (EU-fördraget). Denna förordning bör inte påverka tillämpningen av bestämmelserna om tjänstelevererande mellanhänders ansvar enligt Europaparlamentets och rådets direktiv 2000/31/EG [ändrat genom rättsakten om digitala tjänster].

(Berör inte den svenska versionen.)

Ändring 32

Förslag till förordning

Skäl 12a (nytt)

Kommissionens förslag

Ändring

 

(12a)

Programvara och data som delas öppet och där användarna fritt kan komma åt, använda, modifiera och vidaredistribuera dem eller modifierade versioner av dem, kan bidra till forskning och innovation på marknaden. Forskning av kommissionen visar också att fri programvara med öppen källkod kan bidra med mellan 65 och 95 miljarder euro till unionens BNP och att den kan ge betydande tillväxtmöjligheter till den europeiska ekonomin. Användarna tillåts köra, kopiera, distribuera, studera, ändra och förbättra programvara och data, inbegripet modeller genom fria licenser med öppen källkod. För att främja utvecklingen och användningen av AI, särskilt av små och medelstora företag, uppstartsföretag, och akademisk forskning men även av enskilda personer, bör denna förordning inte tillämpas på sådana fria AI-komponenter med öppen källkod, utom i den mån de släpps ut på marknaden eller tas i bruk av en leverantör som en del av ett AI-system med hög risk eller av ett AI-system som omfattas av avdelning II eller IV i denna förordning.

Ändring 33

Förslag till förordning

Skäl 12b (nytt)

Kommissionens förslag

Ändring

 

(12b)

Varken den gemensamma utvecklingen av fria AI-komponenter med öppen källkod eller att göra dem tillgängliga i öppna databaser bör utgöra ett utsläppande på marknaden eller ett ibruktagande. En kommersiell verksamhet i form av tillgängliggörande på marknaden kan dock kännetecknas av att det tas ut en avgift, med undantag för transaktioner mellan mikroföretag, för en fri AI-komponent med öppen källkod, men också genom att ta ut en avgift för tekniska stödtjänster, genom att tillhandahålla en programvaruplattform som leverantören använder för att monetarisera andra tjänster, eller genom att använda personuppgifter för andra syften än uteslutande för att förbättra programvarans säkerhet, kompatibilitet eller interoperabilitet.

Ändring 34

Förslag till förordning

Skäl 12c (nytt)

Kommissionens förslag

Ändring

 

(12c)

Utvecklare av fria AI-komponenter med öppen källkod bör enligt denna förordning inte vara tvungna att uppfylla krav som är inriktade på AI-värdekedjan och särskilt inte på den leverantör som har använt denna fria AI-komponent med öppen källkod. Utvecklare av fria AI-komponenter med öppen källkod bör dock uppmuntras att tillämpa allmänt vedertagen dokumentationspraxis, såsom modeller och datakort, som ett sätt att påskynda informationsutbytet längs AI-värdekedjan, vilket gör det möjligt att främja tillförlitliga AI-system i unionen.

Ändring 35

Förslag till förordning

Skäl 13

Kommissionens förslag

Ändring

(13)

För att säkerställa en konsekvent och hög skyddsnivå för allmänintressen på områdena hälsa, säkerhet och grundläggande rättigheter bör gemensamma bindande normer fastställas för alla AI-system med hög risk. Dessa normer bör vara förenliga med Europeiska unionens stadga om de grundläggande rättigheterna (stadgan) och bör vara icke-diskriminerande och i linje med unionens internationella handelsåtaganden.

(13)

För att säkerställa en konsekvent och hög skyddsnivå för allmänintressen på områdena hälsa, säkerhet och grundläggande rättigheter , liksom för demokratin, miljön och rättsstatsprincipen, bör gemensamma bindande normer fastställas för alla AI-system med hög risk. Dessa normer bör vara förenliga med stadgan, den europeiska gröna given, unionens förklaring om digitala rättigheter och de etiska riktlinjerna för tillförlitlig AI från högnivåexpertgruppen för artificiell intelligens, och bör vara icke-diskriminerande och i linje med unionens internationella handelsåtaganden.

Ändring 36

Förslag till förordning

Skäl 14

Kommissionens förslag

Ändring

(14)

För att införa en uppsättning proportionerliga och effektiva bindande regler för AI-system bör en tydligt definierad riskbaserad metod användas. Denna metod bör innebära att dessa reglers art och innehåll anpassas till intensiteten och omfattningen av de risker som AI-systemen kan generera. Det är därför nödvändigt att förbjuda vissa metoder för artificiell intelligens, fastställa vissa krav för AI-system med hög risk och skyldigheter för berörda operatörer samt fastställa transparenskrav för vissa AI-system.

(14)

För att införa en uppsättning proportionerliga och effektiva bindande regler för AI-system bör en tydligt definierad riskbaserad metod användas. Denna metod bör innebära att dessa reglers art och innehåll anpassas till intensiteten och omfattningen av de risker som AI-systemen kan generera. Det är därför nödvändigt att förbjuda vissa oacceptabla metoder för artificiell intelligens, fastställa vissa krav för AI-system med hög risk och skyldigheter för berörda operatörer samt fastställa transparenskrav för vissa AI-system.

Ändring 37

Förslag till förordning

Skäl 15

Kommissionens förslag

Ändring

(15)

Vid sidan av de många nyttiga användningsområdena för artificiell intelligens kan tekniken också missbrukas och tillhandahålla nya och kraftfulla verktyg för manipulation, utnyttjande och social kontroll. Sådana metoder är särskilt skadliga och bör förbjudas eftersom de strider mot unionens värden och respekten för människans värdighet, frihet, jämlikhet, demokrati och rättsstatsprincipen samt unionens grundläggande rättigheter, inbegripet rätten till icke-diskriminering, dataskydd och personlig integritet samt barnets rättigheter.

(15)

Vid sidan av de många nyttiga användningsområdena för artificiell intelligens kan tekniken också missbrukas och tillhandahålla nya och kraftfulla verktyg för manipulation, utnyttjande och social kontroll. Sådana metoder är särskilt skadliga och kränkande och bör förbjudas eftersom de strider mot unionens värden och respekten för människans värdighet, frihet, jämlikhet, demokrati och rättsstatsprincipen samt unionens grundläggande rättigheter, inbegripet rätten till icke-diskriminering, dataskydd och personlig integritet samt barnets rättigheter.

Ändring 38

Förslag till förordning

Skäl 16

Kommissionens förslag

Ändring

(16)

Utsläppandet på marknaden och ibruktagandet eller användningen av vissa AI-system avsedda att snedvrida mänskligt beteende, och som sannolikt kan medföra fysisk eller psykisk skada, bör förbjudas. Sådana AI-system använder subliminala komponenter som inte kan uppfattas av individer eller utnyttjar sårbarheter hos barn och människor på grund av deras ålder eller fysiska eller mentala funktionsnedsättningar . De gör detta i avsikt att väsentligt snedvrida en persons beteende på ett sätt som skadar eller sannolikt kan skada den personen eller en annan person. Avsikten kan inte presumeras om snedvridningen av mänskligt beteende är resultatet av faktorer utanför AI-systemet vilka är utom leverantörens eller användarens kontroll. Forskning för legitima syften som är relaterade till sådana AI-system bör inte hindras av förbudet, om denna forskning inte innefattar användning av AI-system i människa-maskin-relationer som utsätter fysiska personer för skada och om den utförs i enlighet med erkända etiska normer för vetenskaplig forskning.

(16)

Utsläppandet på marknaden och ibruktagandet eller användningen av vissa AI-system i syfte att väsentligen snedvrida eller som leder till en väsentlig snedvridning av mänskligt beteende, och som sannolikt kan medföra fysisk eller psykisk skada, bör förbjudas. Denna begränsning bör förstås som att den omfattar neuroteknik med hjälp av AI-system som används för att övervaka, använda eller påverka neurala data som samlats in genom hjärndatorgränssnitt i den mån de väsentligt snedvrider en fysisk persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka betydande skada för den personen eller en annan person. Sådana AI-system använder subliminala komponenter som inte kan uppfattas av individer eller utnyttjar sårbarheter hos individer och särskilda grupper eller personer på grund av kända eller förutsedda personlighetsdrag, ålder , funktionsnedsättningar, sociala eller ekonomiska situation . De gör detta i avsikt att eller med verkan att väsentligt snedvrida en persons beteende på ett sätt som väsentligen skadar eller sannolikt väsentligen kan skada den personen eller en annan person eller grupper med personer, inbegripet skador som kan ackumuleras över tid . Avsikten att snedvrida beteendet kan inte presumeras om snedvridningen är resultatet av faktorer utanför AI-systemet vilka är utom leverantörens eller användarens kontroll , vilket innebär faktorer som inte på ett rimligt sätt kan förutses eller lindras av leverantören eller användaren av AI-systemet. I vilket fall som helst är det inte nödvändigt att leverantören eller användaren har för avsikt att orsaka väsentlig skada, så länge sådan skada beror på manipulativa eller exploaterande AI-metoder. Förbuden mot sådana AI-metoder kompletterar bestämmelserna i direktiv 2005/29/EG, enligt vilka otillbörliga affärsmetoder är förbjudna, oavsett om de har använts med hjälp av AI-system eller på annat sätt. I sådana sammanhang bör lagliga affärsmetoder, till exempel på reklamområdet, som är förenliga med unionsrätten inte i sig anses strida mot förbudet. Forskning för legitima syften som är relaterade till sådana AI-system bör inte hindras av förbudet, om denna forskning inte innefattar användning av AI-system i människa-maskin-relationer som utsätter fysiska personer för skada och om den utförs i enlighet med erkända etiska normer för vetenskaplig forskning och grundas på specifikt informerat samtycke från de individer som utsätts för den, eller, i förekommande fall, deras förmyndare .

Ändring 39

Förslag till förordning

Skäl 16a (nytt)

Kommissionens förslag

Ändring

 

(16a)

AI-system som kategoriserar fysiska personer genom att hänföra dem till specifika kategorier, beroende på kända eller härledda känsliga eller skyddade egenskaper, är särskilt inkräktande, kränker den mänskliga värdigheten och innebär stor risk för diskriminering. Sådana egenskaper omfattar kön, könsidentitet, ras, etniskt ursprung, migrations- eller medborgarskapsstatus, politisk läggning, sexuell läggning, religion, funktionsnedsättning eller andra grunder på vilka diskriminering är förbjuden enligt artikel 21 i EU-stadgan om de grundläggande rättigheterna samt enligt artikel 9 i förordning (EU) 2016/769. Sådana system bör därför förbjudas.

Ändring 40

Förslag till förordning

Skäl 17

Kommissionens förslag

Ändring

(17)

AI-system som tillhandahåller social poängsättning av fysiska personer för allmänna syften för offentliga myndigheter, eller på deras vägnar, kan medföra diskriminering och uteslutning av vissa grupper. De kan strida mot rätten till värdighet och icke-diskriminering och värdena jämlikhet och rättvisa. Sådana AI-system utvärderar eller klassificerar fysiska personers tillförlitlighet på grundval av deras sociala beteende i olika sammanhang eller kända eller förutsedda personliga egenskaper. Den sociala poängsättning som erhålls från sådana AI-system kan leda till negativ eller ogynnsam behandling av fysiska personer eller hela grupper av fysiska personer i sociala sammanhang som saknar koppling till det sammanhang där berörda data ursprungligen genererades eller samlades in, eller till en negativ behandling som är oproportionerlig eller omotiverad i förhållande till hur allvarligt personernas sociala beteende är. Sådana AI-system bör därför förbjudas.

(17)

AI-system som tillhandahåller social poängsättning av fysiska personer för allmänna syften kan medföra diskriminering och uteslutning av vissa grupper. De strider mot rätten till värdighet och icke-diskriminering och värdena jämlikhet och rättvisa. Sådana AI-system utvärderar eller klassificerar fysiska personer eller grupper på grundval av flera datapunkter och händelser över tid relaterade till deras sociala beteende i olika sammanhang eller kända , härledda eller förutsedda personliga egenskaper. Den sociala poängsättning som erhålls från sådana AI-system kan leda till negativ eller ogynnsam behandling av fysiska personer eller hela grupper av fysiska personer i sociala sammanhang som saknar koppling till det sammanhang där berörda data ursprungligen genererades eller samlades in, eller till en negativ behandling som är oproportionerlig eller omotiverad i förhållande till hur allvarligt personernas sociala beteende är. Sådana AI-system bör därför förbjudas.

Ändring 41

Förslag till förordning

Skäl 18

Kommissionens förslag

Ändring

(18)

Användningen av system för biometrisk fjärridentifiering i realtid av fysiska personer på allmänt tillgängliga platser för brottsbekämpningssyften anses särskilt inkräkta på de berörda personernas rättigheter och friheter, i och med att denna användning kan påverka privatlivet för en stor del av befolkningen, kan skapa en känsla av konstant övervakning och indirekt avskräcka från utövande av mötesfrihet och andra grundläggande rättigheter. De omedelbara effekterna och de begränsade möjligheterna för ytterligare kontroll eller korrigering när det gäller användningen av sådana system som fungerar i realtid innebär att de medför ökade risker för rättigheterna och friheterna för de personer som berörs av brottsbekämpningen.

(18)

Användningen av system för biometrisk fjärridentifiering i realtid av fysiska personer på allmänt tillgängliga platser inkräktar särskilt på de berörda personernas rättigheter och friheter, och kan i slutändan påverka privatlivet för en stor del av befolkningen, skapa en känsla av konstant övervakning , ge parter som använder biometrisk identifiering på offentligt tillgängliga platser en position av okontrollerbar makt och indirekt avskräcka från utövande av mötesfrihet och andra grundläggande rättigheter i hjärtat av rättsstatsprincipen. Tekniska brister i AI-system som är avsedda för biometrisk fjärridentifiering av fysiska personer kan leda till snedvridna resultat och medföra diskriminerande effekter. Detta är särskilt relevant när det gäller ålder, etnicitet, kön eller funktionsnedsättning . De omedelbara effekterna och de begränsade möjligheterna för ytterligare kontroll eller korrigering när det gäller användningen av sådana system som fungerar i realtid innebär att de medför ökade risker för rättigheterna och friheterna för de personer som berörs av brottsbekämpningen. Användningen av sådana system bör därför vara förbjuden på allmänt tillgängliga platser. På samma sätt bör AI-system som används för analys av registrerade bilder av allmänt tillgängliga platser genom system för biometrisk fjärridentifiering ”i efterhand” också förbjudas, såvida det inte finns ett tillstånd före domstol för användning i samband med brottsbekämpning, när detta är absolut nödvändigt för den riktade sökning som är kopplad till ett specifikt allvarligt brott som redan ägt rum, och endast med förbehåll för ett rättsligt förhandstillstånd.

Ändring 42

Förslag till förordning

Skäl 19

Kommissionens förslag

Ändring

(19)

Användningen av sådana system för brottsbekämpning bör därför vara förbjuden, utom i de tre snävt definierade situationer som anges i den uttömmande förteckningen, i de fall då användningen är strikt nödvändig för att uppnå ett väsentligt allmänintresse, vars betydelse är större än riskerna. Dessa situationer inbegriper sökandet efter potentiella brottsoffer, inklusive försvunna barn, vissa hot mot fysiska personers liv eller fysiska säkerhet eller hot om en terroristattack, och avslöjande, lokalisering, identifiering eller lagföring av gärningsmän till eller misstänkta för brott som avses i rådets rambeslut 2002/584/RIF  (38) , om dessa brott i den berörda medlemsstaten kan leda till fängelse eller annan frihetsberövande åtgärd för en maxperiod av minst tre år, i enlighet med den medlemsstatens lagstiftning. En sådan tröskel för påföljden i enlighet med nationell lagstiftning bidrar till att säkerställa att brottet är allvarligt nog för att potentiellt motivera användningen av system för biometrisk fjärridentifiering i realtid. Av de 32 brott som finns förtecknade i rådets rambeslut 2002/584/RIF kommer vissa sannolikt att vara mer relevanta än andra, i och med att det kommer att variera mycket hur nödvändig och proportionerlig användningen av biometrisk fjärridentifiering i realtid kan förutses vara för det praktiska arbetet med avslöjande, lokalisering, identifiering eller lagföring av gärningsmän eller misstänkta när det gäller brott som anges i förteckningen, och med beaktande av de sannolika skillnaderna vad gäller allvarlighetsgrad, sannolikhet och omfattning på skadan eller de möjliga negativa konsekvenserna.

utgår

Ändring 43

Förslag till förordning

Skäl 20

Kommissionens förslag

Ändring

(20)

För att säkerställa att dessa system används på ett ansvarfullt och proportionerligt sätt är det också viktigt att fastställa att hänsyn bör tas till vissa faktorer i var och en av de tre snävt definierade situationerna i den uttömmande förteckningen, i synnerhet vad gäller arten av situation som ger upphov till begäran och användningens konsekvenser för alla berörda personers rättigheter och friheter samt de skyddsåtgärder och villkor som föreskrivs i samband med användningen. Användningen av system för biometrisk fjärridentifiering i realtid på allmänt tillgänglig plats för brottsbekämpande ändamål bör omfattas av lämpliga tids- och platsmässiga begränsningar, med särskild hänsyn till bevis eller indikationer vad gäller hoten, offren eller gärningsmännen. Referensdatabasen över personer bör vara ändamålsenlig för varje användningsfall i var och en av de tre situationer som anges ovan.

utgår

Ändring 44

Förslag till förordning

Skäl 21

Kommissionens förslag

Ändring

(21)

Varje användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpande ändamål bör vara föremål för ett uttryckligt och specifikt tillstånd som lämnas av en oberoende administrativ myndighet i en medlemsstat. Dessa tillstånd bör i princip erhållas före användningen, utom i vederbörligen motiverade brådskande situationer, alltså situationer då behovet av att använda de berörda systemen är sådant att det i praktiken är objektivt omöjligt att erhålla ett tillstånd innan användningen inleds. I sådana brådskande situationer bör användningen begränsas till det absoluta minimum som är nödvändigt och omfattas av lämpliga skyddsmekanismer och villkor som fastställs i nationell lagstiftning och som specificeras av den berörda brottsbekämpande myndigheten i samband med varje enskilt fall av brådskande användning. Den brottsbekämpande myndigheten bör i sådana situationer också sträva efter att erhålla ett tillstånd så snart som möjligt, och även ange skälen till att den inte kunnat ansöka om tillstånd tidigare.

utgår

Ändring 45

Förslag till förordning

Skäl 22

Kommissionens förslag

Ändring

(22)

Det är också lämpligt att, inom den uttömmande ram som fastställs genom denna förordning, föreskriva att en sådan användning på en medlemsstats territorium i enlighet med denna förordning endast bör vara möjlig i de fall och i den utsträckning som den berörda medlemsstaten har beslutat att uttryckligen föreskriva möjligheten att tillåta sådan användning i sina närmare bestämmelser i nationell lagstiftning. Enligt denna förordning behåller alltså medlemsstaterna sin frihet att inte alls föreskriva någon sådan möjlighet eller att endast föreskriva en sådan möjlighet med avseende på några av de syften som kan motivera användning som tillåten enligt denna förordning.

utgår

Ändring 46

Förslag till förordning

Skäl 23

Kommissionens förslag

Ändring

(23)

Användningen av system för biometrisk fjärridentifiering i realtid av fysiska personer på allmänt tillgängliga platser för brottsbekämpande ändamål involverar med nödvändighet behandling av biometriska uppgifter. Reglerna i denna förordning som med vissa undantag förbjuder sådan användning, och som baseras på artikel 16 i EUF-fördraget bör tillämpas som lex specialis med avseende på de regler om behandling av biometriska uppgifter som anges i artikel 10 i direktiv (EU) 2016/680, och reglerar därmed sådan användning och behandling av berörda biometriska uppgifter på ett uttömmande sätt. Därför bör sådan användning och behandling endast vara möjlig i den utsträckning som den är förenlig med den ram som fastställs i denna förordning, utan att de behöriga myndigheterna har något utrymme, då de agerar i brottsbekämpande syfte, att utanför den ramen använda sådana system och behandla sådana data i samband med detta av de skäl som förtecknas i artikel 10 i direktiv (EU) 2016/680. I detta sammanhang är denna förordning inte avsedd att tillhandahålla en rättslig grund för behandling av personuppgifter enligt artikel 8 i direktiv 2016/680. Användningen av system för biometrisk fjärridentifiering i realtid på allmänt tillgänglig plats för andra syften än brottsbekämpning, inbegripet av offentliga myndigheter, bör inte omfattas av den särskilda ram för sådan användning i brottsbekämpningssyfte som fastställs i denna förordning. Sådan användning för andra syften än brottsbekämpning bör därför inte omfattas av kravet på tillstånd enligt denna förordning och de tillämpliga närmare bestämmelser i nationell lagstiftning som kan ge verkan åt detta.

utgår

Ändring 47

Förslag till förordning

Skäl 24

Kommissionens förslag

Ändring

(24)

Användning av biometriska uppgifter och andra personuppgifter i samband med användningen av AI-system för biometrisk identifiering, som inte sker i samband med användning av system för biometrisk fjärridentifiering på allmänt tillgänglig plats i brottsbekämpningssyfte som regleras av denna förordning , inbegripet när sådana system används av behöriga myndigheter på allmänt tillgänglig plats för andra syften än brottsbekämpning , bör även fortsättningsvis uppfylla alla krav som följer av artikel 9.1 i förordning (EU) 2016/679, artikel 10.1 i förordning (EU) 2018/1725 och artikel 10 i direktiv (EU) 2016/680, såsom tillämpligt.

(24)

Användning av biometriska uppgifter och andra personuppgifter i samband med användningen av AI-system för biometrisk identifiering, som inte sker i samband med användning av system för biometrisk fjärridentifiering på allmänt tillgänglig plats som regleras av denna förordning, bör även fortsättningsvis uppfylla alla krav som följer av artikel 9.1 i förordning (EU) 2016/679, artikel 10.1 i förordning (EU) 2018/1725 och artikel 10 i direktiv (EU) 2016/680, såsom tillämpligt.

Ändring 48

Förslag till förordning

Skäl 25

Kommissionens förslag

Ändring

(25)

I enlighet med artikel 6a i protokoll nr 21 om Förenade kungarikets och Irlands ställning med avseende på området med frihet, säkerhet och rättvisa, fogat till EU-fördraget och EUF-fördraget, är Irland inte bundet av de bestämmelser i artikel 5.1 d. 2 och d.3 i denna förordning som antagits på grundval av artikel 16 i EUF-fördraget och som avser medlemsstaternas behandling av personuppgifter när de bedriver verksamhet som omfattas av avdelning V kapitel 4 eller 5 i tredje delen av EUF-fördraget i det fall då Irland inte är bundet av bestämmelserna om formerna för straffrättsligt samarbete eller polissamarbete inom ramen för vilka de bestämmelser måste iakttas som fastställs på grundval av artikel 16 i EUF-fördraget.

(25)

I enlighet med artikel 6a i protokoll nr 21 om Förenade kungarikets och Irlands ställning med avseende på området med frihet, säkerhet och rättvisa, fogat till EU-fördraget och EUF-fördraget, är Irland inte bundet av de bestämmelser i artikel 5.1 d. i denna förordning som antagits på grundval av artikel 16 i EUF-fördraget och som avser medlemsstaternas behandling av personuppgifter när de bedriver verksamhet som omfattas av avdelning V kapitel 4 eller 5 i tredje delen av EUF-fördraget i det fall då Irland inte är bundet av bestämmelserna om formerna för straffrättsligt samarbete eller polissamarbete inom ramen för vilka de bestämmelser måste iakttas som fastställs på grundval av artikel 16 i EUF-fördraget.

Ändring 49

Förslag till förordning

Skäl 26

Kommissionens förslag

Ändring

(26)

I enlighet med artiklarna 2 och 2a i protokoll nr 22 om Danmarks ställning, fogat till EU-fördraget och EUF-fördraget, är Danmark inte bundet av bestämmelserna i artikel 5.1 d .2 och d.3 i denna förordning som antagits på grundval av artikel 16 i EUF-fördraget, eller tillämpningen av dessa, som avser medlemsstaternas behandling av personuppgifter när dessa utövar verksamhet som omfattas av tillämpningsområdet för kapitlen 4 och 5 i avdelning V i tredje delen av EUF-fördraget.

(26)

I enlighet med artiklarna 2 och 2a i protokoll nr 22 om Danmarks ställning, fogat till EU-fördraget och EUF-fördraget, är Danmark inte bundet av bestämmelserna i artikel 5.1 d i denna förordning som antagits på grundval av artikel 16 i EUF-fördraget, eller tillämpningen av dessa, som avser medlemsstaternas behandling av personuppgifter när dessa utövar verksamhet som omfattas av tillämpningsområdet för kapitlen 4 och 5 i avdelning V i tredje delen av EUF-fördraget.

Ändring 50

Förslag till förordning

Skäl 26a (nytt)

Kommissionens förslag

Ändring

 

(26a)

AI-system som används av brottsbekämpande myndigheter eller för deras räkning för att göra förutsägelser, profileringar eller riskbedömningar baserade på profilering av fysiska personer eller dataanalyser av personlighetsdrag och särdrag, inbegripet personens belägenhet, eller tidigare brottsligt beteende av fysiska personer eller grupper av personer i syfte att förutsäga att ett eller flera faktiska eller potentiella brott eller annat kriminaliserat socialt beteende eller administrativa överträdelse inträffar eller upprepas, inbegripet system för att förutse bedrägerier, utgör en särskild risk för diskriminering av vissa personer eller grupper av personer, eftersom de kränker den mänskliga värdigheten samt den grundläggande rättsliga principen om oskuldspresumtion. Sådana AI-system bör därför förbjudas.

Ändring 51

Förslag till förordning

Skäl 26b (nytt)

Kommissionens förslag

Ändring

 

(26b)

Urskillningslös och oriktad skrapning av biometriska uppgifter från sociala medier eller övervakningskameror för att skapa eller utvidga databaser för ansiktsigenkänning bidrar till känslan av massövervakning och kan leda till grova kränkningar av de grundläggande rättigheterna, inbegripet rätten till integritet. Användningen av sådana system bör därför vara förbjuden.

Ändring 52

Förslag till förordning

Skäl 26c (nytt)

Kommissionens förslag

Ändring

 

(26c)

Det finns allvarliga farhågor om den vetenskapliga grunden för AI-system som syftar till att upptäcka känslor och fysiska eller fysiologiska särdrag såsom ansiktsuttryck, rörelser, pulsfrekvens eller röster. Känslor eller känslouttryck och uppfattningar av dessa varierar avsevärt mellan olika kulturer och situationer, och till och med hos en enda person. En av de viktigaste bristerna med sådan teknik är den begränsade tillförlitligheten (känslokategorier uttrycks varken på ett tillförlitligt sätt genom, eller förknippas otvetydigt med, en gemensam uppsättning fysiska eller fysiologiska rörelser), bristen på specificitet (fysiska eller fysiologiska uttryck matchar inte helt och hållet känslokategorier) och den begränsade möjligheten att generalisera (påverkan av sammanhang och kultur beaktas inte tillräckligt). Tillförlitlighetsproblem och, följaktligen, stora risker för missbruk kan särskilt uppstå vid användning av systemet i verkliga situationer som rör brottsbekämpning, gränsförvaltning, arbetsplatser och utbildningsinstitutioner. Utsläppande på marknaden, ibruktagande eller användning av AI-system som är avsedda att användas i dessa sammanhang för att upptäcka fysiska personers känslomässiga tillstånd bör därför förbjudas.

Ändring 53

Förslag till förordning

Skäl 26d (nytt)

Kommissionens förslag

Ändring

 

(26d)

Metoder som är förbjudna enligt unionslagstiftningen, inbegripet dataskyddslagstiftning, lagstiftning om icke-diskriminering, konsumentskyddslagstiftning och konkurrensrätt, bör inte påverkas av denna förordning.

Ändring 54

Förslag till förordning

Skäl 27

Kommissionens förslag

Ändring

(27)

AI-system med hög risk bör endast släppas ut på unionsmarknaden eller tas i bruk om de uppfyller vissa obligatoriska krav. Dessa krav bör säkerställa att AI-system med hög risk vilka finns tillgängliga i unionen eller vars utdata på annat sätt används i unionen inte utgör någon oacceptabel risk för viktiga allmänna intressen för unionen som erkänns och skyddas av unionsrätten. AI-system som identifieras som hög risk bör begränsas till sådana som har en betydande skadlig inverkan på hälsa, säkerhet och grundläggande rättigheter för personer i unionen och denna avgränsning minimerar de potentiella begränsningarna av den internationella handeln, i förekommande fall.

(27)

AI-system med hög risk bör endast släppas ut på unionsmarknaden, tas i bruk eller användas om de uppfyller vissa obligatoriska krav. Dessa krav bör säkerställa att AI-system med hög risk vilka finns tillgängliga i unionen eller vars utdata på annat sätt används i unionen inte utgör någon oacceptabel risk för viktiga allmänna intressen för unionen som erkänns och skyddas av unionsrätten , inbegripet grundläggande rättigheter, demokrati, rättsstatsprincipen eller miljön. För att säkerställa anpassning till sektorslagstiftningen och undvika överlappningar bör kraven för vissa AI-system med hög risk att ta hänsyn till sektorslagstiftning som redan innehåller tillräckliga krav för AI-system med hög risk som omfattas av denna akt, såsom förordning (EU) 2017/745 om medicintekniska produkter och förordning (EU) 2017/746 om medicintekniska produkter för in vitro-diagnostik och direktiv 2006/42/EG om maskiner . AI-system som identifieras som hög risk bör begränsas till sådana som har en betydande skadlig inverkan på hälsa, säkerhet och grundläggande rättigheter för personer i unionen och denna avgränsning minimerar de potentiella begränsningarna av den internationella handeln, i förekommande fall. Med tanke på den snabba tekniska utvecklingen och de potentiella förändringarna i användningen av AI-system bör förteckningen över högriskområden och användningsfall i bilaga III ändå bli föremål för permanent översyn genom regelbunden bedömning.

Ändring 55

Förslag till förordning

Skäl 28

Kommissionens förslag

Ändring

(28)

AI-system skulle kunna producera negativa effekter för personers hälsa och säkerhet, i synnerhet när sådana system fungerar som komponenter i produkter. I enlighet med syftena för unionens harmoniserade lagstiftning, som är att främja den fria rörligheten för produkter på den inre marknaden och säkerställa att endast säkra produkter som uppfyller kraven släpps ut på marknaden, är det viktigt att de säkerhetsrisker som kan genereras av produkten som helhet på grund av dess digitala komponenter, inklusive AI-system, förhindras och begränsas. Robotar som blir allt mer autonoma, oavsett om det är i samband med tillverkning eller personlig assistans och vård, bör också kunna arbeta säkert och utföra sina funktioner i komplexa miljöer. Inom vårdsektorn, där liv och hälsa i särskilt hög grad kan påverkas, bör de allt mer sofistikerade diagnossystemen och systemen som stöder mänskliga beslut vara tillförlitliga och noggranna. Omfattningen av de negativa effekter som AI-systemet har på de grundläggande rättigheter som skyddas av stadgan har särskilt stor betydelse när ett AI-system klassificeras som hög risk. Dessa rättigheter innefattar rätten till människans värdighet, respekt för privatlivet och familjelivet, skydd av personuppgifter, yttrandefrihet och informationsfrihet, mötesfrihet och organisationsfrihet samt icke-diskriminering, konsumentskydd, arbetstagares rättigheter, rättigheter för personer med funktionsnedsättning, rätten till ett effektivt rättsmedel och till en opartisk domstol, rätten till försvar och oskuldspresumtion samt rätten till god förvaltning. Vid sidan av dessa rättigheter är det viktigt att lyfta fram att barn har särskilda rättigheter i enlighet med artikel 24 i EU-stadgan och Förenta nationernas konvention om barnets rättigheter (som vidareutvecklas i konventionens allmänna kommentar nr 25 vad gäller den digitala miljön), som båda kräver att barns utsatthet beaktas och att de ges ett sådant skydd och sådan omsorg som krävs för deras välbefinnande. Även den grundläggande rättigheten till en hög nivå av miljöskydd, som också ingår i stadgan och genomförs i unionspolitik, bör beaktas vid bedömningen av allvarlighetsgraden i den skada som ett AI-system kan orsaka, inbegripet vad gäller människors hälsa och säkerhet.

(28)

AI-system skulle kunna ha negativa effekter för personers hälsa och säkerhet, i synnerhet när sådana system fungerar som säkerhetskomponenter i produkter. I enlighet med syftena för unionens harmoniserade lagstiftning, som är att främja den fria rörligheten för produkter på den inre marknaden och säkerställa att endast säkra produkter som uppfyller kraven släpps ut på marknaden, är det viktigt att de säkerhetsrisker som kan genereras av produkten som helhet på grund av dess digitala komponenter, inklusive AI-system, förhindras och begränsas. Robotar som blir allt mer autonoma, oavsett om det är i samband med tillverkning eller personlig assistans och vård, bör också kunna arbeta säkert och utföra sina funktioner i komplexa miljöer. Inom vårdsektorn, där liv och hälsa i särskilt hög grad kan påverkas, bör de allt mer sofistikerade diagnossystemen och systemen som stöder mänskliga beslut vara tillförlitliga och noggranna.

Ändring 56

Förslag till förordning

Skäl 28a (nytt)

Kommissionens förslag

Ändring

 

(28a)

Omfattningen av de negativa effekter som AI-systemet har på de grundläggande rättigheter som skyddas av stadgan har särskilt stor betydelse när ett AI-system klassificeras som hög risk. Dessa rättigheter innefattar rätten till människans värdighet, respekt för privatlivet och familjelivet, skydd av personuppgifter, yttrandefrihet och informationsfrihet, mötesfrihet och organisationsfrihet samt icke-diskriminering, rätt till utbildning, konsumentskydd, arbetstagares rättigheter, rättigheter för personer med funktionsnedsättning, jämställdhet, immateriella rättigheter, rätten till ett effektivt rättsmedel och till en opartisk domstol, rätten till försvar och oskuldspresumtion samt rätten till god förvaltning. Vid sidan av dessa rättigheter är det viktigt att lyfta fram att barn har särskilda rättigheter i enlighet med artikel 24 i EU-stadgan och Förenta nationernas konvention om barnets rättigheter (som vidareutvecklas i konventionens allmänna kommentar nr 25 vad gäller den digitala miljön), som båda kräver att barns utsatthet beaktas och att de ges ett sådant skydd och sådan omsorg som krävs för deras välbefinnande. Även den grundläggande rättigheten till en hög nivå av miljöskydd, som också ingår i stadgan och genomförs i unionspolitik, bör beaktas vid bedömningen av allvarlighetsgraden i den skada som ett AI-system kan orsaka, inbegripet vad gäller människors hälsa och säkerhet eller miljön.

Ändring 57

Förslag till förordning

Skäl 29

Kommissionens förslag

Ändring

(29)

När det gäller AI-system med hög risk som är säkerhetskomponenter i produkter eller system, eller som i sig själva utgör produkter eller system som omfattas av Europaparlamentets och rådets förordning (EG) nr 300/2008 (39), Europaparlamentets och rådets förordning (EU) nr 167/2013 (40), Europaparlamentets och rådets förordning (EU) nr 168/2013 (41), Europaparlamentets och rådets direktiv 2014/90/EU (42), Europaparlamentets och rådets direktiv (EU) 2016/797 (43), Europaparlamentets och rådets förordning (EU) 2018/858 (44), Europaparlamentets och rådets förordning (EU) 2018/1139 (45) och Europaparlamentets och rådets förordning (EU) 2019/2144 (46), är det lämpligt att ändra dessa akter för att säkerställa att kommissionen, på grundval av de tekniska och regleringsmässiga särdragen för varje sektor och utan att inkräkta på befintliga styrelseformer eller mekanismer för kontroll av överensstämmelse och kontroll av efterlevnad och myndigheter som inrättats inom ramen för dessa, beaktar de obligatoriska krav för AI-system med hög risk som fastställs i denna förordning när de antar relevanta framtida delegerade akter eller genomförandeakter på grundval av dessa akter.

(29)

När det gäller AI-system med hög risk som är säkerhetskomponenter i produkter eller system, eller som i sig själva utgör produkter eller system som omfattas av Europaparlamentets och rådets förordning (EG) nr 300/2008 (39), Europaparlamentets och rådets förordning (EU) nr 167/2013 (40), Europaparlamentets och rådets förordning (EU) nr 168/2013 (41), Europaparlamentets och rådets direktiv 2014/90/EU (42), Europaparlamentets och rådets direktiv (EU) 2016/797 (43), Europaparlamentets och rådets förordning (EU) 2018/858 (44), Europaparlamentets och rådets förordning (EU) 2018/1139 (45) och Europaparlamentets och rådets förordning (EU) 2019/2144 (46), är det lämpligt att ändra dessa akter för att säkerställa att kommissionen, på grundval av de tekniska och regleringsmässiga särdragen för varje sektor och utan att inkräkta på befintliga styrelseformer eller mekanismer för kontroll av överensstämmelse , marknadskontroll och kontroll av efterlevnad och myndigheter som inrättats inom ramen för dessa, beaktar de obligatoriska krav för AI-system med hög risk som fastställs i denna förordning när de antar relevanta framtida delegerade akter eller genomförandeakter på grundval av dessa akter.

Ändring 58

Förslag till förordning

Skäl 30

Kommissionens förslag

Ändring

(30)

När det gäller AI-system som är säkerhetskomponenter i produkter, eller som i sig själva utgör produkter, vilka omfattas av viss unionslagstiftning om harmonisering, är det lämpligt att klassificera dessa som hög risk inom ramen för denna förordning om den berörda produkten genomgår förfarandet för bedömning av överensstämmelse hos ett tredjepartsorgan för bedömning av överensstämmelse i enlighet med den relevanta unionslagstiftningen om harmonisering. Det handlar närmare bestämt om sådana produkter som maskiner, leksaker, hissar, utrustning och skyddssystem avsedda för användning i potentiellt explosionsfarliga omgivningar, radioutrustning, tryckutrustning, utrustning för fritidsfartyg, linbaneanläggningar, anordningar för förbränning av gasformiga bränslen, medicintekniska produkter och medicintekniska produkter för in vitro-diagnostik.

(30)

När det gäller AI-system som är säkerhetskomponenter i produkter, eller som i sig själva utgör produkter, vilka omfattas av viss unionsrätt om harmonisering som förtecknas i bilaga II , är det lämpligt att klassificera dessa som hög risk inom ramen för denna förordning om den berörda produkten genomgår förfarandet för bedömning av överensstämmelse för att säkerställa överensstämmelse med väsentliga säkerhetskrav hos ett tredjepartsorgan för bedömning av överensstämmelse i enlighet med den relevanta unionsrätten om harmonisering. Det handlar närmare bestämt om sådana produkter som maskiner, leksaker, hissar, utrustning och skyddssystem avsedda för användning i potentiellt explosionsfarliga omgivningar, radioutrustning, tryckutrustning, utrustning för fritidsfartyg, linbaneanläggningar, anordningar för förbränning av gasformiga bränslen, medicintekniska produkter och medicintekniska produkter för in vitro-diagnostik.

Ändring 59

Förslag till förordning

Skäl 31

Kommissionens förslag

Ändring

(31)

En klassificering av ett AI-system som hög risk i enlighet med denna förordning bör inte nödvändigtvis innebära att den produkt vars säkerhetskomponent utgörs av AI-systemet, eller AI-systemet i sig självt som produkt, anses utgöra ”hög risk” enligt de kriterier som fastställs i den relevanta unionslagstiftning om harmonisering som är tillämplig på produkten. Detta gäller i synnerhet för Europaparlamentets och rådets förordning (EU) 2017/745 (47) och Europaparlamentets och rådets förordning (EU) 2017/746 (48), i vilka tredjepartsbedömning av överensstämmelse föreskrivs för produkter med medelhög risk och hög risk.

(31)

En klassificering av ett AI-system som hög risk i enlighet med denna förordning bör inte nödvändigtvis innebära att den produkt vars säkerhetskomponent utgörs av AI-systemet, eller AI-systemet i sig självt som produkt, anses utgöra ”hög risk” enligt de kriterier som fastställs i den relevanta unionsrätten om harmonisering som är tillämplig på produkten. Detta gäller i synnerhet för Europaparlamentets och rådets förordning (EU) 2017/745 (47) och Europaparlamentets och rådets förordning (EU) 2017/746 (48), i vilka tredjepartsbedömning av överensstämmelse föreskrivs för produkter med medelhög risk och hög risk.

Ändring 60

Förslag till förordning

Skäl 32

Kommissionens förslag

Ändring

(32)

När det gäller fristående AI-system, med vilket avses andra AI-system med hög risk än sådana som utgör säkerhetskomponenter i produkter, eller AI-system som i sig själva utgör produkter, är det lämpligt att klassificera dem som hög risk om de i ljuset av sitt avsedda ändamål utgör en hög risk för skada på personers hälsa och säkerhet eller grundläggande rättigheter, med beaktande både den möjliga skadans allvarlighetsgrad och sannolikheten för att den ska uppstå, och de används på ett antal specifikt fördefinierade områden som anges i förordningen . Identifieringen av sådana system baseras på samma metoder och kriterier som även är avsedda att användas för framtida ändringar av förteckningen över AI-system med hög risk.

(32)

När det gäller fristående AI-system, med vilket avses andra AI-system med hög risk än sådana som utgör säkerhetskomponenter i produkter, eller AI-system som i sig själva utgör produkter och som är förtecknade i ett av områdena och användningsfallen i bilaga III , är det lämpligt att klassificera dem som hög risk om de mot bakgrund av sitt avsedda ändamål utgör en betydande risk för skada på personers hälsa och säkerhet eller grundläggande rättigheter, och, där AI-systemet används som en säkerhetskomponent i kritisk infrastruktur, på miljön. En sådan betydande risk för skada bör identifieras genom att man bedömer å ena sidan effekten av en sådan risk med avseende på allvarlighetsgraden, intensiteten, sannolikheten för att den ska uppstå och varaktigheten sammantaget och å andra sidan huruvida risken kan påverka en individ, en mångfald av personer eller en viss grupp av personer. En sådan kombination kan till exempel leda till en hög allvarlighetsgrad men låg sannolikhet att påverka en fysisk person, eller en hög sannolikhet att påverka en grupp av personer med låg intensitet under en lång tidsperiod, beroende på sammanhanget . Identifieringen av sådana system baseras på samma metoder och kriterier som även är avsedda att användas för framtida ändringar av förteckningen över AI-system med hög risk.

Ändring 61

Förslag till förordning

Skäl 32a (nytt)

Kommissionens förslag

Ändring

 

(32a)

Leverantörer vars AI-system omfattas av något av de områden och användningsfall som förtecknas i bilaga III och som anser att deras system inte utgör en betydande risk för skada på hälsa, säkerhet, grundläggande rättigheter eller miljön bör informera de nationella tillsynsmyndigheterna genom att lämna en motiverad anmälan. Detta skulle kunna ske i form av en sammanfattning på en sida av den relevanta informationen om AI-systemet i fråga, inbegripet dess avsedda ändamål och varför det inte skulle utgöra en betydande risk för skada på hälsa, säkerhet, grundläggande rättigheter eller miljön. Kommissionen bör specificera kriterier som gör det möjligt för företagen att bedöma om deras system skulle medföra sådana risker samt utveckla en användarvänlig och standardiserad mall för anmälan. Leverantörer bör lämna in anmälan så tidigt som möjligt och under alla omständigheter innan AI-systemet släpps ut på marknaden eller tas i bruk, helst i utvecklingsskedet, och de bör ha rätt att släppa ut det på marknaden när som helst efter anmälan. Om myndigheten emellertid uppskattar att AI-systemet i fråga var felaktigt klassificerat bör den invända mot anmälan inom en period på tre månader. Invändningen bör motiveras och vederbörligen förklara varför AI-systemet har klassificerats felaktigt. Leverantören bör behålla rätten att överklaga genom att lägga fram ytterligare argument. Om det efter de tre månaderna inte har inkommit några invändningar mot anmälan kan de nationella tillsynsmyndigheterna fortfarande ingripa om AI-systemet utgör en risk på nationell nivå, som för alla andra AI-system på marknaden. De nationella tillsynsmyndigheterna bör lämna årliga rapporter till AI-byrån med uppgifter om de anmälningar som mottagits och de beslut som fattats.

Ändring 62

Förslag till förordning

Skäl 33

Kommissionens förslag

Ändring

(33)

Tekniska brister i AI-system som är avsedda för biometrisk fjärridentifiering av fysiska personer kan leda till snedvridna resultat och medföra diskriminerande effekter. Detta är särskilt relevant när det gäller ålder, etnicitet, kön eller funktionsnedsättning. Därför bör system för biometrisk fjärridentifiering i realtid och i efterhand klassificeras som hög risk. Mot bakgrund av de risker som dessa system utgör bör båda typerna av system för biometrisk fjärridentifiering omfattas av särskilda krav avseende loggningskapacitet och mänsklig tillsyn.

utgår

Ändring 63

Förslag till förordning

Skäl 33a (nytt)

Kommissionens förslag

Ändring

 

(33a)

Eftersom biometriska uppgifter utgör en särskild kategori av känsliga personuppgifter i enlighet med förordning 2016/679 är det lämpligt att klassificera flera kritiska användningsfall av biometriska och biometribaserade system som hög risk. AI-system som är avsedda att användas för biometrisk identifiering av fysiska personer och AI-system som är avsedda att användas för att dra slutsatser om fysiska personers personliga egenskaper på grundval av biometriska eller biometribaserade uppgifter, inbegripet system för känsloigenkänning, med undantag för sådana som är förbjudna enligt denna förordning, bör därför klassificeras som hög risk. Detta bör inte omfatta AI-system som är avsedda att användas för biometrisk verifiering, vilket inbegriper autentisering, vars enda syfte är att bekräfta att en specifik fysisk person är den person som denne utger sig för att vara, och system som används för att bekräfta identiteten för en fysisk person med det enda syftet att få åtkomst till en tjänst, en enhet eller lokaler (ett mot ett). Biometriska och biometribaserade system som föreskrivs i unionsrätten för att möjliggöra åtgärder för cybersäkerhet och skydd av personuppgifter bör inte anses utgöra en betydande risk för skada på hälsa, säkerhet och grundläggande rättigheter.

Ändring 64

Förslag till förordning

Skäl 34

Kommissionens förslag

Ändring

(34)

När det gäller förvaltning och drift av kritisk infrastruktur är det lämpligt att som hög risk klassificera AI-system avsedda att användas som säkerhetskomponenter i förvaltningen och driften av vägtrafik och tillhandahållandet av vatten, gas, uppvärmning och el , eftersom funktionsavbrott eller funktionsstörning i sådana system kan medföra risk för personers liv och hälsa i stor skala och leda till märkbara störningar av det normala bedrivandet av social och ekonomisk verksamhet.

(34)

När det gäller förvaltning och drift av kritisk infrastruktur är det lämpligt att som hög risk klassificera AI-system avsedda att användas som säkerhetskomponenter i förvaltningen och driften av tillhandahållandet av vatten, gas, uppvärmning , el och kritisk digital infrastruktur , eftersom funktionsavbrott eller funktionsstörning i sådana system kan inkräkta på säkerheten och integriteten för sådan kritisk infrastruktur eller medföra risk för personers liv och hälsa i stor skala och leda till märkbara störningar av det normala bedrivandet av social och ekonomisk verksamhet. Säkerhetskomponenter i kritisk infrastruktur, inbegripet kritisk digital infrastruktur, är system som används för att direkt skydda den kritiska infrastrukturens fysiska integritet eller människors och egendoms hälsa och säkerhet. Funktionsavbrott eller funktionsstörning i sådana komponenter kan direkt leda till risker för den kritiska infrastrukturens fysiska integritet och därmed till risker för människors hälsa och säkerhet och egendom. Komponenter som är avsedda att användas enbart för cybersäkerhetsändamål bör inte betraktas som säkerhetskomponenter. Exempel på sådana säkerhetskomponenter kan vara system för övervakning av vattentryck eller brandlarmsystem i molndatacentraler.

Ändring 65

Förslag till förordning

Skäl 35

Kommissionens förslag

Ändring

(35)

AI-system som används för yrkesutbildning eller annan utbildning, i synnerhet när det gäller fastställandet av personers tillgång till institutioner för yrkesutbildning eller annan utbildning, eller för att utvärdera personer tester som ett led i eller som en förutsättning för deras utbildning, bör anses som hög risk eftersom de kan avgöra en persons utbildningsväg och yrkeskarriär och därmed påverka deras försörjningsmöjligheter. När sådana system utformas och används på otillbörligt sätt kan de innebära en kränkning av rätten till yrkesutbildning och annan utbildning liksom rätten att inte utsättas för diskriminering eller för en fortsättning på historiska diskrimineringsmönster.

(35)

Införandet av AI-system i utbildningssektorn är viktigt för att bidra till att modernisera hela utbildningssystem, för att öka utbildningskvaliteten, både offline och online, och för att påskynda den digitala utbildningen, och därmed även göra denna tillgänglig för en bredare publik. AI-system som används för yrkesutbildning eller annan utbildning, i synnerhet när det gäller fastställandet av personers tillgång till eller på ett betydande sätt påverka beslutet om antagning till institutioner för yrkesutbildning eller annan utbildning, eller för att utvärdera personer genom tester som ett led i eller som en förutsättning för deras utbildning, eller för att bedöma en persons lämpliga utbildningsnivå och väsentligen påverka vilken utbildningsnivå som personer kommer att få eller få tillgång till, eller för att övervaka och upptäcka förbjudet beteende bland studenter under provtillfällen, bör klassificeras som AI-system med hög risk eftersom de kan avgöra en persons utbildningsväg och yrkeskarriär och därmed påverka deras försörjningsmöjligheter. När sådana system utformas och används på otillbörligt sätt kan de vara särskilt inkräktande och kan innebära en kränkning av rätten till yrkesutbildning och annan utbildning liksom rätten att inte utsättas för diskriminering eller för en fortsättning på historiska diskrimineringsmönster mot till exempel kvinnor, vissa åldersgrupper, personer med funktionsnedsättning eller personer av vissa etniska ursprung eller av viss sexuell läggning .

Ändring 66

Förslag till förordning

Skäl 36

Kommissionens förslag

Ändring

(36)

AI-system som används i utbildning, arbetsledning och tillgång till egenföretagande, i synnerhet när det gäller rekrytering eller urval av personer, för beslutsfattande om befordran eller uppsägning och för fördelning av uppgifter, övervakning eller utvärdering av personer i arbetsrelaterade avtalsförhållanden, bör också klassificeras som hög risk, eftersom dessa system märkbart kan påverka framtida karriärutsikter och försörjning för de berörda personerna. Relevanta arbetsrelaterade avtalsförhållanden bör innefatta arbetstagare och personer som tillhandahåller tjänster via plattformar enligt kommissionens arbetsprogram för 2021. Sådana personer bör i princip inte betraktas som användare enligt denna förordning. Under hela rekryteringsförfarandet och vid utvärdering, befordran eller bibehållande av personer i arbetsrelaterade avtalsförhållanden, kan sådana system reproducera historiska mönster av diskriminering, exempelvis mot kvinnor, vissa åldersgrupper, personer med funktionsnedsättning eller mot personer på grund av ras, etniskt ursprung eller sexuell läggning. AI-system som används för att övervaka dessa personers prestation och beteende kan också påverka deras rätt till dataskydd och personlig integritet.

(36)

AI-system som används i utbildning, arbetsledning och tillgång till egenföretagande, i synnerhet när det gäller rekrytering eller urval av personer, för beslutsfattande om eller betydande påverkan av beslutet om antagning till befordran eller uppsägning och för personlig fördelning av uppgifter på grundval av individuellt beteende, personuppgifter eller biometriska uppgifter , övervakning eller utvärdering av personer i arbetsrelaterade avtalsförhållanden, bör också klassificeras som hög risk, eftersom dessa system märkbart kan påverka framtida karriärutsikter och försörjning för de berörda personerna samt arbetstagares rättigheter . Relevanta arbetsrelaterade avtalsförhållanden bör på ett meningsfullt sätt innefatta arbetstagare och personer som tillhandahåller tjänster via plattformar enligt kommissionens arbetsprogram för 2021. Under hela rekryteringsförfarandet och vid utvärdering, befordran eller bibehållande av personer i arbetsrelaterade avtalsförhållanden, kan sådana system reproducera historiska mönster av diskriminering, exempelvis mot kvinnor, vissa åldersgrupper, personer med funktionsnedsättning eller mot personer på grund av ras, etniskt ursprung eller sexuell läggning. AI-system som används för att övervaka dessa personers prestation och beteende kan också undergräva kärnan i deras grundläggande rätt till dataskydd och personlig integritet. Denna förordning gäller utan att det påverkar unionens och medlemsstaternas behörigheter att föreskrivs mer specifika regler för användningen av AI-system inom ramen för sysselsättning.

Ändring 67

Förslag till förordning

Skäl 37

Kommissionens förslag

Ändring

(37)

Ett annat område där användningen av AI-system förtjänar särskild vaksamhet är när det gäller tillgång till och åtnjutande av vissa väsentliga privata och offentliga tjänster och förmåner som är nödvändiga för att människor fullt ut ska kunna delta i samhället eller förbättra sin levnadsstandard. I synnerhet bör AI-system som används för att utvärdera fysiska personers kreditomdöme eller kreditvärdighet klassificeras som AI-system med hög risk, eftersom de avgör de berörda personernas tillgång till ekonomiska resurser eller väsentliga tjänster som bostad, el och telekommunikationstjänster. AI-system som används för detta ändamål kan medföra diskriminering av personer eller grupper eller reproducera historiska diskrimineringsmönster, exempelvis baserat på rasmässigt eller etniskt ursprung, funktionsnedsättning, ålder eller sexuell läggning, eller skapa nya former av diskrimineringseffekter. AI-system för kreditprövning och kreditomdömen som utnyttjas av småskaliga leverantörer för egen användning bör undantas, mot bakgrund av effekternas mycket begränsade omfattning och de tillgängliga alternativen på marknaden . Fysiska personer som ansöker om eller erhåller offentliga bidragsförmåner och tjänster från offentliga myndigheter är normalt beroende av dessa förmåner och tjänster och i en utsatt position i förhållande till de ansvariga myndigheterna. Om AI-system används för att avgöra om sådana förmåner och tjänster ska vägras, minskas, upphävas eller återkallas av myndigheterna kan de ha en betydande inverkan på personers försörjning och kan inkräkta på deras grundläggande rättigheter, såsom rätten till socialt skydd, icke-diskriminering, mänsklig värdighet eller effektivt rättsmedel. Dessa system bör därför klassificeras som hög risk. Denna förordning bör dock inte hämma utvecklingen och användningen av innovativa metoder inom offentlig förvaltning, som kan gagnas av en bredare användning av säkra AI-system som uppfyller kraven, förutsatt att dessa system inte medför hög risk för juridiska och fysiska personer. Slutligen bör även AI-system som används för att sända ut eller fastställa prioriteringsordning för utsändning av larmtjänster klassificeras som hög risk, eftersom dessa system fattar beslut i situationer som är mycket kritiska för personers liv, hälsa och egendom.

(37)

Ett annat område där användningen av AI-system förtjänar särskild vaksamhet är när det gäller tillgång till och åtnjutande av vissa väsentliga privata och offentliga tjänster , däribland hälso- och sjukvård, och väsentliga tjänster, inbegripet men inte begränsat till bostäder, el, uppvärmning/kylning och internet, och förmåner som är nödvändiga för att människor fullt ut ska kunna delta i samhället eller förbättra sin levnadsstandard. I synnerhet bör AI-system som används för att utvärdera fysiska personers kreditomdöme eller kreditvärdighet klassificeras som AI-system med hög risk, eftersom de avgör de berörda personernas tillgång till ekonomiska resurser eller väsentliga tjänster som bostad, el och telekommunikationstjänster. AI-system som används för detta ändamål kan medföra diskriminering av personer eller grupper eller reproducera historiska diskrimineringsmönster, exempelvis baserat på rasmässigt eller etniskt ursprung, kön, funktionsnedsättning, ålder eller sexuell läggning, eller skapa nya former av diskrimineringseffekter. AI-system som föreskrivs i unionsrätten i syfte att upptäcka bedrägerier i samband med tillhandahållande av finansiella tjänster bör dock inte betraktas som högrisksystem enligt denna förordning. Fysiska personer som ansöker om eller erhåller offentliga bidragsförmåner och tjänster från offentliga myndigheter , däribland hälso- och sjukvård, och väsentliga tjänster, inbegripet men inte begränsat till bostäder, el, uppvärmning/kylning och internet, är normalt beroende av dessa förmåner och tjänster och i en utsatt position i förhållande till de ansvariga myndigheterna. Om AI-system används för att avgöra om sådana förmåner och tjänster ska vägras, minskas, upphävas eller återkallas av myndigheterna kan de ha en betydande inverkan på personers försörjning och kan inkräkta på deras grundläggande rättigheter, såsom rätten till socialt skydd, icke-diskriminering, mänsklig värdighet eller effektivt rättsmedel. På liknande sätt kan AI-system som är avsedda att användas för att fatta beslut eller väsentligt påverka beslut om fysiska personers rätt till hälso- och livförsäkring också ha en betydande inverkan på människors försörjningsmöjligheter och kan kränka deras grundläggande rättigheter, till exempel genom att begränsa tillgången till hälso- och sjukvård eller genom att vidmakthålla diskriminering på grund av personliga egenskaper. Dessa system bör därför klassificeras som hög risk. Denna förordning bör dock inte hämma utvecklingen och användningen av innovativa metoder inom offentlig förvaltning, som kan gagnas av en bredare användning av säkra AI-system som uppfyller kraven, förutsatt att dessa system inte medför hög risk för juridiska och fysiska personer. Slutligen bör även AI-system som används för att utvärdera och klassificera nödsamtal från fysiska personer eller för att sända ut eller fastställa prioriteringsordning för utsändning av larmtjänster klassificeras som hög risk, eftersom dessa system fattar beslut i situationer som är mycket kritiska för personers liv, hälsa och egendom.

Ändring 68

Förslag till förordning

Skäl 37a (nytt)

Kommissionens förslag

Ändring

 

(37a)

Med tanke på polisens och de rättsliga myndigheternas roll och ansvar, och konsekvenserna av de beslut som dessa fattar för att förebygga, utreda, avslöja eller lagföra brott eller verkställa straffrättsliga påföljder, måste användningen av vissa specifika AI-tillämpningar inom brottsbekämpning klassificeras som hög risk, i synnerhet i fall där enskilda personers liv eller grundläggande rättigheter riskerar att påverkas avsevärt.

Ändring 69

Förslag till förordning

Skäl 38

Kommissionens förslag

Ändring

(38)

Brottsbekämpande myndigheters åtgärder som involverar vissa typer av användning av AI-system kännetecknas av en betydande grad av maktobalans och kan leda till övervakning, gripande eller frihetsberövande av en fysisk person, liksom annan negativ inverkan på grundläggande rättigheter som garanteras i stadgan. De kan – i synnerhet om AI-systemen inte tränats med data av hög kvalitet, inte uppfyller lämpliga krav i fråga om noggrannhet eller robusthet, eller inte utformats och testats tillräckligt innan de släpps ut på marknaden eller på annat sätt tas i bruk – peka ut människor på ett diskriminerande eller på annat sätt oriktigt eller orättvist sätt. Dessutom kan utövandet av viktiga förfarandemässiga grundläggande rättigheter, såsom rätten till effektivt rättsmedel och till en opartisk domstol samt rätten till försvar och presumtion för oskuld, hämmas, i synnerhet i de fall då AI-systemen inte är tillräckligt transparenta, förklarade och dokumenterade. Det är därför lämpligt att som hög risk klassificera ett antal AI-system som är avsedda att användas i brottsbekämpningssammanhang där det är särskilt viktigt med noggrannhet, tillförlitlighet och transparens för att undvika negativa effekter, upprätthålla allmänhetens förtroende och säkerställa ansvarsskyldighet och effektiv rättslig prövning. Mot bakgrund av de berörda åtgärdernas art och relaterade risker bör dessa AI-system med hög risk i synnerhet inbegripa AI-system avsedda att användas av brottsbekämpande myndigheter för individuella riskbedömningar, lögndetektorer och liknande verktyg för att läsa av en fysisk persons emotionella tillstånd, upptäcka ”deepfake” , bedöma tillförlitligheten i bevis i brottmålsförfaranden , förutse förekomsten eller upprepningen av ett faktiskt eller potentiellt brott baserat på profilering av fysiska personer, eller bedöma personlighetsdrag och egenskaper eller tidigare brottsligt beteende hos fysiska personer eller grupper, samt profilering i samband med upptäckt, utredning eller lagföring av brott och i samband med brottsanalys som avser fysiska personer. AI-system som är specifikt avsedda att användas för administrativa förfaranden hos skattemyndigheter och tullmyndigheter bör inte anses som AI-system med hög risk som används av brottsbekämpande myndigheter i syfte att förebygga, förhindra, avslöja, utreda eller lagföra brott.

(38)

Brottsbekämpande myndigheters åtgärder som involverar vissa typer av användning av AI-system kännetecknas av en betydande grad av maktobalans och kan leda till övervakning, gripande eller frihetsberövande av en fysisk person, liksom annan negativ inverkan på grundläggande rättigheter som garanteras i stadgan. De kan – i synnerhet om AI-systemen inte tränats med data av hög kvalitet, inte uppfyller lämpliga krav i fråga om dess resultat, noggrannhet eller robusthet, eller inte utformats och testats tillräckligt innan de släpps ut på marknaden eller på annat sätt tas i bruk – peka ut människor på ett diskriminerande eller på annat sätt oriktigt eller orättvist sätt. Dessutom kan utövandet av viktiga förfarandemässiga grundläggande rättigheter, såsom rätten till effektivt rättsmedel och till en opartisk domstol samt rätten till försvar och presumtion för oskuld, hämmas, i synnerhet i de fall då AI-systemen inte är tillräckligt transparenta, förklarade och dokumenterade. Det är därför lämpligt att som hög risk klassificera ett antal AI-system som är avsedda att användas i brottsbekämpningssammanhang där det är särskilt viktigt med noggrannhet, tillförlitlighet och transparens för att undvika negativa effekter, upprätthålla allmänhetens förtroende och säkerställa ansvarsskyldighet och effektiv rättslig prövning. Mot bakgrund av de berörda åtgärdernas art och relaterade risker bör dessa AI-system med hög risk i synnerhet inbegripa AI-system avsedda att användas av brottsbekämpande myndigheter eller för deras räkning eller av unionens byråer, organ eller institutioner för att stödja nationella brottsbekämpande myndigheter , som lögndetektorer och liknande verktyg , i den mån deras användning är tillåten enligt relevant unionsrätt och nationell rätt, för att bedöma tillförlitligheten i bevis i brottmålsförfaranden samt för profilering i samband med upptäckt, utredning eller lagföring av brott och i samband med brottsanalys som avser fysiska personer. AI-system som är specifikt avsedda att användas för administrativa förfaranden hos skattemyndigheter och tullmyndigheter bör inte klassificeras som AI-system med hög risk som används av brottsbekämpande myndigheter i syfte att förebygga, förhindra, avslöja, utreda eller lagföra brott. De brottsbekämpande myndigheternas och de rättsliga myndigheternas användning av AI-verktyg bör inte bli en faktor som bidrar till ojämlikhet, sociala klyftor eller utestängning. Den inverkan som användningen av AI-verktyg har på misstänktas rätt till försvar bör inte ignoreras, i synnerhet svårigheten att få meningsfull information om deras funktion och den därav följande svårigheten att ifrågasätta resultaten i domstol, särskilt för personer som är under utredning.

Ändring 70

Förslag till förordning

Skäl 39

Kommissionens förslag

Ändring

(39)

AI-system som används inom förvaltning av migration, asyl och gränskontroll påverkar människor som ofta är i en särskilt utsatt situation och som är beroende av resultatet av de behöriga offentliga myndigheternas åtgärder. Det är därmed särskilt viktigt att de AI-system som används i dessa sammanhang är tillförlitliga, icke-diskriminerande och transparenta, för att garantera iakttagandet av de påverkade personernas grundläggande rättigheter, i synnerhet deras rätt till fri rörlighet, icke-diskriminering, skydd av privatliv och personuppgifter, internationellt skydd och god förvaltning. Det är därför lämpligt att som hög risk klassificera AI-system avsedda att användas av behöriga offentliga myndigheter som anförtrotts uppdrag på områdena migration, asyl och gränskontroll, såsom lögndetektorer och liknande verktyg för att läsa av en fysisk persons emotionella tillstånd , för bedömning av vissa risker som utgörs av fysiska personer som reser in till en medlemsstats territorium eller som ansöker om visum eller asyl, för att kontrollera äktheten i fysiska personers relevanta handlingar, och för att bistå behöriga offentliga myndigheter i granskningen av ansökningar om asyl, visum och uppehållstillstånd och därmed förbundna klagomål med avseende på syftet att fastställa om den ansökande fysiska personen uppfyller kraven för denna status. AI-system på området migration, asyl och gränskontroll vilka omfattas av denna förordning bör uppfylla de relevanta förfarandemässiga krav som fastställs i Europaparlamentets och rådets direktiv 2013/32/EU (49), Europaparlamentets och rådets förordning (EG) nr 810/2009 (50) och annan relevant lagstiftning.

(39)

AI-system som används inom förvaltning av migration, asyl och gränskontroll påverkar människor som ofta är i en särskilt utsatt situation och som är beroende av resultatet av de behöriga offentliga myndigheternas åtgärder. Det är därmed särskilt viktigt att de AI-system som används i dessa sammanhang är tillförlitliga, icke-diskriminerande och transparenta, för att garantera iakttagandet av de påverkade personernas grundläggande rättigheter, i synnerhet deras rätt till fri rörlighet, icke-diskriminering, skydd av privatliv och personuppgifter, internationellt skydd och god förvaltning. Det är därför lämpligt att som hög risk klassificera AI-system avsedda att användas av behöriga offentliga myndigheter eller för deras räkning eller av unionens byråer, organ eller institutioner som anförtrotts uppdrag på områdena migration, asyl och gränskontroll, såsom lögndetektorer och liknande verktyg i den mån deras användning är tillåten enligt relevant unionsrätt och nationell rätt , för bedömning av vissa risker som utgörs av fysiska personer som reser in till en medlemsstats territorium eller som ansöker om visum eller asyl, för att kontrollera äktheten i fysiska personers relevanta handlingar, och för att bistå behöriga offentliga myndigheter i granskningen och prövningen av bevisens sanningsenlighet i samband med ansökningar om asyl, visum och uppehållstillstånd och därmed förbundna klagomål med avseende på syftet att fastställa om den ansökande fysiska personen uppfyller kraven för denna status , för övervakning, övervakning eller behandling av personuppgifter i samband med gränsförvaltningsverksamhet, i syfte att upptäcka, erkänna eller identifiera fysiska personer, och för att prognostisera eller förutsäga trender i samband med migrationsrörelser och gränspassager . AI-system på området migration, asyl och gränskontroll vilka omfattas av denna förordning bör uppfylla de relevanta förfarandemässiga krav som fastställs i Europaparlamentets och rådets direktiv 2013/32/EU (49), Europaparlamentets och rådets förordning (EG) nr 810/2009 (50) och annan relevant lagstiftning. AI-system inom migrations-, asyl- och gränskontrollhantering bör under inga omständigheter användas av medlemsstater eller unionens institutioner, byråer eller organ som ett medel för att kringgå sina internationella skyldigheter enligt konventionen av den 28 juli 1951 om flyktingars rättsliga ställning enligt ändring genom protokollet av den 31 januari 1967, och inte heller bör de användas för att på något sätt bryta mot principen om non-refoulement eller neka säkra och effektiva lagliga vägar in på unionens territorium, inbegripet rätten till internationellt skydd.

Ändring 71

Förslag till förordning

Skäl 40

Kommissionens förslag

Ändring

(40)

Vissa AI-system som är avsedda för rättsskipning och demokratiska processer bör klassificeras som hög risk, mot bakgrund av deras potentiellt betydande inverkan på demokrati, rättsstatsprincipen, individuella friheter och rätten till effektivt rättsmedel och till en opartisk domstol. För att motverka riskerna för potentiella snedvridningar och fel och bristande insyn är det i synnerhet lämpligt att som AI-system med hög risk klassificera sådana AI-system som är avsedda att hjälpa de rättsliga myndigheterna att undersöka och tolka fakta och lagstiftning och att tillämpa denna lagstiftning på en konkret uppsättning fakta. Denna kategorisering bör dock inte omfatta AI-system som är avsedda för rent administrativa stödfunktioner som inte påverkar den faktiska rättskipningen i enskilda fall, exempelvis anonymisering eller pseudonymisering av rättsliga beslut, handlingar eller data, kommunikation mellan anställda, administrativa uppgifter eller fördelning av resurser.

(40)

Vissa AI-system som är avsedda för rättsskipning och demokratiska processer bör klassificeras som hög risk, mot bakgrund av deras potentiellt betydande inverkan på demokrati, rättsstatsprincipen, individuella friheter och rätten till effektivt rättsmedel och till en opartisk domstol. För att motverka riskerna för potentiella snedvridningar och fel och bristande insyn är det i synnerhet lämpligt att som AI-system med hög risk klassificera sådana AI-system som är avsedda att användas av en rättslig myndighet eller ett administrativt organ eller för deras räkning eller för att hjälpa de rättsliga myndigheterna eller de administrativa organen att undersöka och tolka fakta och lagstiftning och att tillämpa denna lagstiftning på en konkret uppsättning fakta eller använda den på ett liknande sätt vid alternativ tvistlösning. Användningen av verktyg för artificiell intelligens kan stödja, men bör inte ersätta domarnas beslutanderätt eller rättsväsendets oberoende, eftersom det slutliga beslutsfattandet måste förbli en människodriven verksamhet och ett mänskligt beslut . Denna kategorisering bör dock inte omfatta AI-system som är avsedda för rent administrativa stödfunktioner som inte påverkar den faktiska rättskipningen i enskilda fall, exempelvis anonymisering eller pseudonymisering av rättsliga beslut, handlingar eller data, kommunikation mellan anställda, administrativa uppgifter eller fördelning av resurser.

Ändring 72

Förslag till förordning

Skäl 40a (nytt)

Kommissionens förslag

Ändring

 

(40a)

För att hantera riskerna för otillbörlig extern inblandning i rösträtten enligt artikel 39 i stadgan och oproportionerliga effekter på demokratiska processer, demokrati och rättsstatsprincipen bör AI-system som är avsedda att användas för att påverka resultatet av ett val eller en folkomröstning eller fysiska personers röstbeteende vid val eller folkomröstningar klassificeras som AI-system med hög risk, med undantag för AI-system vars utdata fysiska personer inte är direkt exponerade för, såsom verktyg som används för att organisera, optimera och strukturera politiska kampanjer ur administrativ och logistisk synvinkel.

Ändring 73

Förslag till förordning

Skäl 40b (nytt)

Kommissionens förslag

Ändring

 

(40b)

Med tanke på omfattningen av fysiska personer som använder de tjänster som tillhandahålls av sociala medieplattformar som betecknas som mycket stora onlineplattformar kan sådana onlineplattformar användas på ett sätt som starkt påverkar säkerheten på nätet, utformningen av den allmänna opinionen och debatten, val och demokratiska processer samt samhällsproblem. Det är därför lämpligt att AI-system som används av dessa onlineplattformar i deras rekommendationssystem omfattas av denna förordning för att säkerställa att AI-systemen uppfyller de krav som fastställs i denna förordning, inbegripet de tekniska kraven på dataförvaltning, teknisk dokumentation och spårbarhet, transparens, mänsklig tillsyn, noggrannhet och robusthet. Efterlevnaden av denna förordning bör göra det möjligt för sådana mycket stora onlineplattformar att uppfylla sina bredare skyldigheter i fråga om riskbedömning och riskreducering i artikel 34 och 35 i förordning (EU) 2022/2065. Skyldigheterna i denna förordning påverkar inte tillämpningen av förordning (EU) 2022/2065 och bör komplettera de skyldigheter som krävs enligt förordning (EU) 2022/2065 när plattformen för sociala medier har betecknats som en mycket stor onlineplattform. Med tanke på den Europaomfattande inverkan av sociala medieplattformar som betecknas som mycket stora onlineplattformar bör de myndigheter som utsetts enligt förordning (EU) 2022/2065 agera som tillsynsmyndigheter i syfte att säkerställa efterlevnaden av denna bestämmelse.

Ändring 74

Förslag till förordning

Skäl 41

Kommissionens förslag

Ändring

(41)

Det faktum att ett AI-system klassificerats som hög risk enligt denna förordning bör inte tolkas som att användningen av det systemet nödvändigtvis är lagligt enligt andra rättsakter i unionsrätten eller enligt nationell lagstiftning som är förenlig med unionsrätten, exempelvis vad gäller skydd av personuppgifter , användning av lögndetektorer och liknande verktyg eller andra system för att läsa av fysiska personers emotionella tillstånd . All sådan användning bör även fortsättningsvis endast ske i enlighet med de tillämpliga krav som följer av stadgan eller av tillämpliga rättsakter i unionens sekundärrätt och nationell rätt. Denna förordning ska inte tolkas som att den omfattar en rättslig grund för behandling av personuppgifter, inbegripet särskilda kategorier av personuppgifter, i förekommande fall.

(41)

Det faktum att ett AI-system klassificerats som ett AI-system med hög risk enligt denna förordning bör inte tolkas som att användningen av det systemet nödvändigtvis är laglig eller olaglig enligt andra rättsakter i unionsrätten eller enligt nationell lagstiftning som är förenlig med unionsrätten, exempelvis vad gäller skydd av personuppgifter. All sådan användning bör även fortsättningsvis endast ske i enlighet med de tillämpliga krav som följer av stadgan eller av tillämpliga rättsakter i unionens sekundärrätt och nationell rätt.

Ändring 75

Förslag till förordning

Skäl 41a (nytt)

Kommissionens förslag

Ändring

 

(41a)

Ett antal rättsligt bindande regler på europeisk, nationell och internationell nivå gäller redan i dag för AI-system eller berör dem, inbegripet men inte begränsat till EU:s primärrätt (Europeiska unionens fördrag och dess stadga om de grundläggande rättigheterna), EU:s sekundärrätt (t.ex. den allmänna dataskyddsförordningen, antidiskrimineringsdirektiven, maskindirektivet, direktivet om produktansvar, förordningen om fritt flöde av icke-personuppgifter, konsumentlagstiftningen och arbetsmiljödirektiven), FN:s konventioner om mänskliga rättigheter och Europarådets konventioner (t.ex. Europeiska konventionen om mänskliga rättigheter) och nationell rätt. Utöver regler som tillämpas övergripande finns det flera domänspecifika regler som endast gäller för vissa AI-tillämpningar (till exempel förordningen om medicintekniska produkter inom hälso- och sjukvårdssektorn).

Ändring 76

Förslag till förordning

Skäl 42

Kommissionens förslag

Ändring

(42)

För att begränsa riskerna för användare och berörda personer från AI-system med hög risk som släpps ut eller på annat sätt tas i bruk på unionsmarknaden bör vissa obligatoriska krav gälla, med beaktande av systemets avsedda ändamål eller användning och i enlighet med det riskhanteringssystem som ska upprättas av leverantören.

(42)

För att begränsa riskerna för användare och berörda personer från AI-system med hög risk som släpps ut eller på annat sätt tas i bruk på unionsmarknaden bör vissa obligatoriska krav gälla, med beaktande av systemets avsedda ändamål eller rimligen förutsebara felaktiga användning och i enlighet med det riskhanteringssystem som ska upprättas av leverantören. Dessa krav bör vara målinriktade, lämpliga för syftet, rimliga och effektiva, utan att medföra onödiga regelbördor eller kostnader för operatörerna.

Ändring 77

Förslag till förordning

Skäl 43

Kommissionens förslag

Ändring

(43)

Kraven bör tillämpas på AI-system med hög risk när det gäller kvaliteten på använda dataset, teknisk dokumentation och arkivering, transparens och information till användarna, mänsklig tillsyn samt robusthet, noggrannhet och cybersäkerhet. Dessa krav är nödvändiga för att på ett effektivt sätt begränsa riskerna för hälsa, säkerhet och grundläggande rättigheter, såsom tillämpligt mot bakgrund av systemets avsedda syfte, och om inga andra åtgärder som är mindre handelsbegränsande finns rimligen tillgängliga, för att på så sätt motverka omotiverade begränsningar av handeln.

(43)

Kraven bör tillämpas på AI-system med hög risk när det gäller kvaliteten på och relevansen för använda dataset, teknisk dokumentation och arkivering, transparens och information till användarna, mänsklig tillsyn samt robusthet, noggrannhet och cybersäkerhet. Dessa krav är nödvändiga för att på ett effektivt sätt begränsa riskerna för hälsa, säkerhet och grundläggande rättigheter, samt miljö, demokrati och rättsstaten, såsom tillämpligt mot bakgrund av systemets avsedda syfte eller rimligen förutsebara felaktiga användning , och om inga andra åtgärder som är mindre handelsbegränsande finns rimligen tillgängliga, för att på så sätt motverka omotiverade begränsningar av handeln.

Ändring 78

Förslag till förordning

Skäl 44

Kommissionens förslag

Ändring

(44)

Data av hög kvalitet krävs för många AI-systems prestanda, i synnerhet vid användning av teknik som förutsätter träning av modeller, för att säkerställa att AI-system med hög risk fungerar säkert och på avsett sätt och inte blir till en källa till diskriminering som är förbjuden enligt unionsrätten. För högkvalitativ träning, validering och testning av dataset krävs genomförandet av ändamålsenliga metoder för dataförvaltning och datahantering. Dataset för träning, validering och testning bör vara tillräckligt relevanta, representativa och felfria och kompletta i förhållande till systemets avsedda ändamål. De bör också ha lämpliga statistiska egenskaper, inbegripet vad gäller de personer eller grupper av personer vilka AI-systemet med hög risk är avsett att användas. Dataset för träning, validering och testning bör i synnerhet, i den mån som krävs med tanke på systemens avsedda ändamål, beakta funktioner, särdrag eller element som är specifika för den särskilda geografiska, beteendemässiga eller funktionsmässiga situation eller kontext där AI-systemet är avsett att användas. För att skydda andras rätt att slippa diskriminering som kan följa av snedvridning i AI-system, bör leverantörerna kunna behandla även särskilda kategorier av personuppgifter, som en fråga av betydande allmänintresse, för att säkerställa övervakning, upptäckt och korrigering av snedvridning när det gäller AI-system med hög risk.

(44)

Tillgång till data av hög kvalitet spelar en avgörande roll när det gäller att tillhandahålla struktur och att säkerställa många AI-systems prestanda, i synnerhet vid användning av teknik som förutsätter träning av modeller, för att säkerställa att AI-system med hög risk fungerar säkert och på avsett sätt och inte blir till en källa till diskriminering som är förbjuden enligt unionsrätten. För högkvalitativ träning, validering och testning av dataset krävs genomförandet av ändamålsenliga metoder för dataförvaltning och datahantering. Dataset för träning, och i tillämpliga fall, validering och testning , inbegripet märkningarna, bör vara tillräckligt relevanta, representativa , vederbörligen kontrollerade för fel och kompletta som möjligt i förhållande till systemets avsedda ändamål. De bör också ha lämpliga statistiska egenskaper, inbegripet vad gäller de personer eller grupper av personer i relation med vilka AI-systemet med hög risk är avsett att användas , med särskilt fokus på att begränsa eventuella snedvridningar i dataseten som skulle kunna hota de grundläggande rättigheterna för eller diskriminera personer som påverkas av AI-systemet med hög risk. Snedvridningar kan exempelvis vara inneboende i underliggande dataset, särskilt när historiska data används, införs av algoritmernas utvecklare eller genereras när systemen tillämpas i verkliga sammanhang. De resultat som AI-tillämpningar ger påverkas av sådana inneboende snedvridningar som tenderar att gradvis öka och därigenom vidmakthålla och förstärka den befintliga diskrimineringen, särskilt för personer som tillhör vissa sårbara eller etniska grupper eller rasifierade grupper. Dataset för träning, validering och testning bör i synnerhet, i den mån som krävs med tanke på systemens avsedda ändamål, beakta funktioner, särdrag eller element som är specifika för den särskilda geografiska, kontextuella, beteendemässiga eller funktionsmässiga situation eller kontext där AI-systemet är avsett att användas. För att skydda andras rätt att slippa diskriminering som kan följa av snedvridning i AI-system, bör leverantörerna undantagsvis och enligt tillämpningen av alla tillämpliga villkor som fastställs i denna förordning och i förordning (EU) 2016/679, direktiv (EU) 2016/680 och förordning (EU) nr 2018/1725 kunna behandla även särskilda kategorier av personuppgifter, som en fråga av betydande allmänintresse, för att säkerställa övervakning, upptäckt och korrigering av snedvridning när det gäller AI-system med hög risk. Negativ snedvridning bör förstås som snedvridning som skapar direkt eller indirekt diskriminerande effekt mot en fysisk person. Krav som rör dataförvaltning kan uppfyllas genom att anlita tredje parter som erbjuder certifierade efterlevnadstjänster, inbegripet kontroll av datahantering, datauppdragens integritet och datautbildning, validering och testmetoder.

Ändring 79

Förslag till förordning

Skäl 45

Kommissionens förslag

Ändring

(45)

För utvecklingen av AI-system med hög risk bör vissa aktörer, såsom leverantörer, anmälda organ och andra berörda enheter – exempelvis digitala innovationsknutpunkter, test- och försöksanläggningar och forskare – kunna få åtkomst till och använda dataset av hög kvalitet inom sina respektive verksamhetsområden som är relaterade till denna förordning. Gemensamma europeiska dataområden som inrättas av kommissionen och främjande av datadelning mellan företag och med det offentliga i allmänhetens intresse kommer att vara avgörande för tillhandahållandet av förtroendebaserad, ansvarsskyldig och icke-diskriminerande åtkomst till högkvalitativa data för träning, validering och testning av AI-system. På exempelvis hälsoområdet kommer det europeiska hälsodataområdet att främja icke-diskriminerande åtkomst till hälsodata och träning av algoritmer för artificiell intelligens med användning av dessa dataset, på ett sätt som bevarar den personliga integriteten och är säkert, snabbt, transparent och tillförlitligt och med lämpliga institutionella styrelseformer. Berörda behöriga myndigheter, även sektorsbaserade sådana, som tillhandahåller eller stöder åtkomst till data får också stödja tillhandahållandet av högkvalitativa data för träning, validering och testning av AI-system.

(45)

För utvecklingen och bedömningen av AI-system med hög risk bör vissa aktörer, såsom leverantörer, anmälda organ och andra berörda enheter – exempelvis digitala innovationsknutpunkter, test- och försöksanläggningar och forskare – kunna få åtkomst till och använda dataset av hög kvalitet inom sina respektive verksamhetsområden som är relaterade till denna förordning. Gemensamma europeiska dataområden som inrättas av kommissionen och främjande av datadelning mellan företag och med det offentliga i allmänhetens intresse kommer att vara avgörande för tillhandahållandet av förtroendebaserad, ansvarsskyldig och icke-diskriminerande åtkomst till högkvalitativa data för träning, validering och testning av AI-system. På exempelvis hälsoområdet kommer det europeiska hälsodataområdet att främja icke-diskriminerande åtkomst till hälsodata och träning av algoritmer för artificiell intelligens med användning av dessa dataset, på ett sätt som bevarar den personliga integriteten och är säkert, snabbt, transparent och tillförlitligt och med lämpliga institutionella styrelseformer. Berörda behöriga myndigheter, även sektorsbaserade sådana, som tillhandahåller eller stöder åtkomst till data får också stödja tillhandahållandet av högkvalitativa data för träning, validering och testning av AI-system.

Ändring 80

Förslag till förordning

Skäl 45a (nytt)

Kommissionens förslag

Ändring

 

(45a)

Rätten till integritet och skydd av personuppgifter måste garanteras under AI-systemets hela livscykel. I detta avseende är principerna om uppgiftsminimering och inbyggt dataskydd och dataskydd som standard, i enlighet med unionens dataskyddslagstiftning, av avgörande betydelse när behandlingen av uppgifter medför betydande risker för enskilda personers grundläggande rättigheter. Leverantörer och användare av AI-system bör genomföra de senaste tekniska och organisatoriska åtgärderna för att skydda dessa rättigheter. Sådana åtgärder bör inte bara omfatta anonymisering och kryptering, utan även användning av alltmer tillgänglig teknik som gör det möjligt att koppla algoritmer till data och ger värdefulla insikter utan överföring mellan parterna eller onödig kopiering av rådata eller strukturerade data i sig.

Ändring 81

Förslag till förordning

Skäl 46

Kommissionens förslag

Ändring

(46)

Det är mycket viktigt att ha information om hur AI-system med hög risk har utvecklats och hur de utför sina funktioner under hela sin livscykel , för att kontrollera att kraven enligt denna förordning uppfylls. Detta förutsätter arkivering och tillgång till teknisk dokumentation som innehåller den information som krävs för att bedöma om AI-systemet uppfyller de berörda kraven. Denna information bör innefatta systemets allmänna egenskaper, förmågor och begränsningar samt algoritmer, data, träning, de förfaranden som används för testning och validering samt dokumentation av relevanta riskhanteringssystem. Den tekniska dokumentationen bör vara uppdaterad.

(46)

Det är mycket viktigt att ha begriplig information om hur AI-system med hög risk har utvecklats och hur de utför sina funktioner under hela sin livstid , för att kontrollera att kraven enligt denna förordning uppfylls. Detta förutsätter arkivering och tillgång till teknisk dokumentation som innehåller den information som krävs för att bedöma om AI-systemet uppfyller de berörda kraven. Denna information bör innefatta systemets allmänna egenskaper, förmågor och begränsningar samt algoritmer, data, träning, de förfaranden som används för testning och validering samt dokumentation av relevanta riskhanteringssystem. Den tekniska dokumentationen bör vara lämpligt uppdaterad under hela AI-systemets livscykel . AI-system kan ha stor miljöpåverkan och hög energiförbrukning under sin livscykel. För att bättre förstå AI-systemens inverkan på miljön bör den tekniska dokumentation som utarbetas av leverantörer innehålla information om AI-systemets energiförbrukning, inbegripet förbrukningen under utveckling och förväntad förbrukning under användning. Sådan information bör ta hänsyn till relevant unionslagstiftning och nationell lagstiftning. Denna rapporterade information bör vara begriplig, jämförbar och kontrollerbar, och kommissionen bör därför utarbeta riktlinjer för en harmoniserad metolodogi för beräkning och rapportering av denna information. För att säkerställa att en enda dokumentation är möjlig bör termer och definitioner avseende den erforderliga dokumentationen och all erforderlig dokumentation i relevant unionslagstiftning anpassas i största möjliga mån.

Ändring 82

Förslag till förordning

Skäl 46a (nytt)

Kommissionens förslag

Ändring

 

(46a)

AI-system bör ta hänsyn till metoder enligt den senaste tekniken och relevanta tillämpliga standarder för att minska energianvändning, resursanvändning och avfall samt för att öka energieffektiviteten och systemets övergripande effektivitet. De miljöaspekter av AI-system som är betydande för tillämpningen av denna förordning är AI-systemets energiförbrukning under utvecklings-, utbildnings- och installationsfasen samt registreringen, rapporteringen och lagringen av dessa data. Utformningen av AI-system bör göra det möjligt att mäta och logga in förbrukningen av energi och resurser i varje skede av utveckling, utbildning och installation. Övervakningen och rapporteringen av AI-systemens utsläpp måste vara robust, transparent, konsekvent och korrekt. För att säkerställa en enhetlig tillämpning av denna förordning och ett stabilt rättsligt ekosystem för leverantörer och användare på den inre marknaden bör kommissionen utarbeta en gemensam specifikation för metoden för att uppfylla rapporterings- och dokumentationskraven för förbrukning av energi och resurser under utveckling, utbildning och installation. Sådana gemensamma specifikationer för mätmetoder kan utveckla ett utgångsläge utifrån vilket kommissionen bättre kan besluta om framtida regleringsåtgärder behövs, efter att ha gjort en konsekvensbedömning som tar hänsyn till befintlig lagstiftning.

Ändring 83

Förslag till förordning

Skäl 46b (nytt)

Kommissionens förslag

Ändring

 

(46b)

För att uppnå målen i denna förordning och bidra till unionens miljömål och samtidigt säkerställa en väl fungerande inre marknad kan det bli nödvändigt att fastställa rekommendationer och riktlinjer och, i slutändan, hållbarhetsmål. För detta ändamål har kommissionen rätt att utarbeta en metod för att bidra till att ha centrala resultatindikatorer och en hänvisning till målen för hållbar utveckling. Målet bör i första hand vara att möjliggöra en rättvis jämförelse mellan val av genomförande av AI som ger incitament för att främja användning av effektivare AI-teknik som tar itu med energi- och resursfrågor. För att uppnå detta mål bör denna förordning tillhandahålla medel för att fastställa en grundläggande insamling av uppgifter som rapporteras om utsläpp från utveckling, utbildning och för användning.

Ändring 84

Förslag till förordning

Skäl 47a (nytt)

Kommissionens förslag

Ändring

 

(47a)

Sådana krav på transparens och tydlighet i AI-beslutsfattandet bör också hjälpa till med att motverka de avskräckande effekterna av digital asymmetri och så kallade mörka mönster som används mot enskilda personer och deras informerade samtycke.

Ändring 85

Förslag till förordning

Skäl 49

Kommissionens förslag

Ändring

(49)

AI-system med hög risk bör fungera konsekvent under hela sin livscykel och uppnå en lämplig nivå av noggrannhet, robusthet och cybersäkerhet i enlighet med den allmänt erkända bästa tekniken. Användarna bör informeras om graden av noggrannhet och om mätningen av noggrannheten .

(49)

AI-system med hög risk bör fungera konsekvent under hela sin livscykel och uppnå en lämplig nivå av noggrannhet, robusthet och cybersäkerhet i enlighet med den allmänt erkända bästa tekniken. Definitionen av prestandamåtten och deras förväntade nivå bör främst syfta till att begränsa AI-systemets risker och negativa konsekvenser. Användarna bör , på ett tydligt, transparent, lättbegripligt och förståeligt sätt, informeras om den förväntade graden av prestandamått. Prestandamåttsdeklarationen kan inte anses vara ett bevis på framtida nivåer, men relevanta metoder måste tillämpas för att säkerställa enhetliga nivåer under användning. Samtidigt som det finns standardiseringsorganisationer för att fastställa standarder krävs samordning av riktmärkning för att fastställa hur dessa standardiserade krav och AI-systemens egenskaper bör mätas. Den europeiska byrån för artificiell intelligens bör sammanföra nationella metrologi- och riktmärkningsmyndigheter och ge icke-bindande vägledning för att ta itu med de tekniska aspekterna av hur man mäter lämpliga grader av noggrannhet och robusthet.

Ändring 86

Förslag till förordning

Skäl 50

Kommissionens förslag

Ändring

(50)

Teknisk robusthet är ett nyckelkrav för AI-system med hög risk. Systemen bör vara resilienta mot risker kopplade till systemets begränsningar (dvs. felaktigheter, funktionsfel, inkonsekvenser, oväntade situationer samt sabotage som kan äventyra AI-systemets säkerhet och resultera i skadligt eller på annat sätt oönskat beteende. Bristande skydd mot dessa risker kan leda till säkerhetskonsekvenser eller inverka negativt på grundläggande rättigheter, exempelvis på grund av felaktiga beslut eller felaktiga eller snedvridna utdata som genereras av AI-systemet.

(50)

Teknisk robusthet är ett nyckelkrav för AI-system med hög risk. Systemen bör vara resilienta mot risker kopplade till systemets begränsningar (dvs. felaktigheter, funktionsfel, inkonsekvenser, oväntade situationer samt sabotage som kan äventyra AI-systemets säkerhet och resultera i skadligt eller på annat sätt oönskat beteende. Bristande skydd mot dessa risker kan leda till säkerhetskonsekvenser eller inverka negativt på grundläggande rättigheter, exempelvis på grund av felaktiga beslut eller felaktiga eller snedvridna utdata som genereras av AI-systemet. AI-systemets användare bör vidta åtgärder för att säkerställa att en eventuell kompromiss mellan robusthet och korrekthet inte leder till diskriminerande eller negativa konsekvenser för minoritetsgrupper.

Ändring 87

Förslag till förordning

Skäl 51

Kommissionens förslag

Ändring

(51)

Cybersäkerhet har en viktig roll för att säkerställa att AI-systemen är resilienta mot försök att ändra deras användning, beteende eller prestanda eller att undergräva deras säkerhetsegenskaper genom illasinnade tredje parter som utnyttjar systemets svagheter. Cyberattacker mot AI-system kan riktas mot AI-specifika tillgångar, såsom kollektioner av träningsdata (s.k. dataförgiftning) eller algoritmerna som använder dessa data (såsom mjukvaruhacking eller antagonistiska exempel), eller utnyttja sårbarheter i AI-systemets digitala tillgångar eller i den underliggande IKT-infrastrukturen. För att säkerställa en cybersäkerhetsnivå som är anpassad till riskerna bör lämpliga åtgärder därför vidtas av leverantörerna av AI-system med hög risk, även med beaktande av den underliggande IKT-infrastrukturen, när så är lämpligt.

(51)

Cybersäkerhet har en viktig roll för att säkerställa att AI-systemen är resilienta mot försök att ändra deras användning, beteende eller prestanda eller att undergräva deras säkerhetsegenskaper genom illasinnade tredje parter som utnyttjar systemets svagheter. Cyberattacker mot AI-system kan riktas mot AI-specifika tillgångar, såsom kollektioner av träningsdata (s.k. dataförgiftning) eller algoritmerna som använder dessa data (såsom mjukvaruhacking eller antagonistiska exempel eller sekretessattacker ), eller utnyttja sårbarheter i AI-systemets digitala tillgångar eller i den underliggande IKT-infrastrukturen. För att säkerställa en cybersäkerhetsnivå som är anpassad till riskerna bör lämpliga åtgärder därför vidtas av leverantörerna av AI-system med hög risk, och även av anmälda organ, nationella behöriga myndigheter och marknadskontrollmyndigheter, även med beaktande av den underliggande IKT-infrastrukturen, när så är lämpligt. Säkerhetslösningar och programfixar ska tillhandahållas för AI-system med hög risk under produktens hela livslängd eller, i de fall då systemet inte är beroende av någon viss produkt, under en viss tid som tillverkaren måste informera om.

Ändring 88

Förslag till förordning

Skäl 53a (nytt)

Kommissionens förslag

Ändring

 

(53a)

Som undertecknare av konventionen om rättigheter för personer med funktionsnedsättning är unionen och alla medlemsstater rättsligt förpliktigade att skydda personer med funktionsnedsättning från diskriminering och främja deras jämlikhet, att säkerställa att personer med funktionsnedsättning på lika villkor som andra har tillgång till informations- och kommunikationsteknik och informations- och kommunikationssystem samt att säkerställa att integriteten hos personer med funktionsnedsättning respekteras. Med tanke på den ökande betydelsen och användningen av AI-system bör tillämpningen av universella konstruktionsprinciper för all ny teknik och alla nya tjänster säkerställa fullständig, jämlik och obegränsad tillgång för alla som potentiellt påverkas av eller använder AI-teknik, inbegripet personer med funktionsnedsättning, på ett sätt som tar full hänsyn till deras inneboende värdighet och mångfald. Det är därför viktigt att leverantörerna säkerställer full överensstämmelse med tillgänglighetskraven, inbegripet direktiv (EU) 2016/2102 och direktiv (EU) 2019/882. Leverantörerna bör säkerställa att dessa krav uppfylls genom utformning. Därför bör de nödvändiga åtgärderna i så stor utsträckning som möjligt integreras i utformningen av AI-systemet med hög risk.

Ändring 89

Förslag till förordning

Skäl 54

Kommissionens förslag

Ändring

(54)

Leverantören bör inrätta ett sunt kvalitetsledningssystem, säkerställa att föreskrivna förfaranden för bedömning av överensstämmelse genomförs, utarbeta den relevanta dokumentationen och inrätta ett robust system för övervakning efter utsläppandet på marknaden. Offentliga myndigheter som för egen användning tar i bruk AI-system med hög risk får anta och genomföra reglerna för kvalitetsledningssystemet som en del av det kvalitetsledningssystem som införs på nationell eller regional nivå, såsom lämpligt, med beaktande av sektorns särdrag och den berörda offentliga myndighetens kompetensområde och organisation.

(54)

Leverantören bör inrätta ett sunt kvalitetsledningssystem, säkerställa att föreskrivna förfaranden för bedömning av överensstämmelse genomförs, utarbeta den relevanta dokumentationen och inrätta ett robust system för övervakning efter utsläppandet på marknaden. För leverantörer som redan har infört kvalitetsledningssystem som bygger på standarder som ISO 9001 eller andra relevanta standarder bör inga överlappande kvalitetsledningssystem förväntas i sin helhet, utan snarare en anpassning av deras befintliga system till vissa aspekter som är kopplade till efterlevnaden av särskilda krav i denna förordning. Detta bör också återspeglas i framtida standardiseringsverksamhet eller riktlinjer som antas av kommissionen i detta avseende. Offentliga myndigheter som för egen användning tar i bruk AI-system med hög risk får anta och genomföra reglerna för kvalitetsledningssystemet som en del av det kvalitetsledningssystem som införs på nationell eller regional nivå, såsom lämpligt, med beaktande av sektorns särdrag och den berörda offentliga myndighetens kompetensområde och organisation.

Ändring 90

Förslag till förordning

Skäl 56

Kommissionens förslag

Ändring

(56)

För att möjliggöra kontroll av efterlevnaden av denna förordning och säkerställa lika villkor för aktörerna, och med beaktande av de olika formerna för att göra digitala produkter tillgängliga, är det viktigt att säkerställa att en person som är etablerad i unionen under alla omständigheter kan förse myndigheterna med all den informationen om AI-systemens överensstämmelse som är nödvändig. Innan leverantörer etablerade utanför unionen gör sina AI-system tillgängliga i unionen bör de , i de fall då ingen importör kan identifieras, genom skriftlig fullmakt utse ett ombud i unionen.

(56)

För att möjliggöra kontroll av efterlevnaden av denna förordning och säkerställa lika villkor för aktörerna, och med beaktande av de olika formerna för att göra digitala produkter tillgängliga, är det viktigt att säkerställa att en person som är etablerad i unionen under alla omständigheter kan förse myndigheterna med all den informationen om AI-systemens överensstämmelse som är nödvändig. Innan leverantörer etablerade utanför unionen gör sina AI-system tillgängliga i unionen bör de genom skriftlig fullmakt utse ett ombud i unionen.

Ändring 91

Förslag till förordning

Skäl 58

Kommissionens förslag

Ändring

(58)

Mot bakgrund av AI-systemens natur och de risker för säkerhet och grundläggande rättigheter som kan vara förknippade med användningen av dem, inbegripet när det gäller behovet av att säkerställa en korrekt övervakning av ett AI-systems prestanda under verkliga förhållanden, är det lämpligt att fastställa särskilda ansvarsområden för användarna. Användarna bör i synnerhet använda AI-system med hög risk i enlighet med bruksanvisningarna, och vissa andra skyldigheter bör föreskrivas när det gäller övervakning av AI-systemens funktionssätt och arkivering, såsom lämpligt.

(Berör inte den svenska versionen.)

Ändring 92

Förslag till förordning

Skäl 58a (nytt)

Kommissionens förslag

Ändring

 

(58a)

Riskerna med avseende på AI-system kan ha att göra med hur systemen utformas, men de kan även härröra från hur dessa AI-system används. Användare av AI-system med hög risk spelar därför en avgörande roll när det gäller att säkerställa att de grundläggande rättigheterna skyddas, och kompletterar leverantörens skyldigheter vid utvecklingen av AI-systemet. Användare är bäst på att förstå hur AI-system med hög risk kommer att användas konkret och kan därför fastställa potentiella risker som inte har förutsetts under utvecklingsfasen, tack vare mer exakt kunskap om sammanhanget för användningen och de personer eller grupper av personer som sannolikt kommer att påverkas, däribland marginaliserade och sårbara grupper. Användare bör identifiera lämpliga styrningsstrukturer i detta specifika användningssammanhang, såsom arrangemang för mänsklig tillsyn, klagomålshanteringsförfaranden och prövningsförfaranden, eftersom val i styrningsstrukturerna kan bidra till att minska riskerna för de grundläggande rättigheterna i konkreta användningsfall. För att effektivt säkerställa att de grundläggande rättigheterna skyddas bör användare av AI-system med hög risk därför utföra en konsekvensbedömning avseende de grundläggande rättigheterna när det gäller det sätt på vilket de avser använda AI-systemen innan de tas i bruk. Konsekvensbedömningen bör åtföljas av en utförlig plan som beskriver de åtgärder eller verktyg som kommer att hjälpa till att begränsa de risker för de grundläggande rättigheterna som fastställts, senast från och med den tidpunkt när den tas i bruk. Om en sådan plan inte kan identifieras bör användaren avstå från att ta systemet i bruk. Vid utförandet av denna konsekvensbedömning bör användaren underrätta den nationella tillsynsmyndigheten och, i största möjliga utsträckning, relevanta intressenter samt företrädare för grupper av personer som sannolikt kommer att påverkas av AI-systemet, i syfte att samla in relevant information som anses nödvändig för att utföra konsekvensbedömningen och uppmuntras att offentliggöra sammanfattningen av sin konsekvensbedömning avseende grundläggande rättigheter på sin webbplats. Dessa skyldigheter bör inte gälla små och medelstora företag som, på grund av bristen på resurser, kan ha svårt att genomföra ett sådant samråd. De bör dock också sträva efter att involvera sådana företrädare när de utför sin konsekvensbedömning avseende grundläggande rättigheter. Med tanke på den potentiella inverkan och behovet av demokratisk tillsyn och kontroll bör dessutom användare av AI-system med hög risk som är offentliga myndigheter eller unionens institutioner, organ och byråer samt användare som är företag som betecknas som grindvakt enligt förordning (EU) 2022/1925 vara skyldiga att registrera användningen av AI-system med hög risk i en offentlig databas. Andra användare kan frivilligt registrera sig.

Ändring 93

Förslag till förordning

Skäl 59

Kommissionens förslag

Ändring

(59)

Det är lämpligt att utgå från att användaren av AI-systemet bör vara den fysiska eller juridiska person, offentliga myndighet eller den byrå eller andra organ under vars överinseende AI-systemet används, utom när AI-systemet används inom ramen för en personlig icke-yrkesmässig verksamhet.

(Berör inte den svenska versionen.)

Ändring 94

Förslag till förordning

Skäl 60

Kommissionens förslag

Ändring

(60)

Mot bakgrund av den komplexa värdekedjan för artificiell intelligens , bör berörda tredje parter, i synnerhet sådana som är involverade i försäljning och tillhandahållande av programvara , programvaruverktyg och komponenter, förhandstränade modeller och data, eller leverantörer av nättjänster , samarbeta såsom lämpligt med leverantörer och användare för att främja deras uppfyllande av skyldigheterna enligt denna förordning och med behöriga myndigheter som inrättas i enlighet med denna förordning .

(60)

Inom AI-värdekedjan tillhandahåller flera enheter ofta verktyg och tjänster, men även komponenter eller processer som sedan införlivas av leverantören i AI-systemet, bland annat när det gäller datainsamling och förbehandling, modellutbildning, modellomskolning, modelltestning och modellutvärdering, integrering i programvara eller andra aspekter av modellutveckling. De berörda enheterna kan göra sitt erbjudande kommersiellt tillgängligt direkt eller indirekt, genom gränssnitt, såsom gränssnitt för tillämpningsprogram (API), och distribueras med gratis licenser med öppen källkod, men också allt oftare genom plattformar för AI-personal, utbildade parametrar för återförsäljning, DIY-byggsatser för att bygga modeller eller erbjudande om betald tillgång till en modell som betjänar arkitektur för att utveckla och utbilda modeller. Mot bakgrund av denna komplexitet i AI-värdekedjan bör alla relevanta tredje parter, särskilt de som är involverade i  utveckling, försäljning och kommersiellt tillhandahållande av programvaruverktyg , komponenter, förtränade modeller eller data som ingår i AI-systemet , eller leverantörer av nätverkstjänster, utan att äventyra sina egna immateriella rättigheter eller företagshemligheter, tillgängliggöra den information, utbildning eller expertis som krävs och , när så är lämpligt , samarbeta med leverantörer för att möjliggöra deras kontroll över alla efterlevnadsrelevanta aspekter av AI-systemet som omfattas av denna förordning . För att möjliggöra en kostnadseffektiv styrning av AI-värdekedjan ska kontrollnivån uttryckligen anges av varje tredje part som förser leverantören med ett verktyg, en tjänst, en komponent eller en process som leverantören senare integrerar i AI-systemet.

Ändring 95

Förslag till förordning

Skäl 60a (nytt)

Kommissionens förslag

Ändring

 

(60a)

Om en part har en starkare förhandlingsposition finns det en risk för att den parten kan utnyttja en sådan ställning till nackdel för den andra avtalsparten när den förhandlar om tillhandahållande av verktyg, tjänster, komponenter eller processer som används eller integreras i ett AI-system med hög risk eller korrigerande åtgärder för åsidosättande eller upphävande av relaterade skyldigheter. Sådana avtalsobalanser skadar särskilt mikroföretag, små och medelstora företag samt uppstartsföretag, såvida de inte ägs eller läggs ut på entreprenad av ett företag som kan kompensera underleverantören på lämpligt sätt, eftersom de saknar meningsfull förmåga att förhandla om villkoren i avtalet och kanske inte har något annat val än att godta de avtalsvillkor som de erbjuds. Oskäliga avtalsvillkor som reglerar tillhandahållandet av verktyg, tjänster, komponenter eller processer som används eller integreras i ett AI-system med hög risk eller korrigerande åtgärder vid överträdelse eller upphävande av relaterade skyldigheter bör därför inte vara bindande för sådana mikroföretag, små eller medelstora företag och uppstartsföretag om de ensidigt har ålagts dem.

Ändring 96

Förslag till förordning

Skäl 60b (nytt)

Kommissionens förslag

Ändring

 

(60b)

Regler om avtalsvillkor bör ta hänsyn till principen om avtalsfrihet som ett grundläggande begrepp i förbindelserna mellan företag. Därför bör inte alla avtalsvillkor omfattas av en skälighetsprövning utan endast de villkor som ensidigt åläggs mikroföretag och små och medelstora företag samt uppstartsföretag. Detta omfattar situationer där en part tillhandahåller ett visst avtalsvillkor och mikroföretaget, småföretaget eller det medelstora företaget eller uppstartsföretaget inte kan påverka innehållet i detta villkor trots ett förhandlingsförsök. Ett avtalsvillkor som helt enkelt föreskrivs av en part och godtas av mikroföretaget, småföretaget eller det medelstora företaget eller uppstartsföretaget eller ett villkor som förhandlats fram och sedan i ändrad lydelse godkänns av avtalsparterna bör inte anses som ensidigt ålagt.

Ändring 97

Förslag till förordning

Skäl 60c (nytt)

Kommissionens förslag

Ändring

 

(60c)

Dessutom bör reglerna om oskäliga avtalsvillkor endast tillämpas på de delar av ett avtal som rör tillhandahållande av verktyg, tjänster, komponenter eller processer som används eller integreras i ett AI-system med hög risk eller avhjälpande åtgärder vid överträdelse eller upphörande av relaterade skyldigheter. Andra delar av samma avtal, som inte rör dessa delar, bör inte vara föremål för skälighetsprövningen enligt denna förordning.

Ändring 98

Förslag till förordning

Skäl 60d (nytt)

Kommissionens förslag

Ändring

 

(60d)

Kriterier för identifiering av oskäliga avtalsvillkor bör endast tillämpas på orimliga avtalsvillkor, i de fall då en starkare förhandlingsposition missbrukas. De allra flesta avtalsvillkor som affärsmässigt gynnar en part mer än en annan, inbegripet sådana som är normala i avtal mellan företag, är ett normalt uttryck för principen om avtalsfrihet och bör fortsätta att gälla. Om ett avtalsvillkor inte ingår i förteckningen över villkor som alltid anses oskäliga ska den allmänna bestämmelsen om oskälighet tillämpas. I detta hänseende bör de villkor som förtecknas som oskäliga villkor fungera som måttstock för tolkningen av den allmänna oskälighetsbestämmelsen.

Ändring 99

Förslag till förordning

Skäl 60e (nytt)

Kommissionens förslag

Ändring

 

(60e)

Grundmodeller är en ny utveckling där AI-modeller utvecklas med hjälp av algoritmer som är utformade för att optimera generalitet och mångsidighet i produktionen. Dessa modeller utbildas ofta i ett brett spektrum av datakällor och stora mängder data för att utföra ett brett spektrum av uppgifter nedströms, däribland vissa för vilka de inte särskilt har utvecklats och utbildats. Grundmodellen kan vara unimodal eller multimodal, utbildad genom olika metoder såsom övervakat lärande eller förstärkt lärande. AI-system med specifikt avsett ändamål eller AI-system för allmänna ändamål kan vara en tillämpning av en grundmodell, vilket innebär att varje grundmodell kan återanvändas i otaliga AI-system eller AI-system för allmänna ändamål nedströms. Dessa modeller blir allt viktigare för många tillämpningar och system i senare led.

Ändring 100

Förslag till förordning

Skäl 60f (nytt)

Kommissionens förslag

Ändring

 

(60f)

När det gäller grundmodeller som tillhandahålls som en tjänst, t.ex. genom API-åtkomst, bör samarbetet med leverantörer i senare led sträcka sig över hela den tid då tjänsten tillhandahålls och stöds, för att möjliggöra lämplig riskreducering, såvida inte leverantören av grundmodellen överför utbildningsmodellen samt omfattande och lämplig information om datamängderna och systemets utvecklingsprocess eller begränsar tjänsten, såsom API-åtkomst, på ett sådant sätt att leverantören i senare led fullt ut kan uppfylla kraven i denna förordning utan ytterligare stöd från den ursprungliga leverantören av grundmodellen.

Ändring 101

Förslag till förordning

Skäl 60g (nytt)

Kommissionens förslag

Ändring

 

(60g)

Mot bakgrund av naturen och komplexiteten för AI-systemens värdekedja är det mycket viktigt att förtydliga rollen för de aktörer som bidrar till utvecklingen av AI-system. Det råder stor osäkerhet om hur grundmodellerna kommer att utvecklas, både när det gäller modellernas typologi och självstyre. Det är därför viktigt att klargöra den rättsliga situationen för leverantörer av grundmodeller. I kombination med deras komplexitet och oväntade inverkan bör AI-leverantörens brist på kontroll över grundmodellens utveckling och den därav följande maktobalansen, och för att säkerställa en rättvis ansvarsfördelning längs AI-värdekedjan, omfattas av proportionella och mer specifika krav och skyldigheter enligt denna förordning, nämligen att grundmodeller bör bedöma och minska eventuella risker och skador genom lämplig utformning, testning och analys, genomföra dataförvaltningsåtgärder, inbegripet bedömning av snedvridningar, och bör uppfylla de tekniska konstruktionskraven för att säkerställa lämpliga prestandanivåer, förutsägbarhet, tolkningsbarhet, korrigerbarhet, säkerhet och cybersäkerhet och bör uppfylla miljöstandarder. Dessa skyldigheter bör åtföljas av standarder. Grundmodeller bör också ha informationsskyldigheter och utarbeta all nödvändig teknisk dokumentation för att potentiella leverantörer i senare led ska kunna fullgöra sina skyldigheter enligt denna förordning. Generativa grundmodeller bör säkerställa transparens om det faktum att innehållet genereras av ett AI-system, inte av människor. Dessa särskilda krav och skyldigheter innebär inte att grundmodeller betraktas som AI-system med hög risk, utan bör garantera att målen i denna förordning om att säkerställa en hög skyddsnivå för grundläggande rättigheter, hälsa och säkerhet, miljö, demokrati och rättsstatsprincipen uppnås. Förtränade modeller som utvecklats för en smalare, mindre allmän och mer begränsad uppsättning tillämpningar som inte kan anpassas för ett brett spektrum av uppgifter, såsom enkla multifunktionella AI-system, bör inte betraktas som grundmodeller vid tillämpningen av denna förordning, på grund av deras större tolkningsbarhet, vilket gör deras beteende mindre oförutsägbart.

Ändring 102

Förslag till förordning

Skäl 60h (nytt)

Kommissionens förslag

Ändring

 

(60h)

Med tanke på grundmodellernas karaktär saknas sakkunskap om bedömning av överensstämmelse och tredjepartsgranskningsmetoder håller fortfarande på att utvecklas. Sektorn själv håller därför på att utveckla nya sätt att bedöma grundläggande modeller som delvis uppfyller revisionsmålet (t.ex. modellutvärdering, red teaming eller verifierings- och valideringstekniker för maskininlärning). Dessa interna bedömningar av grundmodeller bör vara allmänt tillämpliga (t.ex. oberoende av distributionskanaler, modalitet och utvecklingsmetoder) för att hantera risker som är specifika för sådana modeller med beaktande av branschens senaste praxis och fokusera på att utveckla tillräcklig teknisk förståelse och kontroll över modellen, hantering av rimligen förutsebara risker samt omfattande analys och testning av modellen genom lämpliga åtgärder, t.ex. genom medverkan av oberoende utvärderare. Eftersom grundmodeller är en ny och snabbt föränderlig utveckling på området artificiell intelligens är det lämpligt att kommissionen och AI-byrån övervakar och regelbundet utvärderar lagstiftnings- och styrningsramen för sådana modeller, särskilt generativa AI-system som bygger på sådana modeller, vilket väcker betydande frågor om generering av innehåll i strid med unionsrätten, upphovsrättsregler och potentiellt missbruk. Det bör klargöras att denna förordning inte bör påverka tillämpningen av unionsrätten om upphovsrätt och närstående rättigheter, inbegripet Europaparlamentets och rådets direktiv 2001/29/EG, 2004/48/ECR och (EU) 2019/790.

Ändring 103

Förslag till förordning

Skäl 61

Kommissionens förslag

Ändring

(61)

Standardisering bör ha en nyckelroll för att förse leverantörerna med tekniska lösningar för att säkerställa efterlevnaden av denna förordning. Överenstämmelse med harmoniserade standarder enligt Europaparlamentets och rådets förordning (EU) nr 1025/2012 (54) bör vara ett sätt för leverantörerna att visa att de uppfyller kraven i denna förordning. Kommissionen skulle dock kunna anta gemensamma tekniska specifikationer områden där harmoniserade standarder saknas eller är otillräckliga .

(61)

Standardisering bör ha en nyckelroll för att förse leverantörerna med tekniska lösningar för att säkerställa efterlevnaden av denna förordning. Överenstämmelse med harmoniserade standarder enligt Europaparlamentets och rådets förordning (EU) nr 1025/2012 (54) bör vara ett sätt för leverantörerna att visa att de uppfyller kraven i denna förordning. För att säkerställa standardernas effektivitet som politiskt verktyg för unionen och med tanke vikten av standarder för att säkerställa överensstämmelse med kraven i denna förordning och för företagens konkurrenskraft är det nödvändigt att säkerställa en balanserad representation av intressen genom att involvera alla berörda parter i utarbetandet av standarder . Standardiseringsprocessen bör vara transparent vad gäller de juridiska och fysiska personer som deltar i standardiseringsverksamheten.

Ändring 104

Förslag till förordning

Skäl 61a (nytt)

Kommissionens förslag

Ändring

 

(61a)

För att underlätta efterlevnaden bör de första begärandena om standardisering utfärdas av kommissionen senast två månader efter det att denna förordning har trätt i kraft. Detta bör bidra till att förbättra rättssäkerheten och därigenom främja investeringar och innovation inom AI samt konkurrenskraften och tillväxten på unionsmarknaden, samtidigt som flerpartsstyrningen som företräder alla relevanta europeiska intressenter, såsom AI-byrån, europeiska standardiseringsorganisationer och standardiseringsorgan eller expertgrupper som inrättats enligt relevant sektorsspecifik unionslagstiftning samt industrin, små och medelstora företag, uppstartsföretag, det civila samhället, forskare och arbetsmarknadens parter stärks, och det bör i slutändan underlätta globalt samarbete om standardisering på AI-området på ett sätt som är förenligt med unionens värden. När kommissionen utarbetar en begäran om standardisering ska den samråda med AI-byrån och den rådgivande gruppen för att samla in relevant expertis.

Ändring 105

Förslag till förordning

Skäl 61b (nytt)

Kommissionens förslag

Ändring

 

(61b)

När AI-system är avsedda att användas på arbetsplatsen bör de harmoniserade standarderna begränsas till tekniska specifikationer och förfaranden.

Ändring 106

Förslag till förordning

Skäl 61c (nytt)

Kommissionens förslag

Ändring

 

(61c)

Kommissionen bör kunna anta gemensamma specifikationer på vissa villkor, när det inte finns någon relevant harmoniserad standard, eller för att ta itu med specifika frågor som rör de grundläggande rättigheterna. Under hela utarbetandet bör kommissionen regelbundet samråda med AI-byrån och dess rådgivande forum, de europeiska standardiseringsorganisationer och standardiseringsorgan eller expertgrupper som inrättats enligt relevant sektorsspecifik unionsrätt samt relevanta intressenter, såsom industrin, små och medelstora företag, uppstartsföretag, det civila samhället, forskare och arbetsmarknadens parter.

Ändring 107

Förslag till förordning

Skäl 61d (nytt)

Kommissionens förslag

Ändring

 

(61d)

När kommissionen antar gemensamma specifikationer bör den sträva efter att anpassa AI-lagstiftningen till likasinnade globala partner, vilket är avgörande för att främja innovation och gränsöverskridande partnerskap på AI-området, eftersom samordning med likasinnade partner i internationella standardiseringsorgan är av stor betydelse.

Ändring 108

Förslag till förordning

Skäl 62

Kommissionens förslag

Ändring

(62)

För att säkerställa en hög nivå av tillförlitlighet för AI-system med hög risk bör sådana system vara föremål för en bedömning av överensstämmelse innan de släpps ut på marknaden eller tas i bruk.

(62)

För att säkerställa en hög nivå av tillförlitlighet för AI-system med hög risk bör sådana system vara föremål för en bedömning av överensstämmelse innan de släpps ut på marknaden eller tas i bruk. För att öka förtroendet i värdekedjan och ge företagen säkerhet om hur deras system fungerar kan tredje parter som tillhandahåller AI-komponenter frivilligt ansöka om en tredjepartsbedömning av överensstämmelse.

Ändring 109

Förslag till förordning

Skäl 64

Kommissionens förslag

Ändring

(64)

Mot bakgrund av den mer omfattande erfarenheten av professionella certifieringsorgan före utsläppandet på marknaden på området produktsäkerhet och de olika typer av risker som är involverade, är det lämpligt att, åtminstone i den inledande fasen av denna förordnings tillämpning, begränsa tillämpningsområdet för tredjepartsbedömning av överensstämmelse när det gäller andra AI-system med hög risk än de som är relaterade till produkter. Därför bör bedömningen av överensstämmelse för sådana system som allmän regel utföras av leverantören under dennes eget ansvar, med det enda undantaget att ett anmält organs deltagande i bedömningen av överensstämmelse bör föreskrivas för AI-system avsedda att användas för biometrisk fjärridentifiering av personer , i  den utsträckning som dessa system inte är förbjudna.

(64)

Med tanke på komplexiteten hos AI-system med hög risk och de risker som är förknippade med dem är det viktigt att utveckla en mer adekvat kapacitet för tillämpning av tredjepartsbedömning av överensstämmelse för AI-system med hög risk. Mot bakgrund av den nuvarande erfarenheten av professionella certifieringsorgan före utsläppandet på marknaden på området produktsäkerhet och de olika typer av risker som är involverade, är det dock lämpligt att, åtminstone i den inledande fasen av denna förordnings tillämpning, begränsa tillämpningsområdet för tredjepartsbedömning av överensstämmelse när det gäller andra AI-system med hög risk än de som är relaterade till produkter. Därför bör bedömningen av överensstämmelse av sådana system som en allmän regel utföras av leverantören eget ansvar, med det enda undantaget för AI-system som är avsedda att användas för biometrisk fjärridentifiering av personer, eller AI-system som är avsedda att användas för att dra slutsatser om fysiska personers personliga egenskaper på grundval av biometriska eller biometribaserade uppgifter , inbegripet känsloigenkänningssystem för vilka ett anmält organs deltagande bedömningen av överensstämmelse bör föreskrivas, i den mån de inte är förbjudna.

Ändring 110

Förslag till förordning

Skäl 65

Kommissionens förslag

Ändring

(65)

För genomförandet av tredjepartsbedömningen av överensstämmelse för AI-system avsedda att användas för biometrisk fjärridentifiering av personer , bör anmälda organ utses inom ramen för denna förordning av de nationella behöriga myndigheterna, under förutsättning att de uppfyller ett antal krav, i synnerhet vad gäller oberoende, kompetens och avsaknad av intressekonflikter.

(65)

För genomförandet av tredjepartsbedömningar av överensstämmelse när så krävs , bör anmälda organ utses inom ramen för denna förordning av de nationella behöriga myndigheterna, under förutsättning att de uppfyller ett antal krav, i synnerhet vad gäller oberoende, kompetens och avsaknad av intressekonflikter och med minimikrav för cybersäkerhet. Medlemsstaterna bör säkerställa att det finns ett tillräckligt antal organ för bedömning av överensstämmelse så att certifieringen kan göras i tid. Förfarandena för bedömning, utseende, anmälan och övervakning av organ för bedömning av överensstämmelse bör genomföras så enhetligt som möjligt i medlemsstaterna, i syfte att undanröja administrativa gränshinder och säkerställa att den inre marknadens potential förverkligas.

Ändring 111

Förslag till förordning

Skäl 65a (nytt)

Kommissionens förslag

Ändring

 

(65a)

I linje med unionens åtaganden enligt Världshandelsorganisationens (WTO) avtal om tekniska handelshinder är det lämpligt att i största möjliga utsträckning godta testresultat som erhållits av behöriga organ för bedömningar av överensstämmelse, oberoende av det territorium där de är etablerade, om det är nödvändigt för att visa att tillämpliga krav i förordningen är uppfyllda. Kommissionen bör aktivt undersöka möjliga internationella instrument för detta ändamål och i synnerhet sträva efter att eventuellt upprätta avtal om ömsesidigt erkännande med länder som befinner sig på en jämförbar teknisk utvecklingsnivå och har en kompatibel strategi för AI och bedömning av överensstämmelse.

Ändring 112

Förslag till förordning

Skäl 66

Kommissionens förslag

Ändring

(66)

I linje med det vedertagna begreppet väsentlig ändring som avser produkter som regleras genom unionens lagstiftning om harmonisering, är det lämpligt att ett AI-system genomgår en ny bedömning av överensstämmelse vid varje ändring som kan påverka systemets överensstämmelse med denna förordning eller när systemets avsedda ändamål ändras. När det gäller AI-system som fortsätter sin ”inlärning” efter att de släppts ut på marknaden eller tagits i bruk (dvs. automatiskt anpassar sitt sätt att utföra funktioner) är det nödvändigt att föreskriva regler som fastställer att ändringar av algoritmen och dess prestanda som har förutbestämts av leverantören och som bedömts i samband med bedömningen av överensstämmelse inte ska utgöra väsentliga ändringar.

(66)

I linje med det vedertagna begreppet väsentlig ändring som avser produkter som regleras genom unionens lagstiftning om harmonisering, är det lämpligt att ett AI-system med hög risk genomgår en ny bedömning av överensstämmelse vid varje oplanerad ändring som går utöver kontrollerade förändringar eller förändringar som fastställts i förväg av leverantören inbegripet kontinuerligt lärande och som kan skapa en ny oacceptabel risk och i betydande utsträckning påverka detta AI-systems överensstämmelse med denna förordning eller när systemets avsedda ändamål ändras. När det gäller AI-system som fortsätter sin ”inlärning” efter att de släppts ut på marknaden eller tagits i bruk (dvs. automatiskt anpassar sitt sätt att utföra funktioner) är det nödvändigt att föreskriva regler som fastställer att ändringar av algoritmen och dess prestanda som har förutbestämts av leverantören och som bedömts i samband med bedömningen av överensstämmelse inte ska utgöra väsentliga ändringar. Detsamma bör gälla för uppdateringar av AI-systemet av säkerhetsskäl i allmänhet och för att skydda mot framväxande hot om manipulation av systemet förutsatt att de inte utgör en väsentlig ändring.

Ändring 113

Förslag till förordning

Skäl 67

Kommissionens förslag

Ändring

(67)

AI-system med hög risk bör vara försedda med en CE-märkning som visar att de överensstämmer med denna förordning, så att de omfattas av den fria rörligheten på den inre marknaden. Medlemsstaterna bör inte sätta upp omotiverade hinder för utsläppandet på marknaden eller ibruktagandet av AI-system som uppfyller kraven i denna förordning och är försedda med en CE-märkning.

(67)

AI-system med hög risk bör vara försedda med en CE-märkning som visar att de överensstämmer med denna förordning, så att de omfattas av den fria rörligheten på den inre marknaden. För fysiska AI-system med hög risk bör en fysisk CE-märkning anbringas och kan kompletteras med en digital CE-märkning. För digitala AI-system med hög risk bör en digital CE-märkning användas. Medlemsstaterna bör inte sätta upp omotiverade hinder för utsläppandet på marknaden eller ibruktagandet av AI-system som uppfyller kraven i denna förordning och är försedda med en CE-märkning.

Ändring 114

Förslag till förordning

Skäl 68

Kommissionens förslag

Ändring

(68)

Under vissa omständigheter kan en snabb tillgång till innovativ teknik vara avgörande för hälsan och säkerheten för personer och för samhället som helhet. Det är därför lämpligt att medlemsstaterna, när det föreligger exceptionella skäl förbundna med allmän säkerhet eller skydd av fysiska personers liv och hälsa och skydd av industriell och kommersiell äganderätt , har möjlighet att tillåta utsläppandet på marknaden eller ibruktagandet av AI-system som inte har genomgått en bedömning av överensstämmelse.

(68)

Under vissa omständigheter kan en snabb tillgång till innovativ teknik vara avgörande för hälsan och säkerheten för personer , för miljön och klimatet och för samhället som helhet. Det är därför lämpligt att medlemsstaterna, när det föreligger exceptionella skäl förbundna med allmän säkerhet eller skydd av fysiska personers liv och hälsa , skydd för miljön och skydd av kritisk infrastruktur , har möjlighet att tillåta utsläppandet på marknaden eller ibruktagandet av AI-system som inte har genomgått en bedömning av överensstämmelse.

Ändring 115

Förslag till förordning

Skäl 69

Kommissionens förslag

Ändring

(69)

För att underlätta kommissionens och medlemsstaternas arbete på området artificiell intelligens och öka transparensen gentemot allmänheten, bör leverantörer av andra AI-system med hög risk än de som är relaterade till produkter som faller inom tillämpningsområdet för relevant befintlig unionslagstiftning om harmonisering åläggas att registrera sina AI-system med hög risk i en EU-databas, som upprättas och förvaltas av kommissionen. Kommissionen bör vara personuppgiftsansvarig för denna databas i enlighet med Europaparlamentets och rådets förordning (EU) 2018/1725 (55). För att säkerställa att databasen är fullt funktionell när den börjar användas, bör förfarandet för inrättandet av databasen innefatta funktionsspecifikationer som utarbetas av kommissionen samt en oberoende revisionsrapport.

(69)

För att underlätta kommissionens och medlemsstaternas arbete på området artificiell intelligens och öka transparensen gentemot allmänheten, bör leverantörer av andra AI-system med hög risk än de som är relaterade till produkter som faller inom tillämpningsområdet för relevant befintlig unionslagstiftning om harmonisering åläggas att registrera sina AI-system med hög risk och grundmodeller i en EU-databas, som upprättas och förvaltas av kommissionen. Denna databas bör vara fritt och allmänt tillgänglig, lättbegriplig och maskinläsbar. Databasen bör också vara användarvänlig och lätt att navigera, med sökfunktioner som åtminstone gör det möjligt för allmänheten att söka i databasen efter särskilda högrisksystem, platser, riskkategorier enligt bilaga IV och nyckelord. Användare som är offentliga myndigheter eller unionens institutioner, organ och byråer eller användare som agerar på deras vägnar och användare som är företag som betecknas som grindvakt enligt förordning (EU) 2022/1925 bör också registrera sig i EU-databasen innan de tas i bruk eller använder ett AI-system med hög risk för första gången och efter varje väsentlig ändring. Andra användare bör ha rätt att göra detta frivilligt. Alla väsentliga ändringar av AI-system med hög risk ska också registreras i EU-databasen. Kommissionen bör vara personuppgiftsansvarig för denna databas i enlighet med Europaparlamentets och rådets förordning (EU) 2018/1725 (55). För att säkerställa att databasen är fullt funktionell när den börjar användas, bör förfarandet för inrättandet av databasen innefatta funktionsspecifikationer som utarbetas av kommissionen samt en oberoende revisionsrapport. Kommissionen bör ta hänsyn till cybersäkerhets- och farorelaterade risker när den utför sina uppgifter som personuppgiftsansvarig i EU-databasen. För att allmänheten ska få så stor tillgång till och kunna använda databasen så mycket som möjligt bör databasen, och den information som tillgängliggörs genom den, uppfylla kraven i direktiv 2019/882.

Ändring 116

Förslag till förordning

Skäl 71

Kommissionens förslag

Ändring

(71)

Artificiell intelligens är en teknikfamilj i snabb utveckling som kräver nya former av tillsyn och ett säkert område för experiment, med säkerställande av ansvarsfull innovation och integrering av ändamålsenliga skydds- och riskbegränsningsåtgärder. För att säkerställa en rättslig ram som är innovationsvänlig, framtidssäkrad och resilient mot störningar, bör de nationella behöriga myndigheterna från en eller flera medlemsstater uppmuntras att inrätta ”regulatoriska sandlådor” för artificiell intelligens, för att främja utveckling och testning av innovativa AI-system under strikt tillsyn innan dessa system släpps ut på marknaden eller på annat sätt tas i bruk.

(71)

Artificiell intelligens är en teknikfamilj i snabb utveckling som kräver tillsyn och ett säkert och kontrollerat område för experiment, med säkerställande av ansvarsfull innovation och integrering av ändamålsenliga skydds- och riskbegränsningsåtgärder. För att säkerställa en rättslig ram som främjar innovation och är framtidssäkrad och resilient mot störningar, bör medlemsstaterna inrätta åtminstone en ”regulatorisk sandlåda” för artificiell intelligens, för att främja utveckling och testning av innovativa AI-system under strikt tillsyn innan dessa system släpps ut på marknaden eller på annat sätt tas i bruk. Det är verkligen önskvärt att inrättandet av regulatoriska sandlådor, vars inrättande för närvarande överlåts åt medlemsstaterna, som ett nästa steg görs obligatoriskt med fastställda kriterier. Denna obligatoriska sandlåda skulle också kunna inrättas tillsammans med en eller flera andra medlemsstater, förutsatt att den sandlådan täcker respektive nationell nivå i de berörda medlemsstaterna. Ytterligare sandlådor får också inrättas på olika nivåer, även mellan medlemsstater, för att underlätta gränsöverskridande samarbete och synergier. Med undantag för den obligatoriska sandlådan på nationell nivå bör medlemsstaterna också kunna inrätta virtuella sandlådor eller hybridsandlådor. Alla regulatoriska sandlådor bör kunna rymma både fysiska och virtuella produkter. De etablerande myndigheterna bör också säkerställa att de regulatoriska sandlådorna har tillräckliga ekonomiska resurser och personalresurser för att de ska fungera som de ska.

Ändring 117

Förslag till förordning

Skäl 72

Kommissionens förslag

Ändring

(72)

Syftet med dessa ”regulatoriska sandlådor” bör vara att främja AI-innovation genom skapande av en kontrollerad försöks- och testmiljö för utveckling i fasen före utsläppandet på marknaden, med sikte på att säkerställa att de innovativa AI-systemen är förenliga med denna förordning och annan lagstiftning på unions- eller medlemsstatsnivå , att öka rättssäkerheten för innovatörer och förbättra de behöriga myndigheternas tillsyn och förståelse av möjligheterna, de nya riskerna och effekterna av AI-användningen, samt att öka tillgången till marknader, bland annat genom att undanröja hinder för små och medelstora företag och uppstartsföretag. För att säkerställa ett enhetligt genomförande hela unionen och stordriftsfördelar är det lämpligt att fastställa gemensamma regler för införandet av regulatoriska sandlådor och en samarbetsram för de berörda myndigheter som deltar i tillsynen över sådana sandlådor. Denna förordning bör erbjuda den rättsliga grunden för användning av personuppgifter för andra ändamål än utvecklingen av vissa AI-system i allmänhetens intresse inom regulatoriska sandlådor för AI, i linje med artikel 6 . 4 i förordning (EU) 2016/679 och artikel 6 förordning (EU) 2018/1725, och utan att det påverkar tillämpningen av artikel 4.2 i direktiv (EU) 2016/680. Deltagarna i sandlådan bör säkerställa ändamålsenliga skyddsåtgärder och samarbeta med de behöriga myndigheterna, vilket omfattar att följa deras vägledning och agera snabbt och god tro för att begränsa eventuella höga risker för säkerhet och grundläggande rättigheter som kan uppstå i samband med utvecklings- och försöksverksamhet i sandlådan. Deltagarnas agerande i sandlådan bör beaktas när de behöriga myndigheterna beslutar om påförande av administrativa sanktionsavgifter enligt artikel 83.2 i förordning 2016/679 och artikel 57 i direktiv 2016/680.

(72)

Målen för regulatoriska sandlådor bör vara följande: för att de grundande myndigheterna ska öka sin förståelse av den tekniska utvecklingen, förbättra tillsynsmetoderna och ge vägledning till utvecklare och leverantörer av AI-system för att uppnå regelefterlevnad med denna förordning eller, i förekommande fall, annan tillämplig unionslagstiftning och medlemsstaternas lagstiftning , samt med stadgan om de grundläggande rättigheterna. För att de presumtiva leverantörerna ska kunna tillåta och underlätta testning och utveckling av innovativa lösningar med anknytning till AI-system i den sonderande marknadsföringsfasen för att öka rättssäkerheten, möjliggöra mer regleringslärande genom att inrätta myndigheter en kontrollerad miljö för att utveckla bättre vägledning och identifiera möjliga framtida förbättringar av den rättsliga ramen genom det ordinarie lagstiftningsförfarandet. Alla betydande risker som upptäcks under utvecklingen och testningen av sådana AI-system bör leda till omedelbara kompenserande åtgärder och, om detta inte är möjligt, leda till att utvecklings- och testprocessen avbryts till dess att sådana kompenserande åtgärder äger rum . För att säkerställa ett enhetligt genomförande hela unionen och stordriftsfördelar är det lämpligt att fastställa gemensamma regler för införandet av regulatoriska sandlådor och en samarbetsram för de berörda myndigheter som deltar i tillsynen över sådana sandlådor. Medlemsstaterna bör säkerställa att regulatoriska sandlådor är allmänt tillgängliga hela unionen, samtidigt som deltagandet bör förbli frivilligt. Det är särskilt viktigt att se till att små och medelstora företag och uppstartsföretag lätt kan få tillgång till dessa sandlådor och aktivt involveras och medverka i utveckling och testning av innovativa AI-system, så att de kan bidra med sina kunskaper och erfarenheter .

Ändring 118

Förslag till förordning

Skäl 72a (nytt)

Kommissionens förslag

Ändring

 

(72a)

Denna förordning bör erbjuda den rättsliga grunden för användning av personuppgifter för andra ändamål än utvecklingen av vissa AI-system i allmänhetens intresse inom regulatoriska sandlådor för AI endast på de angivna villkoren, i linje med artikel 6.4 i förordning (EU) 2016/679 och artikel 6 i förordning (EU) 2018/1725, och utan att det påverkar tillämpningen av artikel 4.2 i direktiv (EU) 2016/680. Potentiella leverantörer i sandlådan bör säkerställa ändamålsenliga skyddsåtgärder och samarbeta med de behöriga myndigheterna, vilket omfattar att följa deras vägledning och agera snabbt och i god tro för att begränsa eventuella höga risker för säkerhet, hälsa, miljön och grundläggande rättigheter som kan uppstå i samband med utvecklings- och försöksverksamhet i sandlådan. De potentiella leverantörernas agerande i sandlådan bör beaktas när de behöriga myndigheterna beslutar om tillfällig eller permanent avstängning av dem från deltagande i sandlådan eller påförande av administrativa sanktionsavgifter enligt artikel 83.2 i förordning (EU) 2016/679 och artikel 57 i direktiv (EU) 2016/680.

Ändring 119

Förslag till förordning

Skäl 72b (nytt)

Kommissionens förslag

Ändring

 

(72b)

För att säkerställa att artificiell intelligens leder till socialt och miljömässigt gynnsamma resultat bör medlemsstaterna stödja och främja forskning om och utveckling av AI till stöd för socialt och miljömässigt gynnsamma resultat genom att tilldela tillräckliga resurser, bland annat offentliga medel och EU-medel, och ge prioriterad åtkomst till regulatoriska sandlådor för projekt som drivs av civilsamhället. Projekten bör grunda sig på principen om interdisciplinärt samarbete mellan AI-utvecklare, experter på ojämlikhet och icke-diskriminering, tillgänglighet, konsument- och miljörättigheter samt digitala rättigheter, och akademiker.

Ändring 120

Förslag till förordning

Skäl 73

Kommissionens förslag

Ändring

(73)

För att främja och skydda innovation är det viktigt att särskild hänsyn tas till småskaliga leverantörer och användare av AI-system. I detta syfte bör medlemsstaterna ta fram initiativ som riktar sig till dessa aktörer, bland annat vad gäller medvetandehöjande och information. De småskaliga leverantörernas särskilda intressen bör också beaktas när de anmälda organen fastställer avgifterna för bedömning av överensstämmelse. Kostnaderna för översättning av obligatorisk dokumentation och kommunikation med myndigheter kan utgöra betydande kostnader för leverantörer och andra aktörer, i synnerhet mer småskaliga sådana. Medlemsstaterna bör eventuellt säkerställa att ett av de språk som fastställs och godtas av dem för relevant dokumentation från aktörer och för kommunikation med aktörer är ett språk som i huvudsak förstås av största möjliga antal användare i gränsöverskridande situationer.

(73)

För att främja och skydda innovation är det viktigt att särskild hänsyn tas till småskaliga leverantörer och användare av AI-system. I detta syfte bör medlemsstaterna ta fram initiativ som riktar sig till dessa aktörer, bland annat vad gäller AI-kunskaper, medvetandehöjande och information. Medlemsstaterna måste använda befintliga kanaler och, där det är lämpligt, inrätta nya särskilda kanaler för kommunikation med små och medelstora företag, nystartade företag, användare och andra innovatörer i syfte av att ge vägledning och svara på frågor om genomförandet av denna förordning. Sådana befintliga kanaler skulle kunna inbegripa, men är inte begränsade till, Enisas it-incidentcentrum, nationella dataskyddsmyndigheter, plattformen för efterfrågestyrd AI, de europeiska digitala innovationsknutpunkterna och andra relevanta instrument som finansieras av EU-program samt de test- och försöksanläggningar som inrättas av kommissionen och medlemsstaterna på nationell nivå eller unionsnivå. Där så är lämpligt bör dessa kanaler samarbeta för att skapa synergier och säkerställa homogenitet i sin vägledning till nystartade företag, små och medelstora företag och användare. De småskaliga leverantörernas särskilda intressen bör också beaktas när de anmälda organen fastställer avgifterna för bedömning av överensstämmelse. Kommissionen måste regelbundet bedöma kostnaderna för certifiering och efterlevnad för små och medelstora företag och nystartade företag, inbegripet genom transparenta samråd med små och medelstora företag, nystartade företag och användare, samt samarbeta med medlemsstaterna för att sänka sådana kostnader. Till exempel kan kostnaderna för översättning av obligatorisk dokumentation och kommunikation med myndigheter utgöra betydande kostnader för leverantörer och andra aktörer, i synnerhet mer småskaliga sådana. Medlemsstaterna bör eventuellt säkerställa att ett av de språk som fastställs och godtas av dem för relevant dokumentation från aktörer och för kommunikation med aktörer är ett språk som i huvudsak förstås av största möjliga antal användare i gränsöverskridande situationer. Medelstora företag som nyligen har gått från kategorin små företag till medelstora företag i den mening som avses i bilagan till rekommendation 2003/361/EG måste ha tillgång till dessa initiativ och denna vägledning under en tidsperiod som medlemsstaterna anser vara lämplig, eftersom dessa nya medelstora företag ibland saknar de rättsliga resurser och den utbildning som krävs för att säkerställa en korrekt förståelse och efterlevnad av bestämmelserna.

Ändring 121

Förslag till förordning

Skäl 74

Kommissionens förslag

Ändring

(74)

För att minimera risker för genomförandet som följer av bristande kunskap och expertis på marknaden, och för att främja leverantörernas och de anmälda organens uppfyllande av sina skyldigheter enligt denna förordning, bör plattformen för efterfrågestyrd AI, de europeiska digitala innovationsknutpunkterna och de test- och försöksanläggningar som inrättas av kommissionen och medlemsstaterna på nationell nivå och EU-nivå bidra till genomförandet av denna förordning. Inom sina respektive uppdrag och kompetensområden kan de i synnerhet tillhandahålla tekniskt och vetenskapligt stöd till leverantörer och anmälda organ.

(Berör inte den svenska versionen.)

Ändring 122

Förslag till förordning

Skäl 76

Kommissionens förslag

Ändring

(76)

För att främja ett smidigt, effektivt och harmoniserat genomförande av denna förordning bör en europeisk nämnd för artificiell intelligens inrättas. Nämnden bör ansvara för ett antal rådgivande uppgifter, däribland att utfärda yttranden, rekommendationer, råd eller vägledning om frågor som rör genomförandet av denna förordning, inbegripet när det gäller tekniska specifikationer eller befintliga standarder avseende kraven i denna förordning och råd och bistånd till kommissionen om specifika frågor som rör artificiell intelligens .

(76)

För att undvika fragmentering, säkerställa att den inre marknaden fungerar optimalt, säkerställa ett effektivt och harmoniserat genomförande av denna förordning , uppnå en hög grad av tillförlitlighet och skydd av hälsa och säkerhet, grundläggande rättigheter, miljön, demokratin och rättsstatsprincipen i hela unionen när det gäller AI-system, aktivt stödja nationella tillsynsmyndigheter och unionens institutioner, organ och byråer i frågor som rör denna förordning samt öka användningen av artificiell intelligens i hela unionen bör Europeiska unionens byrå för artificiell intelligens (AI-byrån) inrättas. AI-byrån bör vara en juridisk person, agera helt oberoende och ansvara för ett antal rådgivande uppgifter och samordningsuppgifter , däribland att utfärda yttranden, rekommendationer, råd eller vägledning om frågor som rör genomförandet av denna förordning, och den bör erhålla tillräcklig finansiering och personal . Medlemsstaterna bör tillhandahålla strategisk inriktning och kontroll med avseende på AI-byrån genom dess styrelse, tillsammans med kommissionen, Europeiska datatillsynsmannen, Europeiska unionens byrå för grundläggande rättigheter och Europeiska unionens cybersäkerhetsbyrå. En verkställande direktör bör ansvara för förvaltningen av verksamheten vid AI-byråns sekretariat och för att företräda byrån. Berörda parter bör delta formellt i AI-byråns arbete genom ett rådgivande forum som bör säkerställa varierad och balanserad representation av berörda parter och bör ge AI-byrån råd om frågor som rör denna förordning. Om inrättandet av AI-byrån visar sig vara otillräckligt för att säkerställa en fullständigt konsekvent tillämpning av denna förordning på unionsnivå samt effektiva gränsöverskridande efterlevnadsåtgärder bör inrättande av en AI-myndighet övervägas.

Ändring 123

Förslag till förordning

Skäl 77

Kommissionens förslag

Ändring

(77)

EU-länderna har en central roll i tillämpningen och kontrollen av efterlevnaden av denna förordning. I detta hänseende bör varje medlemsstat utse en eller flera nationella behöriga myndigheter för att övervaka tillämpningen och genomförandet av denna förordning. För att öka den organisatoriska effektiviteten från medlemsstaternas sida och inrätta en officiell kontaktpunkt för kontakterna med allmänheten och andra motparter på medlemsstatsnivå och unionsnivå bör en nationell myndighet utses till nationell tillsynsmyndighet i varje medlemsstat .

(77)

Varje medlemsstat bör utse en nationell tillsynsmyndighet med uppdrag att övervaka tillämpningen och genomförandet av denna förordning. Den bör även företräda sin medlemsstat i AI-byråns styrelse. För att öka den organisatoriska effektiviteten från medlemsstaternas sida och inrätta en officiell kontaktpunkt för kontakterna med allmänheten och andra motparter på medlemsstatsnivå och unionsnivå . Varje nationell tillsynsmyndighet bör vara fullständigt oberoende i utförandet av sina uppgifter och utövandet av sina befogenheter i enlighet med denna förordning .

Ändring 124

Förslag till förordning

Skäl 77a (nytt)

Kommissionens förslag

Ändring

 

(77a)

De nationella tillsynsmyndigheterna bör övervaka tillämpningen av bestämmelserna enligt denna förordning och bidra till enhetlig tillämpning av den i hela unionen. I detta syfte bör de nationella tillsynsmyndigheterna samarbeta med varandra, de relevanta nationella behöriga myndigheterna, kommissionen och AI-byrån.

Ändring 125

Förslag till förordning

Skäl 77b (nytt)

Kommissionens förslag

Ändring

 

(77b)

Medlemmarna och personalen vid varje nationell tillsynsmyndighet bör i enlighet med unionsrätten eller nationell rätt omfattas av tystnadsplikt både under och efter sin mandattid vad avser konfidentiell information som de fått kännedom om under utförandet av sina uppgifter eller utövandet av sina befogenheter. Under deras mandattid bör denna tystnadsplikt i synnerhet gälla företagshemligheter och fysiska personers rapportering om överträdelser av denna förordning.

Ändring 126

Förslag till förordning

Skäl 78

Kommissionens förslag

Ändring

(78)

För att säkerställa att leverantörer av AI-system med hög risk kan beakta erfarenheterna från användning av AI-system med hög risk för att förbättra sina system och utformnings- och utvecklingsprocessen, eller kan vidta eventuella korrigerande åtgärder i rätt tid, bör alla leverantörer ha ett system för övervakning av produkter som släppts ut på marknaden. Detta system är också viktigt för att säkerställa att eventuella risker som härrör från AI-system som fortsätter sin ”inlärning” efter att de släppts ut på marknaden eller tagits i bruk kan hanteras på ett mer effektivt sätt och i rätt tid. I detta sammanhang bör leverantörerna också åläggas att ha ett system för rapportering till de berörda myndigheterna av alla allvarliga incidenter eller överträdelser av nationell lagstiftning och unionslagstiftning som skyddar grundläggande rättigheter som orsakas av användningen av deras AI-system.

(78)

För att säkerställa att leverantörer av AI-system med hög risk kan beakta erfarenheterna från användning av AI-system med hög risk för att förbättra sina system och utformnings- och utvecklingsprocessen, eller kan vidta eventuella korrigerande åtgärder i rätt tid, bör alla leverantörer ha ett system för övervakning av produkter som släppts ut på marknaden. Detta system är också viktigt för att säkerställa att eventuella risker som härrör från AI-system som fortsätter sin ”inlärning” eller utvecklas efter att de släppts ut på marknaden eller tagits i bruk kan hanteras på ett mer effektivt sätt och i rätt tid. I detta sammanhang bör leverantörerna också åläggas att ha ett system för rapportering till de berörda myndigheterna av alla allvarliga incidenter eller överträdelser av nationell rätt och unionsrätten – bland annat den som skyddar grundläggande rättigheter och konsumenträttigheter – som orsakas av användningen av deras AI-system , samt att vidta lämpliga korrigerande åtgärder . Användare bör också till de berörda myndigheterna rapportera alla allvarliga incidenter eller överträdelser av nationell rätt och unionsrätten som orsakas av användningen av deras AI-system, när de får kännedom om sådana allvarliga incidenter eller överträdelser.

Ändring 127

Förslag till förordning

Skäl 79

Kommissionens förslag

Ändring

(79)

För att säkerställa en ändamålsenlig och effektiv kontroll av uppfyllandet av de krav och skyldigheter som fastställs i denna förordning, som utgör en del av unionens harmoniseringslagstiftning, bör det system för marknadskontroll och överensstämmelse för produkter som inrättas genom förordning (EU) 2019/1020 gälla i sin helhet. När det är nödvändigt för deras uppdrag bör nationella offentliga myndigheter eller organ, som övervakar tillämpningen av unionslagstiftning som skyddar grundläggande rättigheter, inbegripet likabehandlingsorgan, också ha tillgång till all dokumentation som skapas i enlighet med denna förordning.

(79)

För att säkerställa en ändamålsenlig och effektiv kontroll av uppfyllandet av de krav och skyldigheter som fastställs i denna förordning, som utgör en del av unionens harmoniseringslagstiftning, bör det system för marknadskontroll och överensstämmelse för produkter som inrättas genom förordning (EU) 2019/1020 gälla i sin helhet. Vid tillämpningen av denna förordning bör de nationella tillsynsmyndigheterna fungera som marknadskontrollmyndigheter för AI-system som omfattas av denna förordning, med undantag för AI-system som omfattas av bilaga II till denna förordning. För AI-system som omfattas av rättsakter som förtecknas i bilaga II bör de behöriga myndigheterna enligt de rättsakterna förbli ansvariga myndigheter. Nationella tillsynsmyndigheter och behöriga myndigheter i de rättsakter som förtecknas i bilaga II bör vid behov samarbeta. När så är lämpligt bör de behöriga myndigheterna i de rättsakter som förtecknas i bilaga II sända behörig personal till den nationella tillsynsmyndigheten för att bistå vid utförandet av dess uppgifter. Vid tillämpningen av denna förordning bör de nationella tillsynsmyndigheterna ha samma befogenheter och skyldigheter som marknadskontrollmyndigheterna enligt förordning (EU) 2019/1020. När det är nödvändigt för deras uppdrag bör nationella offentliga myndigheter eller organ, som övervakar tillämpningen av unionslagstiftning som skyddar grundläggande rättigheter, inbegripet likabehandlingsorgan, också ha tillgång till all dokumentation som skapas i enlighet med denna förordning. Efter att ha uttömt alla andra rimliga sätt att bedöma/kontrollera överensstämmelsen och på motiverad begäran bör den nationella tillsynsmyndigheten ges tillgång till tränings-, validerings- och testningsdataset, det tränade AI-systemet med hög risk och träningsmodellen för detta, inbegripet dess relevanta modellparametrar och deras tillämpnings-/träningsmiljö. I fall av enklare programvarusystem som omfattas av denna förordning men som inte bygger på tränade modeller och där alla andra sätt att kontrollera överensstämmelsen har uttömts, bör den nationella tillsynsmyndigheten undantagsvis ha tillgång till källkoden, på motiverad begäran. Om den nationella tillsynsmyndigheten har beviljats tillgång till tränings-, validerings- och testningsdataset i enlighet med denna förordning bör sådan åtkomst uppnås med hjälp av lämpliga tekniska medel och verktyg, inbegripet åtkomst på plats och, i undantagsfall, fjärråtkomst. Den nationella tillsynsmyndigheten bör behandla all information som erhålls – inbegripet källkod, programvara och data, beroende på vad som är tillämpligt – som konfidentiell information och respektera relevant unionsrätt om skydd av immateriella rättigheter och företagshemligheter. Den nationella tillsynsmyndigheten bör radera all information som erhållits när utredningen slutförts.

Ändring 128

Förslag till förordning

Skäl 80

Kommissionens förslag

Ändring

(80)

Unionslagstiftningen om finansiella tjänster omfattar regler och krav för interna styrelseformer och riskhantering som är tillämpliga på reglerade finansiella institut i samband med tillhandahållandet av dessa tjänster, även när de använder AI-system. För att säkerställa en enhetlig tillämpning och kontroll av efterlevnaden av skyldigheterna enligt denna förordning och relevanta regler och krav i  unionslagstiftningen för finansiella tjänster, bör de myndigheter som ansvarar för tillsynen och kontrollen av efterlevnaden av lagstiftningen om finansiella tjänster, inbegripet i förekommande fall Europeiska centralbanken, utses till behöriga myndigheter för tillsynen över genomförandet av denna förordning, även med avseende på marknadskontroll, när det gäller AI-system som tillhandahålls eller används av reglerade och övervakade finansiella institut. För att ytterligare öka konsekvensen mellan denna förordning och de regler som är tillämpliga på kreditinstitut som regleras genom Europaparlamentets och rådets direktiv 2013/36/EU är det också lämpligt att i de befintliga skyldigheterna och förfarandena enligt direktiv 2013/36/EU (56) integrera förfarandet för bedömning av överensstämmelse och några av leverantörernas förfarandemässiga skyldigheter vad gäller riskhantering, övervakning av produkter som släppts ut på marknaden och dokumentation. För att undvika överlappningar bör begränsade undantag också förutses när det gäller leverantörernas kvalitetsledningssystem och de övervakningsskyldigheter som gäller för användare av AI-system med hög risk i den utsträckning som dessa är tillämpliga på kreditinstitut som regleras genom direktiv 2013/36/EU.

(80)

Unionsrätten om finansiella tjänster omfattar regler och krav för interna styrelseformer och riskhantering som är tillämpliga på reglerade finansiella institut i samband med tillhandahållandet av dessa tjänster, även när de använder AI-system. För att säkerställa en enhetlig tillämpning och kontroll av efterlevnaden av skyldigheterna enligt denna förordning och relevanta regler och krav i  unionsrätten för finansiella tjänster, bör de behöriga myndigheter som ansvarar för tillsynen och kontrollen av efterlevnaden av rätten om finansiella tjänster, inbegripet i förekommande fall Europeiska centralbanken, utses till behöriga myndigheter för tillsynen över genomförandet av denna förordning, även med avseende på marknadskontroll, när det gäller AI-system som tillhandahålls eller används av reglerade och övervakade finansiella institut. För att ytterligare öka konsekvensen mellan denna förordning och de regler som är tillämpliga på kreditinstitut som regleras genom Europaparlamentets och rådets direktiv 2013/36/EU är det också lämpligt att i de befintliga skyldigheterna och förfarandena enligt direktiv 2013/36/EU (56) integrera förfarandet för bedömning av överensstämmelse och några av leverantörernas förfarandemässiga skyldigheter vad gäller riskhantering, övervakning av produkter som släppts ut på marknaden och dokumentation. För att undvika överlappningar bör begränsade undantag också förutses när det gäller leverantörernas kvalitetsledningssystem och de övervakningsskyldigheter som gäller för användare av AI-system med hög risk i den utsträckning som dessa är tillämpliga på kreditinstitut som regleras genom direktiv 2013/36/EU.

Ändring 129

Förslag till förordning

Skäl 80a (nytt)

Kommissionens förslag

Ändring

 

(80a)

Med tanke på målen för denna förordning, dvs. att säkerställa en likvärdig skyddsnivå för fysiska personers hälsa, säkerhet och grundläggande rättigheter och säkerställa skyddet av rättsstatsprincipen och demokratin, och med beaktande av att begränsningen av AI-systemens risker för sådana rättigheter eventuellt inte i tillräcklig utsträckning uppnås på nationell nivå, eller kan bli föremål för olika tolkningar, vilket i slutändan skulle kunna leda till en ojämn skyddsnivå för fysiska personer och en fragmentering av marknaden, bör de nationella tillsynsmyndigheterna ges befogenhet att genomföra gemensamma utredningar eller förlita sig på unionens förfarande för skyddsåtgärder som föreskrivs i denna förordning för en effektiv kontroll av efterlevnaden. Gemensamma utredningar bör inledas om den nationella tillsynsmyndigheten har tillräckliga skäl att anta att en överträdelse av denna förordning utgör en utbredd överträdelse eller en utbredd överträdelse med en unionsdimension, eller om AI-systemet eller grundmodellen utgör en risk som påverkar eller sannolikt kommer att påverka minst 45 miljoner enskilda personer i mer än en medlemsstat.

Ändring 130

Förslag till förordning

Skäl 82

Kommissionens förslag

Ändring

(82)

Det är viktigt att AI-system som avser produkter som inte utgör hög risk enligt denna förordning och som därmed inte måste uppfylla kraven i förordningen ändå är säkra när de släpps ut på marknaden eller tas i bruk. För att bidra till detta mål skulle Europaparlamentets och rådets direktiv 2001/95/EG (57) tillämpas som ett skyddsnät.

(82)

Det är viktigt att AI-system som avser produkter som inte utgör hög risk enligt denna förordning och som därmed inte måste uppfylla kraven på AI-system med hög risk ändå är säkra när de släpps ut på marknaden eller tas i bruk. För att bidra till detta mål skulle Europaparlamentets och rådets direktiv 2001/95/EG (57) tillämpas som ett skyddsnät.

Ändring 131

Förslag till förordning

Skäl 83

Kommissionens förslag

Ändring

(83)

För att säkerställa ett förtroendefullt och konstruktivt samarbete mellan behöriga myndigheter på unionsnivå och nationell nivå bör alla parter som är involverade i tillämpningen av denna förordning respektera konfidentialiteten för information och data som de erhåller i utförandet av sina uppgifter.

(83)

För att säkerställa ett förtroendefullt och konstruktivt samarbete mellan behöriga myndigheter på unionsnivå och nationell nivå bör alla parter som är involverade i tillämpningen av denna förordning sträva efter transparens och öppenhet, samtidigt som de respekterar konfidentialiteten för information och data som de erhåller i utförandet av sina uppgifter , genom att införa tekniska och organisatoriska åtgärder för att skydda säkerheten och konfidentialiteten för information som de erhåller i sin verksamhet, också när det gäller immateriella rättigheter och allmänna och nationella säkerhetsintressen . Om den verksamhet som bedrivs av kommissionen, nationella behöriga myndigheter, och anmälda organ enligt denna förordning medför intrång i immateriella rättigheter, bör medlemsstaterna föreskriva adekvata åtgärder och rättsmedel för att säkerställa skyddet av de immateriella rättigheterna i enlighet med direktiv 2004/48/EG.

Ändring 132

Förslag till förordning

Skäl 84

Kommissionens förslag

Ändring

(84)

Medlemsstaterna bör vidta alla nödvändiga åtgärder för att säkerställa att bestämmelserna i denna förordning genomförs, bland annat genom att fastställa effektiva, proportionella och avskräckande sanktioner för åsidosättande av dem. För vissa specifika överträdelser bör medlemsstaterna beakta de marginaler och kriterier som fastställs i denna förordning . Europeiska datatillsynsmannen bör ha befogenhet att ålägga böter för unionens institutioner, byråer och organ som omfattas av denna förordning.

(84)

Efterlevnaden av denna förordning bör kunna verkställas genom att den nationella tillsynsmyndigheten ålägger sanktionsavgifter när den genomför förfaranden enligt det förfarande som fastställs i denna förordning. Medlemsstaterna bör vidta alla nödvändiga åtgärder för att säkerställa att bestämmelserna i denna förordning genomförs, bland annat genom att fastställa effektiva, proportionella och avskräckande sanktioner för åsidosättande av dem. För att stärka och harmonisera de administrativa sanktionerna för överträdelser av denna förordning bör det fastställas övre gränser för fastställande av administrativa sanktionsavgifter för vissa specifika överträdelser . Vid bedömningen av sanktionsavgifterna bör de nationella behöriga myndigheterna i varje enskilt fall beakta alla relevanta omständigheter i den specifika situationen, med vederbörlig hänsyn särskilt till överträdelsens art, svårighetsgrad och varaktighet och dess konsekvenser samt till leverantörens storlek, särskilt ifall leverantören tillhör kategorin små och medelstora företag eller är ett nystartat företag . Europeiska datatillsynsmannen bör ha befogenhet att ålägga böter för unionens institutioner, byråer och organ som omfattas av denna förordning. Sanktionerna och rättegångskostnaderna enligt denna förordning bör inte omfattas av avtalsklausuler eller andra arrangemang.

Ändring 133

Förslag till förordning

Skäl 84a (nytt)

Kommissionens förslag

Ändring

 

(84a)

Eftersom rättigheterna och friheterna för fysiska och juridiska personer och grupper av fysiska personer allvarligt kan undergrävas av AI-system är det viktigt att fysiska och juridiska personer eller grupper av fysiska personer har meningsfull tillgång till mekanismer för rapportering och rättslig prövning och har rätt till proportionella och effektiva rättsmedel. De bör kunna rapportera överträdelser av denna förordning till sina nationella tillsynsmyndigheter och ha rätt att lämna in klagomål mot leverantörer eller användare av AI-system. I tillämpliga fall bör användare tillhandahålla interna klagomålsmekanismer som fysiska och juridiska personer eller grupper av fysiska personer ska kunna använda. Utan att det påverkar något annat administrativt prövningsförfarande eller prövningsförfarande utanför domstol bör fysiska och juridiska personer och grupper av fysiska personer också ha rätt till ett effektivt rättsmedel med avseende på rättsligt bindande beslut av en nationell tillsynsmyndighet som rör dem, eller ifall den nationella tillsynsmyndigheten inte behandlar ett klagomål, inte informerar den klagande om hur det inlämnade klagomålet fortskrider eller om det preliminära resultatet av det eller inte fullgör sin skyldighet att fatta ett slutligt beslut med avseende på klagomålet.

Ändring 134

Förslag till förordning

Skäl 84b (nytt)

Kommissionens förslag

Ändring

 

(84b)

Personer som påverkas bör under alla omständigheter informeras om att de är föremål för användning av ett AI-system med hög risk när användare använder ett AI-system med hög risk för att bistå i beslutsfattande eller fatta beslut som rör fysiska personer. Denna information kan utgöra en grund för personer som påverkas att utöva sin rätt till en förklaring enligt denna förordning. När användare lämnar en förklaring till personer som påverkas enligt denna förordning bör de ta hänsyn till genomsnittskonsumentens eller den enskilda personens expertis och kunskap.

Ändring 135

Förslag till förordning

Skäl 84c (nytt)

Kommissionens förslag

Ändring

 

(84c)

Unionsrätten om skydd för visselblåsare (direktiv (EU) 2019/1937) är fullt tillämplig på akademiker, formgivare, utvecklare, personer som bidrar till projekt, revisorer, produktchefer, ingenjörer och ekonomiska aktörer som erhåller information om överträdelser av unionsrätten som begås av en leverantör av AI-system eller dess AI-system.

Ändring 136

Förslag till förordning

Skäl 85

Kommissionens förslag

Ändring

(85)

För att säkerställa att regelverket vid behov kan anpassas bör befogenheten att anta akter i enlighet med artikel 290 i EUF-fördraget delegeras till kommissionen när det gäller ändring av de tekniker och metoder som anges i bilaga I för definition av AI-system, unionens lagstiftning om harmonisering som förtecknas i bilaga II, AI-system med hög risk som förtecknas i bilaga III, bestämmelserna om teknisk dokumentation som förtecknas i bilaga IV, innehållet i EU-försäkran om överensstämmelse i bilaga V, bestämmelserna om förfaranden för bedömning av överensstämmelse i bilagorna VI och VII och bestämmelserna om fastställande av de AI-system med hög risk som omfattas av det förfarande för bedömning av överensstämmelse som baseras på en bedömning av kvalitetsledningssystemet och en bedömning av den tekniska dokumentationen. Det är särskilt viktigt att kommissionen genomför lämpliga samråd under sitt förberedande arbete, inklusive på expertnivå, och att dessa samråd genomförs i enlighet med principerna i det interinstitutionella avtalet om bättre lagstiftning av den 13 april 2016 (58). För att säkerställa lika stor delaktighet i förberedelsen av delegerade akter erhåller Europaparlamentet och rådet alla handlingar samtidigt som medlemsstaternas experter, och deras experter ges systematiskt tillträde till möten i kommissionens expertgrupper som arbetar med förberedelse av delegerade akter.

(85)

För att säkerställa att regelverket vid behov kan anpassas bör befogenheten att anta akter i enlighet med artikel 290 i EUF-fördraget delegeras till kommissionen när det gäller ändring av unionens harmoniseringslagstiftning som förtecknas i bilaga II, AI-system med hög risk som förtecknas i bilaga III, bestämmelserna om teknisk dokumentation som förtecknas i bilaga IV, innehållet i EU-försäkran om överensstämmelse i bilaga V, bestämmelserna om förfaranden för bedömning av överensstämmelse i bilagorna VI och VII och bestämmelserna om fastställande av de AI-system med hög risk som omfattas av det förfarande för bedömning av överensstämmelse som baseras på en bedömning av kvalitetsstyrningssystemet och en bedömning av den tekniska dokumentationen. Det är särskilt viktigt att kommissionen genomför lämpliga samråd under sitt förberedande arbete, inklusive på expertnivå, och att dessa samråd genomförs i enlighet med principerna i det interinstitutionella avtalet om bättre lagstiftning av den 13 april 2016 (58). Dessa samråd bör inbegripa deltagande av ett balanserat urval av berörda parter, inbegripet konsumentorganisationer, det civila samhället, sammanslutningar som företräder personer som påverkas, företrädare för företag från olika sektorer och av olika storlek samt forskare och vetenskapsmän. För att säkerställa lika stor delaktighet i förberedelsen av delegerade akter erhåller Europaparlamentet och rådet alla handlingar samtidigt som medlemsstaternas experter, och deras experter ges systematiskt tillträde till möten i kommissionens expertgrupper som arbetar med förberedelse av delegerade akter.

Ändring 137

Förslag till förordning

Skäl 85a (nytt)

Kommissionens förslag

Ändring

 

(85a)

Med tanke på den snabba tekniska utvecklingen och den tekniska expertis som krävs vid bedömningen av AI-system med hög risk bör kommissionen regelbundet, åtminstone årligen, se över genomförandet av denna förordning, särskilt de förbjudna AI-systemen, transparenskraven och förteckningen över högriskområden och användningsfall, och samtidigt samråda med AI-byrån och relevanta berörda parter.

Ändring 138

Förslag till förordning

Skäl 87a (nytt)

Kommissionens förslag

Ändring

 

(87a)

Eftersom förekomsten av tillförlitlig information om resurs- och energianvändning, avfallsgenerering och annan miljöpåverkan genom AI-system och tillhörande IKT-teknik, inbegripet programvara, maskinvara och i synnerhet datacentraler, är begränsad, bör kommissionen införa en adekvat metod för att mäta miljöpåverkan och denna förordnings ändamålsenlighet mot bakgrund av unionens miljö- och klimatmål.

Ändring 139

Förslag till förordning

Skäl 89

Kommissionens förslag

Ändring

(89)

Europeiska datatillsynsmannen och Europeiska dataskyddsstyrelsen har hörts i enlighet med artikel 42.2 i förordning (EU) nr 2018/1725 och avgav ett yttrande den […]”.

(89)

Europeiska datatillsynsmannen och Europeiska dataskyddsstyrelsen har hörts i enlighet med artikel 42.2 i förordning (EU) nr 2018/1725 och avgav ett yttrande den 18 juni 2021 .

Ändring 140

Förslag till förordning

Artikel 1 – punkt 1 (ny)

Kommissionens förslag

Ändring

 

1.

Syftet med denna förordning är att främja användningen av människocentrerad och tillförlitlig artificiell intelligens och att säkerställa en hög nivå av skydd för hälsa, säkerhet, grundläggande rättigheter, demokrati och rättsstatsprincipen samt miljön mot skadliga effekter av system med artificiell intelligens i unionen och samtidigt stödja innovation.

Ändring 141

Förslag till förordning

Artikel 1 – stycke 1 – led d

Kommissionens förslag

Ändring

(d)

harmoniserade transparensregler för AI-system som är avsedda att interagera med fysiska personer, system för känsloigenkänning och system för biometrisk kategorisering samt AI-system som används för att generera eller manipulera bild-, ljud- eller videoinnehåll ,

(d)

harmoniserade transparensregler för vissa AI-system,

Ändring 142

Förslag till förordning

Artikel 1 – stycke 1 – led e

Kommissionens förslag

Ändring

(e)

regler om marknadskontroll och marknadsövervakning.

(e)

regler om marknadskontroll, marknadsövervakning , styrning och tillsyn,

Ändring 143

Förslag till förordning

Artikel 1 – stycke 1 – led ea (nytt)

Kommissionens förslag

Ändring

 

(ea)

åtgärder till stöd för innovation, med särskild inriktning på små och medelstora företag och nystartade företag, inbegripet inrättande av regulatoriska sandlådor och riktade åtgärder för att minska regelbördan för små och medelstora företag och nystartade företag,

Ändring 144

Förslag till förordning

Artikel 1 – stycke 1 – led eb (nytt)

Kommissionens förslag

Ändring

 

(eb)

regler för inrättande och drift av Europeiska unionens byrå för artificiell intelligens (AI-byrån).

Ändring 145

Förslag till förordning

Artikel 2 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

användare av AI-system när dessa användare befinner sig i unionen,

(b)

användare av AI-system som har sin etableringsort, eller befinner sig, i unionen,

Ändring 146

Förslag till förordning

Artikel 2 – punkt 1 – led c

Kommissionens förslag

Ändring

(c)

leverantörer och användare av AI-system när dessa leverantörer och användare befinner sig i ett tredjeland, där de utdata som produceras av systemet används i unionen.

(c)

leverantörer och användare av AI-system som har sin etableringsort, eller befinner sig, i ett tredjeland, där antingen medlemsstaternas rätt är tillämplig enligt internationell rätt eller de utdata som produceras av systemet är avsedda att användas i unionen,

Ändring 147

Förslag till förordning

Artikel 2 – punkt 1 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

leverantörer som släpper ut på marknaden eller tar i bruk AI-system enligt artikel 5 utanför unionen där leverantören eller distributören av sådana system befinner sig i unionen,

Ändring 148

Förslag till förordning

Artikel 2 – punkt 1 – led cb (nytt)

Kommissionens förslag

Ändring

 

(cb)

importörer och distributörer av AI-system samt ombud för leverantörer av AI-system, där sådana importörer, distributörer eller ombud har sitt verksamhetsställe, eller befinner sig, i unionen,

Ändring 149

Förslag till förordning

Artikel 2 – punkt 1 – led cc (nytt)

Kommissionens förslag

Ändring

 

(cc)

personer som påverkas enligt definitionen i artikel 3.8a, som befinner sig i unionen och vars hälsa, säkerhet eller grundläggande rättigheter påverkas negativt av användningen av ett AI-system som släpps ut på marknaden eller tas i bruk inom unionen.

Ändring 150

Förslag till förordning

Artikel 2 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.   För AI-system med hög risk som utgör säkerhetskomponenter i produkter eller system, eller som själva är produkter eller system, som omfattas av tillämpningsområdet för följande akter , ska endast artikel 84 i denna förordning tillämpas:

2.   För AI-system med hög risk som utgör säkerhetskomponenter i produkter eller system eller som själva är produkter eller system och som omfattas av tillämpningsområdet för den harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga II , ska endast artikel 84 i denna förordning tillämpas.

Ändring 151

Förslag till förordning

Artikel 2 – stycke 2 – led a

Kommissionens förslag

Ändring

(a)

Förordning (EG) nr 300/2008.

utgår

Ändring 152

Förslag till förordning

Artikel 2 – punkt 2 – led b

Kommissionens förslag

Ändring

(b)

Förordning (EU) nr 167/2013.

utgår

Ändring 153

Förslag till förordning

Artikel 2 – punkt 2 – led c

Kommissionens förslag

Ändring

(c)

Förordning (EU) nr 168/2013.

utgår

Ändring 154

Förslag till förordning

Artikel 2 – punkt 2 – led d

Kommissionens förslag

Ändring

(d)

Direktiv 2014/90/EU.

utgår

Ändring 155

Förslag till förordning

Artikel 2 – punkt 2 – led e

Kommissionens förslag

Ändring

(e)

Direktiv (EU) 2016/797.

utgår

Ändring 156

Förslag till förordning

Artikel 2 – punkt 2 – led f

Kommissionens förslag

Ändring

(f)

Förordning (EU) 2018/858.

utgår

Ändring 157

Förslag till förordning

Artikel 2 – punkt 2 – led g

Kommissionens förslag

Ändring

(g)

Förordning (EU) 2018/1139.

utgår

Ändring 158

Förslag till förordning

Artikel 2 – punkt 2 – led h

Kommissionens förslag

Ändring

(h)

Förordning (EU) 2019/2144.

utgår

Ändring 159

Förslag till förordning

Artikel 2 – punkt 4

Kommissionens förslag

Ändring

4.   Denna förordning ska inte tillämpas på offentliga myndigheter i ett tredjeland, eller på internationella organisationer som omfattas av denna förordnings tillämpningsområde enligt punkt 1, om dessa myndigheter eller organisationer använder AI-system inom ramen för internationella avtal om brottsbekämpning och rättsligt samarbete med unionen eller med en eller flera medlemsstater.

4.   Denna förordning ska inte tillämpas på offentliga myndigheter i ett tredjeland, eller på internationella organisationer som omfattas av denna förordnings tillämpningsområde enligt punkt 1, om dessa myndigheter eller organisationer använder AI-system inom ramen för internationellt samarbete eller internationella avtal om brottsbekämpning och rättsligt samarbete med unionen eller med en eller flera medlemsstater och är föremål för ett beslut av kommissionen som antagits i enlighet med artikel 36 i direktiv (EU) 2016/680 eller artikel 45 i förordning (EU) 2016/679 (beslut om adekvat skyddsnivå) eller är en del av ett internationellt avtal som har ingåtts mellan unionen och tredjelandet eller den internationella organisationen i fråga i enlighet med artikel 218 i EUF-fördraget och som medför adekvata skyddsåtgärder med avseende på skyddet av enskilda personers integritet och grundläggande rättigheter och friheter .

Ändring 160

Förslag till förordning

Artikel 2 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     Unionsrätt om skydd av personuppgifter, integritet och konfidentialitet vid kommunikation är tillämplig på personuppgifter som behandlas i samband med de rättigheter och skyldigheter som fastställs i denna förordning. Denna förordning ska inte påverka tillämpningen av förordningarna (EU) 2016/679 och (EU) 2018/1725 samt direktiven 2002/58/EG och (EU) 2016/680, utan att det påverkar tillämpningen av de arrangemang som föreskrivs i artiklarna 10.5 och 54 i den här förordningen.

Ändring 161

Förslag till förordning

Artikel 2 – punkt 5b (ny)

Kommissionens förslag

Ändring

 

5b.     Denna förordning påverkar inte tillämpningen av de bestämmelser som fastställs i andra unionsrättsakter om konsumentskydd och produktsäkerhet.

Ändring 162

Förslag till förordning

Artikel 2 – punkt 5c (ny)

Kommissionens förslag

Ändring

 

5c.     Denna förordning ska inte hindra medlemsstaterna eller unionen från att behålla eller införa lagar och andra författningar som är förmånligare för arbetstagarna när det gäller att skydda deras rättigheter i fråga om arbetsgivares användning av AI-system, eller från att uppmuntra eller tillåta tillämpning av kollektivavtal som är förmånligare för arbetstagarna.

Ändring 163

Förslag till förordning

Artikel 2 – punkt 5d (ny)

Kommissionens förslag

Ändring

 

5d.     Denna förordning ska inte tillämpas på forsknings-, test- och utvecklingsverksamhet avseende ett AI-system innan systemet släpps ut på marknaden eller tas i bruk, förutsatt att verksamheten i fråga genomförs med respekt för grundläggande rättigheter och tillämplig unionsrätt. Testning under verkliga förhållanden ska inte omfattas av detta undantag. Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 med avseende på att förtydliga tillämpningen av denna punkt och specificera detta undantag i syfte att förhindra förekommande och framtida missbruk. AI-byrån ska ge vägledning om styrningen av forskning och utveckling i enlighet med artikel 56, även i syfte att samordna dess tillämpning från de nationella tillsynsmyndigheternas sida.

Ändring 164

Förslag till förordning

Artikel 2 – punkt 5e (ny)

Kommissionens förslag

Ändring

 

5e.     Denna förordning ska inte tillämpas på AI-komponenter som tillhandahålls genom licenser med fri och öppen källkod, utom i den mån de släpps ut på marknaden eller tas i bruk av en leverantör som en del av ett AI-system med hög risk eller av ett AI-system som omfattas av avdelning II eller IV. Detta undantag ska inte gälla för grundmodeller enligt definitionen i artikel 3.

Ändring 165

Förslag till förordning

Artikel 3 – led 1

Kommissionens förslag

Ändring

(1)

system med artificiell intelligens (AI-system): programvara som utvecklats med en eller flera av de tekniker och metoder som förtecknas i bilaga I och som , för en viss uppsättning människodefinierade mål, kan generera utdata såsom innehåll, förutsägelser, rekommendationer eller beslut som påverkar de miljöer som de samverkar med .

(1)

system med artificiell intelligens (AI-system): ett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som, för uttryckliga eller underförstådda mål, kan generera utdata såsom förutsägelser, rekommendationer eller beslut som påverkar fysiska eller virtuella miljöer.

Ändring 166

Förslag till förordning

Artikel 3 – led 1a (nytt)

Kommissionens förslag

Ändring

 

(1a)

risk: kombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad.

Ändring 167

Förslag till förordning

Artikel 3 – led 1b (nytt)

Kommissionens förslag

Ändring

 

(1b)

betydande risk: en risk som är betydande till följd av kombinationen av dess allvarlighetsgrad, intensitet, sannolikhet för förekomst och varaktighet i fråga om dess effekter, samt dess förmåga att påverka en enskild person, en stor mängd personer eller en viss grupp av personer.

Ändring 168

Förslag till förordning

Artikel 3 – led 1c (nytt)

Kommissionens förslag

Ändring

 

(1c)

grundmodell: en AI-systemmodell som tränats på en stor datamängd, utformats för att ge generella resultat och kan anpassas till ett brett spektrum av olika uppgifter.

Ändring 169

Förslag till förordning

Artikel 3 – led 1d (nytt)

Kommissionens förslag

Ändring

 

(1d)

AI-system för allmänna ändamål: ett AI-system som kan användas i och anpassas till ett brett spektrum av tillämpningar för vilka det inte avsiktligt och specifikt utformats.

Ändring 170

Förslag till förordning

Artikel 3 – led 1e (nytt)

Kommissionens förslag

Ändring

 

(1e)

stora träningsomgångar: produktionsprocessen för en kraftfull AI-modell som kräver datorresurser över en mycket hög tröskel.

Ändring 171

Förslag till förordning

Artikel 3 – led 3

Kommissionens förslag

Ändring

(3)

småskalig leverantör: en leverantör som är ett mikroföretag eller småföretag i den mening som avses i kommissionens rekommendation 2003/361/EG  (61) .

utgår

Ändring 172

Förslag till förordning

Artikel 3 – led 4

Kommissionens förslag

Ändring

(4)

användare: varje fysisk eller juridisk person, offentlig myndighet, byrå eller annat organ som under eget överinseende använder ett AI-system, utom när AI-systemet används inom ramen för en personlig icke-yrkesmässig verksamhet.

(Berör inte den svenska versionen.)

Ändring 173

Förslag till förordning

Artikel 3 – led 8

Kommissionens förslag

Ändring

(8)

operatör: leverantören, användaren, den auktoriserade representanten, importören och distributören.

(Berör inte den svenska versionen.)

Ändring 174

Förslag till förordning

Artikel 3 – led 8a (nytt)

Kommissionens förslag

Ändring

 

(8a)

person som påverkas: varje fysisk person eller grupp av personer som är föremål för eller på annat sätt påverkas av ett AI-system.

Ändring 175

Förslag till förordning

Artikel 3 – led 11

Kommissionens förslag

Ändring

(11)

ibruktagande: leverans av ett AI-system för första användning direkt till användaren eller för eget bruk på unionsmarknaden för dess avsedda ändamål.

(Berör inte den svenska versionen.)

Ändring 176

Förslag till förordning

Artikel 3 – led 13

Kommissionens förslag

Ändring

(13)

rimligen förutsebar felaktig användning: användning av ett AI-system på ett sätt som inte överensstämmer med dess avsedda ändamål, men som kan vara resultatet av rimligen förutsebart mänskligt beteende eller interaktion med andra system.

(13)

rimligen förutsebar felaktig användning: användning av ett AI-system på ett sätt som inte överensstämmer med dess avsedda ändamål enligt vad leverantören anger i bruksanvisningen , men som kan vara resultatet av rimligen förutsebart mänskligt beteende eller interaktion med andra system , inklusive andra AI-system .

Ändring 177

Förslag till förordning

Artikel 3 – led 14

Kommissionens förslag

Ändring

(14)

säkerhetskomponent i en produkt eller ett system: en komponent som finns i en produkt eller i ett system och som fyller en säkerhetsfunktion för produkten eller systemet eller som, om den upphör att fungera eller fungerar felaktigt, medför fara för människors hälsa och säkerhet eller för egendom .

(14)

säkerhetskomponent i en produkt eller ett system: i överensstämmelse med unionens harmoniseringslagstiftning enligt förteckningen i bilaga II, en komponent som finns i en produkt eller i ett system och som fyller en säkerhetsfunktion för produkten eller systemet eller som, om den upphör att fungera eller fungerar felaktigt, medför fara för människors hälsa och säkerhet.

Ändring 178

Förslag till förordning

Artikel 3 – led 15

Kommissionens förslag

Ändring

(15)

bruksanvisning: information som tillhandahålls av leverantören för att informera användaren om särskilt ett AI-systems avsedda ändamål och korrekta användning, inklusive den specifika geografiska, beteendemässiga eller funktionella miljö inom vilken AI-systemet med hög risk är avsett att användas.

(15)

bruksanvisning: information som tillhandahålls av leverantören för att informera användaren om särskilt ett AI-systems avsedda ändamål och korrekta användning , och information om eventuella försiktighetsåtgärder som bör vidtas, inklusive den specifika geografiska, beteendemässiga eller funktionella miljö inom vilken AI-systemet med hög risk är avsett att användas.

Ändring 179

Förslag till förordning

Artikel 3 – led 16

Kommissionens förslag

Ändring

(16)

återkallelse av ett AI-system: varje åtgärd som syftar till att få till stånd ett återlämnande av ett AI-system som tillhandahållits för användare till leverantören.

(16)

återkallelse av ett AI-system: varje åtgärd som syftar till att få till stånd ett återlämnande av ett AI-system som har tillhandahållits användare till leverantören.

Ändring 180

Förslag till förordning

Artikel 3 – led 20

Kommissionens förslag

Ändring

(20)

bedömning av överensstämmelse: processen där det kontrolleras om kraven i avdelning III kapitel 2 i denna förordning avseende ett AI-system har uppfyllts.

(20)

bedömning av överensstämmelse: den process där det visas huruvida kraven i avdelning III kapitel 2 i denna förordning avseende ett AI-system har uppfyllts.

Ändring 181

Förslag till förordning

Artikel 3 – led 22

Kommissionens förslag

Ändring

(22)

anmält organ: organ för bedömning av överensstämmelse som utsetts i enlighet med denna förordning och annan relevant unionslagstiftning om harmonisering.

(22)

anmält organ: organ för bedömning av överensstämmelse som anmälts i enlighet med denna förordning och annan relevant unionslagstiftning om harmonisering.

Ändring 182

Förslag till förordning

Artikel 3 – led 23

Kommissionens förslag

Ändring

(23)

väsentlig ändring: en ändring av AI-systemet som gjorts efter dess utsläppande på marknaden eller ibruktagande och som påverkar AI-systemets uppfyllelse av kraven i avdelning III kapitel 2 i denna förordning eller leder till en ändring av det avsedda ändamål för vilket AI-systemet har bedömts.

(23)

väsentlig ändring: en ändring eller en serie ändringar av AI-systemet efter dess utsläppande på marknaden eller ibruktagande som inte förutsetts eller planerats i leverantörens ursprungliga riskbedömning och som leder till att AI-systemets uppfyllelse av kraven i avdelning III kapitel 2 i denna förordning påverkas eller leder till en ändring av det avsedda ändamål för vilket AI-systemet har bedömts.

Ändring 183

Förslag till förordning

Artikel 3 – led 24

Kommissionens förslag

Ändring

(24)

CE-märkning om överensstämmelse (CE-märkning): märkning genom vilken en leverantör anger att ett AI-system överensstämmer med kraven i avdelning III kapitel 2 i denna förordning och annan tillämplig unionslagstiftning som harmoniserar villkoren för saluföring av produkter (unionens harmoniseringslagstiftning) och som föreskriver sådan märkning.

(24)

CE-märkning om överensstämmelse (CE-märkning): fysisk eller digital märkning genom vilken en leverantör anger att ett AI-system eller en produkt där det ingår ett AI-system överensstämmer med kraven i avdelning III kapitel 2 i denna förordning och annan tillämplig unionslagstiftning som harmoniserar villkoren för saluföring av produkter (unionens harmoniseringslagstiftning) och som föreskriver sådan märkning.

Ändring 184

Förslag till förordning

Artikel 3 – led 29

Kommissionens förslag

Ändring

(29)

träningsdata: data som används för att träna ett AI-system genom anpassning av dess inlärningsbara parametrar , inklusive vikterna i ett neuralt nätverk .

(29)

träningsdata: data som används för att träna ett AI-system genom anpassning av dess inlärningsbara parametrar.

Ändring 185

Förslag till förordning

Artikel 3 – led 30

Kommissionens förslag

Ändring

(30)

valideringsdata: data som används för att tillhandahålla en utvärdering av det tränade AI-systemet och för att stämma av dess icke-inlärningsbara parametrar och dess inlärningsprocess, bland annat, för att förhindra överanpassning. Valideringsdatasetet kan vara ett separat dataset eller en del av träningsdatasetet, antingen som en fast eller variabel uppdelning.

(30)

valideringsdata: data som används för att tillhandahålla en utvärdering av det tränade AI-systemet och för att stämma av dess icke-inlärningsbara parametrar och dess inlärningsprocess, bland annat, för att förhindra under- eller överanpassning. Valideringsdatasetet är ett separat dataset eller en del av träningsdatasetet, som en antingen fast eller variabel uppdelning.

Ändring 186

Förslag till förordning

Artikel 3 – led 33

Kommissionens förslag

Ändring

(33)

biometriska uppgifter: personuppgifter som erhållits genom särskild teknisk behandling som rör en fysisk persons fysiska, fysiologiska eller beteendemässiga kännetecken och som möjliggör eller bekräftar den unika identifieringen av denna fysiska person, såsom ansiktsbilder eller fingeravtrycksuppgifter .

(33)

biometriska uppgifter: biometriska uppgifter enligt definitionen i artikel 4.14 i förordning (EU) 2016/679 .

Ändring 187

Förslag till förordning

Artikel 3 – led 33a (nytt)

Kommissionens förslag

Ändring

 

(33a)

biometribaserade uppgifter: uppgifter som härrör från specifik teknisk behandling som hänför sig till fysiska, fysiologiska eller beteendemässiga signaler från en fysisk person.

Ändring 188

Förslag till förordning

Artikel 3 – led 33b (nytt)

Kommissionens förslag

Ändring

 

(33b)

biometrisk identifiering: automatisk igenkänning av fysiska, fysiologiska, beteendemässiga och psykologiska mänskliga särdrag för att fastställa en persons identitet genom jämförelse av personens biometriska uppgifter med lagrade biometriska uppgifter om enskilda personer i en databas (en-till-många-identifiering).

Ändring 189

Förslag till förordning

Artikel 3 – led 33c (nytt)

Kommissionens förslag

Ändring

 

(33c)

biometrisk verifiering: automatisk verifiering av fysiska personers identitet genom jämförelse av en persons biometriska uppgifter med tidigare lämnade biometriska uppgifter (en-till-en-verifiering, inklusive autentisering).

Ändring 190

Förslag till förordning

Artikel 3 – led 33d (nytt)

Kommissionens förslag

Ändring

 

(33d)

särskilda kategorier av personuppgifter: de kategorier av personuppgifter som avses i artikel 9.1 i förordning (EU) 2016/679.

Ändring 191

Förslag till förordning

Artikel 3 – led 34

Kommissionens förslag

Ändring

(34)

system för känsloigenkänning: ett AI-system vars syfte är att identifiera eller uttyda fysiska personers känslor eller avsikter på grundval av deras biometriska uppgifter.

(34)

system för känsloigenkänning: ett AI-system vars syfte är att identifiera eller uttyda antingen enskilda personers eller gruppers känslor , tankar, sinnesstämningar eller avsikter på grundval av deras biometriska och biometribaserade uppgifter.

Ändring 192

Förslag till förordning

Artikel 3 – led 35

Kommissionens förslag

Ändring

(35)

system för biometrisk kategorisering: ett AI-system vars syfte är att hänföra fysiska personer till särskilda kategorier såsom kön, ålder, hårfärg, ögonfärg, tatueringar, etniskt ursprung eller sexuell eller politisk läggning , på grundval av deras biometriska uppgifter.

(35)

biometrisk kategorisering: att hänföra fysiska personer till särskilda kategorier , eller uttyda deras egenskaper och kännetecken , på grundval av deras biometriska eller biometribaserade uppgifter eller med hjälp av härledning från sådana uppgifter .

Ändring 193

Förslag till förordning

Artikel 3 – led 36

Kommissionens förslag

Ändring

(36)

system för biometrisk fjärridentifiering: ett AI-system vars syfte är att identifiera fysiska personer på distans genom jämförelse av en persons biometriska uppgifter med de biometriska uppgifterna i en referensdatabas, och utan att användaren av AI-systemet i förväg känner till huruvida personen kommer att vara närvarande och kan identifieras.

(36)

system för biometrisk fjärridentifiering: ett AI-system vars syfte är att identifiera fysiska personer på distans genom jämförelse av en persons biometriska uppgifter med de biometriska uppgifterna i en referensdatabas, och utan att användaren av AI-systemet i förväg känner till huruvida personen kommer att vara närvarande och kan identifieras , med undantag för verifieringssystem .

Ändring 194

Förslag till förordning

Artikel 3 – led 37

Kommissionens förslag

Ändring

(37)

system för biometrisk fjärridentifiering i realtid: ett system för biometrisk fjärridentifiering där insamling av biometriska uppgifter, jämförelse och identifiering sker utan betydande dröjsmål. Detta omfattar inte bara omedelbar identifiering, utan även begränsade korta fördröjningar för att undvika kringgående.

(37)

system för biometrisk fjärridentifiering i realtid: ett system för biometrisk fjärridentifiering där insamling av biometriska uppgifter, jämförelse och identifiering sker utan betydande dröjsmål. Detta omfattar inte bara omedelbar identifiering, utan även begränsade fördröjningar för att undvika kringgående.

Ändring 195

Förslag till förordning

Artikel 3 – led 39

Kommissionens förslag

Ändring

(39)

offentligt tillgänglig plats: varje fysisk plats som är tillgänglig för allmänheten, utan hänsyn till om vissa villkor för tillträde kan vara tillämpliga.

(39)

offentligt tillgänglig plats: varje offentligt eller privat ägd fysisk plats som är tillgänglig för allmänheten, utan hänsyn till om vissa villkor för tillträde kan vara tillämpliga , och utan hänsyn till eventuella kapacitetsbegränsningar .

Ändring 196

Förslag till förordning

Artikel 3 – led 41

Kommissionens förslag

Ändring

(41)

brottsbekämpning: verksamhet som genomförs av brottsbekämpande myndigheter för att förebygga, förhindra, utreda, avslöja eller lagföra brott eller verkställa straffrättsliga påföljder, inbegripet att skydda mot samt förebygga och förhindra hot mot den allmänna säkerheten.

(41)

brottsbekämpning: verksamhet som genomförs av brottsbekämpande myndigheter eller för deras räkning för att förebygga, förhindra, utreda, avslöja eller lagföra brott eller verkställa straffrättsliga påföljder, inbegripet att skydda mot samt förebygga och förhindra hot mot den allmänna säkerheten.

Ändring 197

Förslag till förordning

Artikel 3 – led 42

Kommissionens förslag

Ändring

(42)

nationell tillsynsmyndighet: den myndighet som av en medlemsstat tilldelas ansvaret för genomförandet och tillämpningen av denna förordning, för samordningen av den verksamhet som anförtrotts den medlemsstaten, för att fungera som gemensam kontaktpunkt för kommissionen och för att företräda medlemsstaten i  den europeiska nämnden för artificiell intelligens .

(42)

nationell tillsynsmyndighet: en offentlig (äf 69) myndighet som av en medlemsstat tilldelas ansvaret för genomförandet och tillämpningen av denna förordning, för samordningen av den verksamhet som anförtrotts den medlemsstaten, för att fungera som gemensam kontaktpunkt för kommissionen och för att företräda medlemsstaten i  AI-byråns styrelse .

Ändring 198

Förslag till förordning

Artikel 3 – led 43

Kommissionens förslag

Ändring

(43)

nationell behörig myndighet: den nationella tillsynsmyndigheten, den anmälande myndigheten och marknadskontrollmyndigheten .

(43)

nationell behörig myndighet: varje nationell myndighet som ansvarar för efterlevnaden av denna förordning .

Ändring 199

Förslag till förordning

Artikel 3 – led 44 – inledningen

Kommissionens förslag

Ändring

(44)

allvarlig incident: en incident som direkt eller indirekt orsakar, kan ha orsakat eller skulle kunna orsaka något av följande:

(44)

allvarlig incident: en incident eller funktionsstörning hos ett AI-system som direkt eller indirekt orsakar, kan ha orsakat eller skulle kunna orsaka något av följande:

(a)

Dödsfall eller allvarlig skada för en persons hälsa, på egendom eller miljön.

(a)

Dödsfall eller allvarlig skada för en persons hälsa.

(b)

En allvarlig störning av förvaltningen och driften av kritisk infrastruktur.

(b)

En allvarlig störning av förvaltningen och driften av kritisk infrastruktur.

 

(ba)

En kränkning av de grundläggande rättigheter som skyddas enligt unionsrätten.

 

(bb)

Allvarlig skada på egendom eller miljön.

Ändring 200

Förslag till förordning

Artikel 3 – led 44a (nytt)

Kommissionens förslag

Ändring

 

(44a)

personuppgifter: personuppgifter enligt definitionen i artikel 4.1 i förordning (EU) 2016/679.

Ändring 201

Förslag till förordning

Artikel 3 – led 44b (nytt)

Kommissionens förslag

Ändring

 

(44b)

icke-personuppgifter: andra uppgifter än personuppgifter.

Ändring 202

Förslag till förordning

Artikel 3 – led 44c (nytt)

Kommissionens förslag

Ändring

 

(44c)

profilering: varje form av automatisk behandling av personuppgifter enligt definitionen i artikel 4.4 i förordning (EU) 2016/679, eller, när det gäller brottsbekämpande myndigheter, i artikel 3.4 i direktiv (EU) 2016/680, eller, när det gäller unionens institutioner, organ eller byråer, i artikel 3.5 i förordning (EU) 2018/1725.

Ändring 203

Förslag till förordning

Artikel 3 – led 44d (nytt)

Kommissionens förslag

Ändring

 

(44d)

deepfake: manipulerat eller syntetiskt ljud-, bild- eller videoinnehåll som felaktigt framstår som autentiskt eller sanningsenligt och som innehåller bilder av människor som förefaller säga eller göra saker som de inte sagt eller gjort, och som framställts med hjälp av AI-teknik, inbegripet maskininlärning och djupinlärning.

Ändring 204

Förslag till förordning

Artikel 3 – led 44e (nytt)

Kommissionens förslag

Ändring

 

(44e)

utbredd överträdelse: varje handling eller underlåtenhet som strider mot unionsrätten och som skyddar enskilda personers intressen

 

(a)

som har skadat eller sannolikt kommer att skada de kollektiva intressena för enskilda personer som är bosatta i minst två andra medlemsstater än den där

 

 

(i)

handlingen eller underlåtenheten har sitt ursprung eller ägde rum,

 

 

(ii)

den berörda leverantören är etablerad eller, i tillämpliga fall, dess ombud är etablerat, eller

 

 

(iii)

användaren är etablerad, i de fall där överträdelsen begås av användaren,

 

(b)

som skyddar enskilda personers intressen, och som har orsakat, orsakar eller sannolikt kommer att orsaka skada på enskilda personers kollektiva intressen och som uppvisar gemensamma drag, till exempel genom att innebära bruk av samma olagliga metoder eller åsidosättande av samma intresse och som begås av samma aktör och begås samtidigt i minst tre medlemsstater.

Ändring 205

Förslag till förordning

Artikel 3 – led 44f (nytt)

Kommissionens förslag

Ändring

 

(44f)

utbredd överträdelse med en unionsdimension: en utbredd överträdelse som har skadat eller sannolikt kommer att skada enskilda personers kollektiva intressen i minst två tredjedelar av medlemsstaterna som tillsammans representerar minst två tredjedelar av unionens befolkning.

Ändring 206

Förslag till förordning

Artikel 3 – led 44g (nytt)

Kommissionens förslag

Ändring

 

(44g)

regulatorisk sandlåda: en kontrollerad miljö som inrättats av en offentlig myndighet och som underlättar säker utveckling, testning och validering av innovativa AI-system under en begränsad tid innan de släpps ut på marknaden eller tas i bruk i enlighet med en specifik plan under regulatorisk tillsyn.

Ändring 207

Förslag till förordning

Artikel 3 – led 44h (nytt)

Kommissionens förslag

Ändring

 

(44h)

kritisk infrastruktur: en tillgång, en anläggning, utrustning, ett nätverk eller ett system, eller en del av en tillgång, en anläggning, utrustning, ett nätverk eller ett system, som krävs för tillhandahållandet av en samhällsviktig tjänst i den mening som avses i artikel 2.4 i direktiv (EU) 2022/2557.

Ändring 208

Förslag till förordning

Artikel 3 – led 44k (nytt)

Kommissionens förslag

Ändring

 

(44k)

social poängsättning: utvärdering eller klassificering av fysiska personer på grundval av deras sociala beteende, socio-ekonomiska status eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper.

Ändring 209

Förslag till förordning

Artikel 3 – led 44l (nytt)

Kommissionens förslag

Ändring

 

(44l)

socialt beteende: det sätt på vilket en fysisk person interagerar med och påverkar andra fysiska personer eller samhället.

Ändring 210

Förslag till förordning

Artikel 3 – led 44m (nytt)

Kommissionens förslag

Ändring

 

(44m)

den bästa tekniken: den teknisk kapacitetens utvecklingsfas vid en viss tidpunkt när det gäller produkter, processer och tjänster, baserat på relevanta konsoliderade vetenskapliga, tekniska och erfarenhetsmässiga rön.

Ändring 211

Förslag till förordning

Artikel 3 – led 44n (nytt)

Kommissionens förslag

Ändring

 

(44n)

testning under verkliga förhållanden: tillfällig testning av ett AI-system för dess avsedda ändamål under verkliga förhållanden utanför ett laboratorium eller en på annat sätt simulerad miljö.

Ändring 212

Förslag till förordning

Artikel 4

Kommissionens förslag

Ändring

Artikel 4

utgår

Ändringar av bilaga I

 

Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 med avseende på att ändra förteckningen över de tekniker och metoder som förtecknas i bilaga I i syfte att uppdatera förteckningen så att den speglar marknadsutvecklingen och den tekniska utvecklingen på grundval av egenskaper som liknar de tekniker och metoder som förtecknas där.

 

Ändring 213

Förslag till förordning

Artikel 4a (ny)

Kommissionens förslag

Ändring

 

Artikel 4a

 

Allmänna principer som är tillämpliga på alla AI-system

 

1.     Alla operatörer som omfattas av denna förordning ska göra sitt yttersta för att utveckla och använda AI-system eller grundmodeller i enlighet med följande allmänna principer som fastställer en ram på hög nivå för att främja en enhetlig människocentrerad europeisk strategi för etisk och tillförlitlig artificiell intelligens, helt i linje med stadgan och de värden som ligger till grund för unionen:

 

(a)

Självständigt mänskligt agerande samt mänsklig tillsyn: AI-system ska utvecklas och användas som ett verktyg som tjänar människor, respekterar mänsklig värdighet och personlig självständighet, och ska fungera så att de på ett lämpligt sätt kan kontrolleras och övervakas av människor.

 

(b)

Teknisk robusthet och säkerhet: AI-system ska utvecklas och användas på ett sätt som minimerar oavsiktlig och oväntad skada samt vara robusta i händelse av oavsiktliga problem och resilienta mot försök att ändra AI-systemets användning eller prestanda för att möjliggöra olaglig användning från illasinnade tredje parters sida.

 

(c)

Integritet och dataförvaltning: AI-system ska utvecklas och användas i enlighet med befintliga integritets- och dataskyddsregler, samtidigt som data som uppfyller höga standarder i fråga om kvalitet och integritet behandlas.

 

(d)

Öppenhet: AI-system ska utvecklas och användas på ett sätt som möjliggör lämplig spårbarhet och förklarbarhet, samtidigt som människor informeras om att de kommunicerar eller interagerar med ett AI-system och användarna vederbörligen informeras om AI-systemets kapacitet och begränsningar och personer som påverkas informeras om sina rättigheter.

 

(e)

Mångfald, icke-diskriminering och rättvisa: AI-system ska utvecklas och användas på ett sätt som inkluderar olika aktörer och främjar lika tillgång, jämställdhet och kulturell mångfald, samtidigt som man undviker diskriminerande effekter och oskäliga snedvridningar som är förbjudna enligt unionsrätten eller nationell rätt.

 

(f)

Socialt och miljömässigt välbefinnande: AI-system ska utvecklas och användas på ett hållbart och miljövänligt sätt samt för att gynna alla människor, samtidigt som man övervakar och bedömer de långsiktiga effekterna för individen, samhället och demokratin.

 

2.     Punkt 1 påverkar inte de skyldigheter som fastställs i befintlig unionsrätt och nationell rätt. För AI-system med hög risk omsätts de allmänna principerna i, och efterlevs av leverantörer eller användare genom, de krav som anges i artiklarna 8–15 och de relevanta skyldigheter som fastställs i avdelning III kapitel 3 i denna förordning. För grundmodeller omsätts de allmänna principerna i, och efterlevs av leverantörer genom, de krav som anges i artiklarna 28–28b. För alla AI-system kan tillämpningen av de principer som avses i punkt 1, beroende på vad som är tillämpligt, uppnås genom bestämmelserna i artikel 28 eller artikel 52, eller genom tillämpning av de harmoniserade standarder, tekniska specifikationer och uppförandekoder som avses i artikel 69, utan att skapa nya skyldigheter enligt denna förordning.

 

3.     Kommissionen och AI-byrån ska införliva dessa vägledande principer i begäranden om standardisering samt rekommendationer som består av teknisk vägledning för att hjälpa leverantörer och användare att utveckla och använda AI-system. De europeiska standardiseringsorganisationerna ska betrakta de allmänna principer som avses i punkt 1 i denna artikel som resultatbaserade mål när de utarbetar lämpliga harmoniserade standarder för AI-system med hög risk enligt artikel 40.2b.

Ändring 214

Förslag till förordning

Artikel 4b (ny)

Kommissionens förslag

Ändring

 

Artikel 4b

 

AI-kunskaper

 

1.     Vid genomförandet av denna förordning ska unionen och medlemsstaterna främja åtgärder för utveckling av en tillräcklig nivå av AI-kunskaper i alla berörda sektorer och med hänsyn tagen till de olika behoven hos grupper av leverantörer, användare och berörda personer som påverkas, bland annat genom utbildnings-, kompetens- och omskolningsprogram, och samtidigt säkerställa vederbörlig balans mellan könen och mellan olika åldrar, i syfte att möjliggöra en demokratisk kontroll av AI-systemen.

 

2.     Leverantörer och användare av AI-system ska vidta åtgärder för att säkerställa att deras personal och andra personer som för deras räkning arbetar med drift och användning av AI-system har tillräckliga AI-kunskaper, med beaktande av deras tekniska kunskaper, erfarenhet och utbildning samt den miljö i vilken AI-systemen ska användas, och med beaktande av de personer eller grupper av personer på vilka AI-systemen ska tillämpas.

 

3.     Sådana kunskapsrelaterade åtgärder ska i synnerhet bestå av undervisning i grundläggande begrepp om och färdigheter rörande AI-system och deras funktion, inbegripet olika typer av produkter och användningsområden samt deras risker och fördelar.

 

4.     En tillräcklig nivå av AI-kunskaper är en nivå som vid behov bidrar till leverantörernas och användarnas förmåga att säkerställa efterlevnad och upprätthållande av denna förordning.

Ändring 215

Förslag till förordning

Artikel 5 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som använder subliminala tekniker som människor inte är medvetna om för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person.

(a)

Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som använder subliminala tekniker som människor inte är medvetna om eller avsiktligt manipulerande eller vilseledande tekniker som syftar eller leder till en väsentlig snedvridning av en persons eller en grupp av personers beteende genom att avsevärt försämra personens förmåga att fatta ett välgrundat beslut, vilket får personen att fatta ett beslut som den inte skulle ha fattat annars, på ett sätt som orsakar eller sannolikt kommer att orsaka betydande skada för den personen, en annan person eller en grupp av personer .

 

Förbudet enligt första stycket mot AI-system som använder subliminala tekniker ska inte tillämpas på AI-system som är avsedda att användas för godkända terapeutiska ändamål på grundval av specifikt informerat samtycke från de personer som exponeras för dem eller, i tillämpliga fall, från deras förmyndare.

Ändring 216

Förslag till förordning

Artikel 5 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som utnyttjar någon sårbarhet , som härrör från ålder eller fysisk eller psykisk funktionsnedsättning, hos en specifik grupp av personer , för att väsentligt snedvrida beteendet hos en person som tillhör den gruppen på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person.

(b)

Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som utnyttjar någon sårbarhet hos en person eller en specifik grupp av personer , inklusive egenskaper i en sådan persons eller en sådan grupps kända eller förutsedda personlighetsrelaterade uppsättning egenskaper eller sociala eller ekonomiska situation, ålder eller fysiska eller psykiska förmåga, på ett sätt som syftar eller leder till en väsentlig snedvridning av beteendet hos personen i fråga eller en person som tillhör den gruppen så att det orsakar eller sannolikt kommer att orsaka betydande skada för den personen eller en annan person.

Ändring 217

Förslag till förordning

Artikel 5 – punkt 1 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

Utsläppande på marknaden, ibruktagande eller användning av system för biometrisk kategorisering som kategoriserar fysiska personer efter känsliga eller skyddade kännetecken eller egenskaper eller genom att dessa kännetecken eller egenskaper uttyds. Detta förbud ska inte tillämpas på AI-system som är avsedda att användas för godkända terapeutiska ändamål på grundval av specifikt informerat samtycke från de personer som exponeras för dem eller, i tillämpliga fall, från deras förmyndare.

Ändring 218

Förslag till förordning

Artikel 5 – punkt 1 – led c – inledningen

Kommissionens förslag

Ändring

(c)

Utsläppande på marknaden, ibruktagande eller användning av AI-system av offentliga myndigheter eller på deras vägnar för utvärdering eller klassificering av fysiska personers pålitlighet under en viss tidsperiod på grundval av deras sociala beteende eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper, med en social poängsättning som leder till det ena eller båda av följande:

(c)

Utsläppande på marknaden, ibruktagande eller användning av AI-system för social poängsättning, utvärdering eller klassificering av fysiska personer eller grupper av fysiska personer under en viss tidsperiod på grundval av deras sociala beteende eller kända , uttydda eller förutsedda personliga eller personlighetsrelaterade egenskaper, med en social poängsättning som leder till det ena eller båda av följande:

Ändring 219

Förslag till förordning

Artikel 5 – punkt 1 – led c – led i

Kommissionens förslag

Ändring

i)

Skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer i sociala sammanhang som saknar koppling till de sammanhang i vilka berörda data ursprungligen genererades eller samlades in.

(Berör inte den svenska versionen.)

Ändring 220

Förslag till förordning

Artikel 5 – punkt 1 – led d – inledningen

Kommissionens förslag

Ändring

(d)

Användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål, såvida inte och endast i den mån sådan användning är absolut nödvändig för något av följande syften:

(d)

Användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser.

Ändring 221

Förslag till förordning

Artikel 5 – punkt 1 – led d – led i

Kommissionens förslag

Ändring

i)

Målinriktad sökning efter specifika potentiella brottsoffer, inbegripet försvunna barn.

utgår

Ändring 222

Förslag till förordning

Artikel 5 – punkt 1 – led d – led ii

Kommissionens förslag

Ändring

ii)

Förhindrande av ett specifikt, betydande och överhängande hot mot fysiska personers liv eller fysiska säkerhet eller förhindrande av en terroristattack.

utgår

Ändring 223

Förslag till förordning

Artikel 5 – punkt 1 – led d – led iii

Kommissionens förslag

Ändring

iii)

Avslöjande, lokalisering, identifiering eller lagföring av en gärningsman eller misstänkt vid brott som avses i artikel 2.2 i rådets rambeslut 2002/584/RIF  (62) och som i den berörda medlemsstaten kan leda till fängelsestraff eller annan frihetsberövande åtgärd för en maxperiod av minst tre år, i enlighet med den medlemsstatens lagstiftning.

utgår

Ändring 224

Förslag till förordning

Artikel 5 – punkt 1 – led da (nytt)

Kommissionens förslag

Ändring

 

(da)

Utsläppande på marknaden, ibruktagande eller användning av AI-system för att utföra individuella riskbedömningar av fysiska personer eller grupper av fysiska personer i syfte att bedöma risken för att en fysisk person begår brott eller återfaller i brottslighet eller för att förutse förekomst eller upprepning av ett faktiskt eller potentiellt brott, även ett brott av administrativ art, baserat på profilering av en fysisk person eller på bedömningen av fysiska personers eller en grupp av fysiska personers personliga egenskaper och kännetecken – inbegripet personernas belägenhet – eller tidigare brottsliga beteende.

Ändring 225

Förslag till förordning

Artikel 5 – punkt 1 – led db (nytt)

Kommissionens förslag

Ändring

 

(db)

Utsläppande på marknaden, ibruktagande eller användning av AI-system som skapar eller utvidgar databaser för ansiktsigenkänning genom oriktad skrapning av ansiktsbilder från internet eller övervakningskameror.

Ändring 226

Förslag till förordning

Artikel 5 – punkt 1 – led dc (nytt)

Kommissionens förslag

Ändring

 

(dc)

Utsläppande på marknaden, ibruktagande eller användning av AI-system för att uttyda en fysisk persons känslor på områdena brottsbekämpning, gränsförvaltning, arbetsplatser och utbildningsinstitutioner.

Ändring 227

Förslag till förordning

Artikel 5 – punkt 1 – led dd (nytt)

Kommissionens förslag

Ändring

 

(dd)

Ibruktagande eller användning av AI-system för analys av registrerade bilder av allmänt tillgängliga platser genom system för biometrisk fjärridentifiering ”i efterhand”, såvida de inte omfattas av ett administrativt tillstånd i enlighet med unionsrätten och är strikt nödvändiga, i brottsbekämpningssyfte, för den riktade sökning som är kopplad till ett specifikt allvarligt brott enligt definitionen i artikel 83.1 i EUF-fördraget vilket redan har ägt rum.

Ändring 228

Förslag till förordning

Artikel 5 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Denna artikel ska inte påverka de förbud som gäller när en praxis för artificiell intelligens strider mot annan unionsrätt, inbegripet unionsrätt om dataskydd, icke-diskriminering, konsumentskydd eller konkurrens.

Ändring 229

Förslag till förordning

Artikel 5 – punkt 2

Kommissionens förslag

Ändring

2.     Vid användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål för något av de syften som avses i punkt 1 d ska följande faktorer beaktas:

utgår

(a)

Arten av den situation som ger upphov till den eventuella användningen, särskilt vad gäller hur allvarlig och omfattande skadan blir, och sannolikheten för att den uppstår om systemet inte används.

 

(b)

Konsekvenserna av användningen av systemet för alla berörda personers rättigheter och friheter, särskilt vad gäller hur allvarliga, sannolika och omfattande dessa konsekvenser är.

 

Dessutom ska användningen system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål för något av de syften som avses i punkt 1 d vara förenlig med nödvändiga och proportionella skyddsåtgärder och villkor avseende användningen, särskilt vad gäller tidsmässiga och geografiska begränsningar samt personbegränsningar.

 

Ändring 230

Förslag till förordning

Artikel 5 – punkt 3

Kommissionens förslag

Ändring

3.     När det gäller punkterna 1 d och 2 ska det för varje enskild användning för brottsbekämpningsändamål av ett system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser krävas ett förhandstillstånd från en rättslig myndighet eller en oberoende administrativ myndighet i den medlemsstat där användningen ska äga rum, utfärdat på motiverad begäran och i enlighet med de närmare bestämmelser i nationell lagstiftning som avses i punkt 4. I vederbörligen motiverade brådskande situationer får dock användningen av systemet påbörjas utan tillstånd och tillståndet får då begäras under eller efter användningen.

utgår

Den behöriga rättsliga eller administrativa myndigheten ska bevilja tillståndet endast om den, på grundval av objektiva bevis eller tydliga indikationer som lagts fram för den, har förvissat sig om att användningen av det aktuella systemet för biometrisk fjärridentifiering i realtid är nödvändig och proportionerlig för att uppnå ett av de syften som anges i punkt 1 d, i enlighet med vad som anges i begäran. Vid beslut om begäran ska den behöriga rättsliga eller administrativa myndigheten beakta de faktorer som avses i punkt 2.

 

Ändring 231

Förslag till förordning

Artikel 5 – punkt 4

Kommissionens förslag

Ändring

4.     En medlemsstat får besluta att föreskriva en möjlighet att helt eller delvis tillåta användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål inom de gränser och på de villkor som anges i punkterna 1 d, 2 och 3. Den medlemsstaten ska i sin nationella lagstiftning fastställa de nödvändiga detaljerade reglerna för begäran om, utfärdande av och användning av, samt utövande av tillsyn över, de tillstånd som avses i punkt 3. I dessa regler ska det också anges för vilka av de syften som förtecknas i punkt 1 d, inbegripet vilka av de brott som avses i led iii i punkten, de behöriga myndigheterna kan få tillstånd att använda dessa system för brottsbekämpningsändamål.

utgår

Ändring 232

Förslag till förordning

Artikel 6 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

AI-systemet är avsett att användas som en säkerhetskomponent i en produkt, eller är i sig en produkt, som omfattas av den unionslagstiftning om harmonisering som förtecknas i bilaga II.

(a)

AI-systemet är avsett att användas som en säkerhetskomponent i en produkt, eller AI-systemet är i sig en produkt, som omfattas av unionens harmoniseringslagstiftning enligt förteckningen i bilaga II.

Ändring 233

Förslag till förordning

Artikel 6 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

Den produkt vars säkerhetskomponent är AI-systemet, eller själva AI-systemet som en produkt, måste genomgå en tredjepartsbedömning av överensstämmelse för att den produkten ska kunna släppas ut på marknaden eller tas i bruk i enlighet med den unionslagstiftning om harmonisering som förtecknas i bilaga II.

(b)

Den produkt vars säkerhetskomponent enligt led a är AI-systemet, eller själva AI-systemet som en produkt, måste genomgå en tredjepartsbedömning av överensstämmelse med avseende på hälso- och säkerhetsriskerna för att den produkten ska kunna släppas ut på marknaden eller tas i bruk i enlighet med unionens harmoniseringslagstiftning enligt förteckningen i bilaga II.

Ändring 234

Förslag till förordning

Artikel 6 – punkt 2

Kommissionens förslag

Ändring

2.   Utöver de AI-system med hög risk som avses i punkt 1 ska AI-system som avses i bilaga III också betraktas som högrisksystem.

2.   Utöver de AI-system med hög risk som avses i punkt 1 ska AI-system som omfattas av ett eller flera av de kritiska områden och användningsfall som avses i bilaga III betraktas som högrisksystem om de utgör en betydande risk för skada på fysiska personers hälsa, säkerhet eller grundläggande rättigheter . Om ett AI-system omfattas av led 2 i bilaga III ska det betraktas som högrisksystem om det utgör en betydande risk för skada på miljön.

 

Kommissionen ska sex månader innan denna förordning träder i kraft, efter samråd med AI-byrån och relevanta berörda parter, tillhandahålla riktlinjer som tydligt anger under vilka omständigheter utdata från AI-system som avses i bilaga III skulle utgöra en betydande risk för skada på fysiska personers hälsa, säkerhet eller grundläggande rättigheter eller situationer där detta inte skulle vara fallet.

Ändring 235

Förslag till förordning

Artikel 6 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Om leverantörer som omfattas av ett eller flera av de kritiska områden och användningsfall som avses i bilaga III anser att deras AI-system inte utgör en betydande risk enligt beskrivningen i punkt 2, ska de lämna en motiverad anmälan till den nationella tillsynsmyndigheten om att de inte omfattas av kraven i avdelning III kapitel 2 i denna förordning. Om AI-systemet är avsett att användas i två eller flera medlemsstater ska denna anmälan riktas till AI-byrån. Utan att det påverkar tillämpningen av artikel 65 ska den nationella tillsynsmyndigheten granska och besvara anmälan, direkt eller via AI-byrån, inom tre månader om den anser att AI-systemet är felaktigt klassificerat.

Ändring 236

Förslag till förordning

Artikel 6 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2b.     Leverantörer som felaktigt klassificerar sitt AI-system så att det inte omfattas av kraven i avdelning III kapitel 2 i denna förordning och släpper ut det på marknaden före tidsfristen för invändningar från nationella tillsynsmyndigheter ska bli föremål för sanktionsavgifter i enlighet med artikel 71.

Ändring 237

Förslag till förordning

Artikel 6 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2c.     De nationella tillsynsmyndigheterna ska lämna in en årlig rapport till AI-byrån med uppgifter om antalet mottagna anmälningar, de relaterade högriskområden som står på spel och de beslut som fattats om mottagna anmälningar.

Ändring 238

Förslag till förordning

Artikel 7 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 med avseende på att uppdatera förteckningen i bilaga III genom att lägga till AI-system med hög risk om båda följande villkor är uppfyllda:

1.   Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 med avseende på att ändra bilaga III genom att lägga till eller ändra områden eller användningsfall för AI-system med hög risk , om dessa medför en risk för skada på hälsa och säkerhet eller en risk för negativ inverkan på de grundläggande rättigheterna, miljön, demokratin eller rättsstatsprincipen, och om den risken, med avseende på hur allvarlig och sannolik den är, är likvärdig med eller större än risken för skada eller negativ inverkan till följd av de AI-system med hög risk som redan avses i bilaga III .

Ändring 239

Förslag till förordning

Artikel 7 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

AI-systemen är avsedda att användas inom något av de områden som förtecknas i punkterna 1–8 i bilaga III.

utgår

Ändring 240

Förslag till förordning

Artikel 7 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

AI-systemen utgör en risk för skada på hälsa och säkerhet, eller en risk för negativ inverkan på grundläggande rättigheter, med beaktande av skadans allvarlighetsgrad och sannolikheten för att den ska uppstå, som är likvärdig med eller större än den risk för skada eller negativ inverkan som förorsakas av de AI-system med hög risk som redan nämns i bilaga III.

utgår

Ändring 241

Förslag till förordning

Artikel 7 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Kommissionen ges även befogenhet att anta delegerade akter i enlighet med artikel 73 med avseende på att stryka användningsfall för AI-system med hög risk från förteckningen i bilaga III om de villkor som avses i punkt 1 inte längre är tillämpliga.

Ändring 242

Förslag till förordning

Artikel 7 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.   Vid tillämpningen av punkt 1 ska kommissionen beakta följande kriterier när den bedömer om ett AI-system utgör en risk för skada på hälsa och säkerhet eller en risk för negativ inverkan på grundläggande rättigheter som är likvärdig med eller större än den risk för skada som skapas av de AI-system med hög risk som redan nämns i bilaga III :

2.   Vid tillämpningen av punkterna 1 och 1a ska kommissionen beakta följande kriterier när den bedömer ett AI-system:

Ändring 243

Förslag till förordning

Artikel 7 – punkt 2 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

AI-systemets allmänna kapacitet och funktioner, oberoende av dess avsedda ändamål.

Ändring 244

Förslag till förordning

Artikel 7 – punkt 2 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

Typen och mängden data som behandlas och används av AI-systemet.

Ändring 245

Förslag till förordning

Artikel 7 – punkt 2 – led bb (nytt)

Kommissionens förslag

Ändring

 

(bb)

I vilken utsträckning AI-systemet agerar självständigt.

Ändring 246

Förslag till förordning

Artikel 7 – punkt 2 – led c

Kommissionens förslag

Ändring

(c)

I vilken utsträckning användningen av ett AI-system redan har orsakat skada på hälsa och säkerhet eller negativ inverkan på de grundläggande rättigheterna eller har gett upphov till betydande farhågor när det gäller uppkomsten av sådan skada eller negativ inverkan, såsom framgår av rapporter eller dokumenterade anklagelser som lämnats till nationella behöriga myndigheter .

(c)

I vilken utsträckning användningen av ett AI-system redan har orsakat skada på hälsa och säkerhet , har haft negativ inverkan på de grundläggande rättigheterna , miljön, demokratin och rättsstatsprincipen eller har gett upphov till betydande farhågor när det gäller sannolikheten för sådan skada eller negativ inverkan, såsom framgår av till exempel rapporter eller dokumenterade anklagelser som lämnats till nationella tillsynsmyndigheter, kommissionen, AI-byrån, EDPS eller Europeiska unionens byrå för grundläggande rättigheter .

Ändring 247

Förslag till förordning

Artikel 7 – punkt 2 – led d

Kommissionens förslag

Ändring

(d)

Den potentiella omfattningen av sådan skada eller sådan negativ inverkan, särskilt i fråga om intensitet och förmåga att påverka en stor mängd personer.

(d)

Den potentiella omfattningen av sådan skada eller sådan negativ inverkan, särskilt i fråga om intensitet och förmåga att påverka en stor mängd personer eller att i oproportionerlig utsträckning påverka en viss grupp av personer .

Ändring 248

Förslag till förordning

Artikel 7 – punkt 2 – led e

Kommissionens förslag

Ändring

(e)

I vilken utsträckning potentiellt skadade eller negativt påverkade personer är beroende av det resultat som producerats med ett AI-system, särskilt eftersom det av praktiska eller juridiska skäl inte rimligen är möjligt att undantas från detta resultat .

(e)

I vilken utsträckning potentiellt skadade eller negativt påverkade personer är beroende av de utdata som producerats med hjälp av ett AI-system, och dessa utdata är enbart accessoriska med avseende på den relevanta åtgärd som ska vidtas eller det relevanta beslut som ska fattas, särskilt eftersom det av praktiska eller juridiska skäl inte rimligen är möjligt att undantas från dessa utdata .

Ändring 249

Förslag till förordning

Artikel 7 – punkt 2 – led ea (nytt)

Kommissionens förslag

Ändring

 

(ea)

Potentiell felaktig användning och skadlig användning av AI-systemet och av den teknik som ligger till grund för det.

Ändring 250

Förslag till förordning

Artikel 7 – punkt 2 – led f

Kommissionens förslag

Ändring

(f)

I vilken utsträckning potentiellt skadade eller negativt påverkade personer befinner sig i ett utsatt läge i förhållande till användaren av ett AI-system, särskilt på grund av en obalans i fråga om makt , kunskap, ekonomiska eller sociala omständigheter eller ålder.

(f)

I vilken utsträckning det föreligger en obalans i fråga om makt, eller potentiellt skadade eller negativt påverkade personer befinner sig i ett utsatt läge i förhållande till användaren av ett AI-system, särskilt på grund av status, behörighet, kunskap, ekonomiska eller sociala omständigheter eller ålder.

Ändring 251

Förslag till förordning

Artikel 7 – punkt 2 – led g

Kommissionens förslag

Ändring

(g)

I vilken utsträckning det resultat som produceras med ett AI-system är lätt att upphäva, varvid resultat som påverkar människors hälsa eller säkerhet inte ska anses vara lätta att upphäva.

(g)

I vilken utsträckning det resultat som produceras med hjälp av ett AI-system är lätt att upphäva eller åtgärda , varvid resultat som påverkar människors hälsa, säkerhet eller grundläggande rättigheter, miljön, demokratin eller rättsstatsprincipen negativt inte ska anses vara lätta att upphäva.

Ändring 252

Förslag till förordning

Artikel 7 – punkt 2 – led ga (nytt)

Kommissionens förslag

Ändring

 

(ga)

Omfattningen av tillgången till och användningen av ändamålsenliga tekniska lösningar och mekanismer för AI-systemets kontroll, tillförlitlighet och korrigerbarhet.

Ändring 253

Förslag till förordning

Artikel 7 – punkt 2 – led gb (nytt)

Kommissionens förslag

Ändring

 

(gb)

Omfattningen av och sannolikheten för nyttan med användningen av AI-systemet för enskilda personer, grupper eller samhället i stort, inbegripet eventuella förbättringar av produktsäkerheten.

Ändring 254

Förslag till förordning

Artikel 7 – punkt 2 – led gc (nytt)

Kommissionens förslag

Ändring

 

(gc)

Omfattningen av mänsklig tillsyn och möjligheten för en människa att ingripa för att åsidosätta ett beslut eller rekommendationer som kan leda till potentiell skada.

Ändring 255

Förslag till förordning

Artikel 7 – punkt 2 – led h

Kommissionens förslag

Ändring

i)

effektiva åtgärder för rättslig prövning med hänsyn till de risker som ett AI-system medför , med undantag för skadeståndsanspråk,

(h)

I vilken utsträckning befintlig unionslagstiftning föreskriver

 

 

i)

effektiva åtgärder för rättslig prövning med hänsyn till de skador som ett AI-system orsakar , med undantag för skadeståndsanspråk för direkta eller indirekta skador ,

 

 

ii)

effektiva åtgärder för att förebygga eller avsevärt minimera dessa risker.

Ändring 256

Förslag till förordning

Artikel 7 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     När kommissionen bedömer ett AI-system vid tillämpning av punkt 1 eller 1a ska den samråda med AI-byrån och, i förekommande fall, företrädare för grupper som påverkas av ett AI-system, industrin, oberoende experter, arbetsmarknadens parter och organisationer i det civila samhället. Kommissionen ska också anordna offentliga samråd i detta avseende och offentliggöra resultaten av dessa samråd och den slutliga bedömningen.

Ändring 257

Förslag till förordning

Artikel 7 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2b.     AI-byrån, de nationella tillsynsmyndigheterna eller Europaparlamentet får begära att kommissionen gör en ny bedömning och en ny riskkategorisering av ett AI-system i enlighet med punkterna 1 och 1a. Kommissionen ska motivera sitt beslut och offentliggöra motiveringen.

Ändring 258

Förslag till förordning

Artikel 8 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Vid uppfyllandet av det krav som fastställs i detta kapitel ska vederbörlig hänsyn tas till riktlinjer som utarbetas enligt artikel 82b och den allmänt erkända bästa tekniken, inbegripet såsom det återspeglas i de relevanta harmoniserade standarder och gemensamma specifikationer som avses i artiklarna 40 och 41 eller de som redan anges i unionens harmoniseringslagstiftning.

Ändring 259

Förslag till förordning

Artikel 8 – punkt 2

Kommissionens förslag

Ändring

2.   Det avsedda ändamålet med AI-systemet med hög risk och det riskhanteringssystem som avses i artikel 9 ska beaktas när uppfyllelsen av dessa krav säkerställs.

2.   Det avsedda ändamålet med AI-systemet med hög risk , rimligen förutsebara felaktiga användningar och det riskhanteringssystem som avses i artikel 9 ska beaktas när uppfyllelsen av dessa krav säkerställs.

Ändring 260

Förslag till förordning

Artikel 8 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Så länge kraven i avdelning III kapitlen 2 och 3 eller avdelning VIII kapitlen 1, 2 och 3 för AI-system med hög risk omfattas av unionens harmoniseringslagstiftning enligt förteckningen i bilaga II avsnitt A, ska kraven eller skyldigheterna i dessa kapitel i denna förordning anses vara uppfyllda så länge de omfattar AI-komponenten. Krav i avdelning III kapitlen 2 och 3 eller avdelning VIII kapitlen 1, 2 och 3 för AI-system med hög risk som inte omfattas av unionens harmoniseringslagstiftning enligt förteckningen i bilaga II avsnitt A ska i tillämpliga fall införlivas i unionens harmoniseringslagstiftning i fråga. Den relevanta bedömningen av överensstämmelse ska utföras som en del av de förfaranden som fastställs i unionens harmoniseringslagstiftning enligt förteckningen i bilaga II avsnitt A.

Ändring 261

Förslag till förordning

Artikel 9 – punkt 1

Kommissionens förslag

Ändring

1.   Ett riskhanteringssystem ska inrättas, genomföras, dokumenteras och underhållas för AI-system med hög risk.

1.   Ett riskhanteringssystem ska inrättas, genomföras, dokumenteras och underhållas för AI-system med hög risk under AI-systemets hela livscykel . Riskhanteringssystemet kan integreras i, eller utgöra en del av, redan befintliga riskhanteringsförfaranden med anknytning till relevant sektorsspecifik unionsrätt i den mån det uppfyller kraven i denna artikel.

Ändring 262

Förslag till förordning

Artikel 9 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.   Riskhanteringssystemet ska bestå av en kontinuerlig iterativ process som löper under hela livscykeln för ett AI-system med hög risk, med krav på regelbunden och systematisk uppdatering. Det skall innehålla följande steg:

2.   Riskhanteringssystemet ska bestå av en kontinuerlig iterativ process som löper under hela livstiden för ett AI-system med hög risk, med krav på regelbunden översyn och uppdatering av riskhanteringsprocessen, för att säkerställa dess fortlöpande ändamålsenlighet, samt dokumentation av eventuella betydande beslut som fattas och motsvarande åtgärder som vidtas enligt denna artikel . Det skall innehålla följande steg:

Ändring 263

Förslag till förordning

Artikel 9 – punkt 2 – led a

Kommissionens förslag

Ändring

(a)

Identifiering och analys av kända och förutsebara risker förbundna med varje AI-system med hög risk.

(a)

Identifiering , uppskattning och utvärdering av kända och rimligen förutsebara risker som AI-systemet med hög risk kan utgöra för fysiska personers hälsa eller säkerhet, deras grundläggande rättigheter, inbegripet lika tillgång och möjligheter, demokratin och rättsstatsprincipen eller miljön när AI-systemet med hög risk används i enlighet med sitt avsedda ändamål och under förhållanden där det kan förekomma rimligen förutsebar felaktig användning .

Ändring 264

Förslag till förordning

Artikel 9 – punkt 2 – led b

Kommissionens förslag

Ändring

(b)

Uppskattning och utvärdering av de risker som kan uppstå när AI-systemet med hög risk används i enlighet med dess avsedda ändamål och under förhållanden där det kan förekomma rimligen förutsebar felaktig användning.

utgår

Ändring 265

Förslag till förordning

Artikel 9 – punkt 2 – led c

Kommissionens förslag

Ändring

(c)

Utvärdering av andra risker som eventuellt kan uppstå på grundval av en analys av data som samlats in från det system för övervakning efter utsläppande på marknaden som avses i artikel 61.

(c)

Utvärdering av nya betydande risker enligt beskrivningen i led a som identifierats på grundval av en analys av data som samlats in från det system för övervakning efter utsläppande på marknaden som avses i artikel 61.

Ändring 266

Förslag till förordning

Artikel 9 – punkt 2 – led d

Kommissionens förslag

Ändring

(d)

Antagande av lämpliga riskhanteringsåtgärder i enlighet med bestämmelserna i följande punkter.

(d)

Antagande av lämpliga och riktade riskhanteringsåtgärder för att hantera de risker som identifierats enligt leden a och b i denna punkt, i enlighet med bestämmelserna i följande punkter.

Ändring 267

Förslag till förordning

Artikel 9 – punkt 3

Kommissionens förslag

Ändring

3.   I de riskhanteringsåtgärder som avses i punkt 2 d ska vederbörlig hänsyn tas till de effekter och möjliga interaktioner som följer av den kombinerade tillämpningen av kraven i detta kapitel 2. De ska ta hänsyn till den allmänt erkända bästa tekniken, inbegripet såsom den avspeglas i relevanta harmoniserade standarder eller gemensamma specifikationer.

3.   I de riskhanteringsåtgärder som avses i punkt 2 d ska vederbörlig hänsyn tas till de effekter och möjliga interaktioner som följer av den kombinerade tillämpningen av kraven i detta kapitel 2 , i syfte att begränsa riskerna effektivt och samtidigt säkerställa ett lämpligt och proportionellt genomförande av kraven .

Ändring 268

Förslag till förordning

Artikel 9 – punkt 4 – stycke 1

Kommissionens förslag

Ändring

4.   De riskhanteringsåtgärder som avses i punkt 2 d ska vara sådana att eventuella kvarvarande risker förknippade med varje fara samt den totala kvarvarande risken i AI-systemen med hög risk bedöms vara acceptabla, förutsatt att AI-systemet med hög risk används i enlighet med sitt avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning. Dessa kvarvarande risker ska meddelas användaren.

4.   De riskhanteringsåtgärder som avses i punkt 2 d ska vara sådana att relevanta kvarvarande risker förknippade med varje fara samt den totala kvarvarande risken i AI-systemen med hög risk rimligen bedöms vara acceptabla, förutsatt att AI-systemet med hög risk används i enlighet med sitt avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning. Dessa kvarvarande risker och de motiverade bedömningar som gjorts ska meddelas användaren.

 

Vid fastställandet av de lämpligaste riskhanteringsåtgärderna ska följande säkerställas:

Ändring 269

Förslag till förordning

Artikel 9 – punkt 4 – stycke 2 – led a

Kommissionens förslag

Ändring

(a)

Eliminering eller minskning av risker så långt som möjligt genom lämplig konstruktion och utveckling.

(a)

Eliminering eller minskning av identifierade risker så långt som det är tekniskt genomförbart genom lämplig konstruktion och utveckling av AI-systemet med hög risk, om relevant med medverkan av experter och externa berörda parter .

Ändring 270

Förslag till förordning

Artikel 9 – punkt 4 – stycke 2 – led b

Kommissionens förslag

Ändring

(b)

När det är lämpligt, genomförande av lämpliga åtgärder för att begränsa och bemästra risker som inte kan elimineras.

(b)

När det är lämpligt, genomförande av lämpliga åtgärder för att begränsa och bemästra betydande risker som inte kan elimineras.

Ändring 271

Förslag till förordning

Artikel 9 – punkt 4 – stycke 2 – led c

Kommissionens förslag

Ändring

(c)

Tillhandahållande av tillräcklig information enligt artikel 13 , särskilt när det gäller de risker som avses i punkt 2 b i denna artikel och, i förekommande fall, utbildning för användare.

(c)

Tillhandahållande av erforderlig information enligt artikel 13 och, i förekommande fall, utbildning för användare.

Ändring 272

Förslag till förordning

Artikel 9 – punkt 4 – stycke 3

Kommissionens förslag

Ändring

När risker i samband med användningen av AI-systemet med hög risk elimineras eller minskas ska vederbörlig hänsyn tas till den tekniska kunskap, erfarenhet och utbildning som användaren förväntas ha och den miljö där systemet är avsett att användas .

När risker i samband med användningen av AI-systemet med hög risk elimineras eller minskas ska leverantörerna ta vederbörlig hänsyn till den tekniska kunskap, erfarenhet och utbildning som användaren kan behöva, även i förhållande till användningens förmodade sammanhang .

Ändring 273

Förslag till förordning

Artikel 9 – punkt 5

Kommissionens förslag

Ändring

5.   AI-system med hög risk ska testas i syfte att identifiera de lämpligaste riskhanteringsåtgärderna. Testerna ska säkerställa att AI-system med hög risk fungerar konsekvent för sitt avsedda ändamål och att de uppfyller kraven i detta kapitel.

5.   AI-system med hög risk ska utvärderas i syfte att identifiera de lämpligaste och bäst riktade riskhanteringsåtgärderna och väga alla sådana åtgärder mot systemets potentiella fördelar och avsedda mål . Testerna ska säkerställa att AI-system med hög risk fungerar konsekvent för sitt avsedda ändamål och att de uppfyller kraven i detta kapitel.

Ändring 274

Förslag till förordning

Artikel 9 – punkt 6

Kommissionens förslag

Ändring

6.   Testförfarandena ska vara lämpliga för att uppnå det avsedda ändamålet med AI-systemet och behöver inte gå utöver vad som är nödvändigt för att uppnå detta ändamål .

6.   Testförfarandena ska vara lämpliga för att uppnå det avsedda ändamålet med AI-systemet.

Ändring 275

Förslag till förordning

Artikel 9 – punkt 7

Kommissionens förslag

Ändring

7.   Testning av AI-systemen med hög risk ska utföras , beroende på vad som är lämpligt, när som helst under hela utvecklingsprocessen och i alla händelser innan de släpps ut på marknaden eller tas i bruk. Testning ska utföras på grundval av i förväg definierade mått och sannolikhetsgränser som är lämpliga för det avsedda ändamålet med AI-systemet med hög risk.

7.   Testning av AI-systemen med hög risk ska utföras innan de släpps ut på marknaden eller tas i bruk. Testning ska utföras på grundval av i förväg definierade mått och sannolikhetsgränser som är lämpliga för det avsedda ändamålet med eller rimligen förutsebar felaktig användning av AI-systemet med hög risk.

Ändring 276

Förslag till förordning

Artikel 9 – punkt 8

Kommissionens förslag

Ändring

8.   Vid genomförandet av det riskhanteringssystem som beskrivs i punkterna 1–7 ska särskild hänsyn tas till huruvida barn sannolikt kommer att ha tillgång till eller påverkas av AI-systemet med hög risk.

8.   Vid genomförandet av det riskhanteringssystem som beskrivs i punkterna 1–7 ska leverantörerna ta särskild hänsyn tas till huruvida AI-systemet med hög risk sannolikt kommer att påverka utsatta grupper av människor eller barn negativt .

Ändring 277

Förslag till förordning

Artikel 9 – punkt 9

Kommissionens förslag

Ändring

9.   För kreditinstitut som regleras genom direktiv 2013/36/EU ska de aspekter som beskrivs i punkterna 1–8 ingå i de riskhanteringsförfaranden som dessa institut fastställer enlighet med artikel 74 i det direktivet .

9.   För leverantörer och AI-system som redan omfattas av unionsrätt som ålägger dem att upprätta specifik riskhantering, inbegripet kreditinstitut som regleras genom direktiv 2013/36/EU, ska de aspekter som beskrivs i punkterna 1–8 ingå i  eller kombineras med de riskhanteringsförfaranden som fastställs unionsrätten i fråga .

Ändring 278

Förslag till förordning

Artikel 10 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system med hög risk som använder teknik som inbegriper träning av modeller med data ska utvecklas på grundval av tränings-, validerings- och testningsdataset som uppfyller de kvalitetskriterier som avses i punkterna 2–5.

1.   AI-system med hög risk som använder teknik som inbegriper träning av modeller med data ska utvecklas på grundval av tränings-, validerings- och testningsdataset som uppfyller de kvalitetskriterier som avses i punkterna 2–5 i den mån detta är tekniskt genomförbart i enlighet med det specifika marknadssegmentet eller tillämpningsområdet .

 

Tekniker som inte kräver märkta indata, såsom oövervakad inlärning och förstärkt inlärning, ska utvecklas på grundval av dataset – till exempel för testning och kontroll – som uppfyller de kvalitetskriterier som avses i punkterna 2–5.

Ändring 279

Förslag till förordning

Artikel 10 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.   Tränings-, validerings- och testningsdataset ska omfattas av ändamålsenliga metoder för dataförvaltning och datahantering . Dessa metoder ska särskilt avse

2.   Tränings-, validerings- och testningsdataset ska omfattas av dataförvaltning som är lämplig för användningens sammanhang och AI-systemets avsedda ändamål . Dessa åtgärder ska särskilt avse

Ändring 280

Förslag till förordning

Artikel 10 – punkt 2 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

transparens vad gäller det ursprungliga syftet med datainsamling,

Ändring 281

Förslag till förordning

Artikel 10 – punkt 2 – led b

Kommissionens förslag

Ändring

(b)

datainsamling ,

(b)

datainsamlingsprocesser ,

Ändring 282

Förslag till förordning

Artikel 10 – punkt 2 – led c

Kommissionens förslag

Ändring

(c)

relevanta åtgärder för datapreparering, såsom annotation, märkning, uppstädning, förädling och aggregering,

(c)

åtgärder för datapreparering, såsom annotation, märkning, uppstädning, uppdatering, förädling och aggregering,

Ändring 283

Förslag till förordning

Artikel 10 – punkt 2 – led d

Kommissionens förslag

Ändring

(d)

formulering av relevanta antaganden, särskilt när det gäller den information som berörda data förväntas beskriva och representera,

(d)

formulering av antaganden, särskilt när det gäller den information som berörda data förväntas beskriva och representera,

Ändring 284

Förslag till förordning

Artikel 10 – punkt 2 – led e

Kommissionens förslag

Ändring

(e)

en förhandsbedömning av tillgängligheten, mängden och lämpligheten avseende de dataset som behövs,

(e)

en bedömning av tillgängligheten, mängden och lämpligheten avseende de dataset som behövs,

Ändring 285

Förslag till förordning

Artikel 10 – punkt 2 – led f

Kommissionens förslag

Ändring

(f)

undersökning med avseende på eventuella snedvridningar,

(f)

undersökning med avseende på eventuella snedvridningar som sannolikt kommer att påverka människors hälsa och säkerhet, inverka negativt på de grundläggande rättigheterna eller leda till diskriminering som är förbjuden enligt unionsrätten, särskilt när utdata påverkar indata för framtida drift (”återföring”), samt lämpliga åtgärder för att upptäcka, förebygga och begränsa eventuella snedvridningar ,

Ändring 286

Förslag till förordning

Artikel 10 – punkt 2 – led fa (nytt)

Kommissionens förslag

Ändring

 

(fa)

lämpliga åtgärder för att upptäcka, förebygga och begränsa eventuella snedvridningar,

Ändring 287

Förslag till förordning

Artikel 10 – punkt 2 – led g

Kommissionens förslag

Ändring

(g)

identifiering av alla eventuella dataluckor eller brister, och hur dessa luckor och brister kan åtgärdas.

(g)

identifiering av relevanta dataluckor eller brister som hindrar efterlevnad av denna förordning , och hur dessa luckor och brister kan åtgärdas,

Ändring 288

Förslag till förordning

Artikel 10 – punkt 3

Kommissionens förslag

Ändring

3.    Tränings- , validerings- och testningsdataset ska vara relevanta, representativa, felfria och fullständiga. De ska ha lämpliga statistiska egenskaper, däribland, i förekommande fall, vad gäller de personer eller grupper av personer som omfattas av den avsedda användningen av AI-systemet med hög risk. Dessa egenskaper hos dessa dataset kan uppfyllas på nivån för enskilda dataset eller en kombination av dessa.

3.    Träningsdataset och , om sådana används, validerings- och testningsdataset , inbegripet märkningarna, ska vara relevanta, tillräckligt representativa, vederbörligen kontrollerade för fel och i största möjliga utsträckning fullständiga i förhållande till det avsedda ändamålet . De ska ha lämpliga statistiska egenskaper, däribland, i förekommande fall, vad gäller de personer eller grupper av personer med avseende på vilka AI-systemet med hög risk är avsett att användas . Dessa egenskaper hos dessa dataset ska uppfyllas på nivån för enskilda dataset eller en kombination av dessa.

Ändring 289

Förslag till förordning

Artikel 10 – punkt 4

Kommissionens förslag

Ändring

4.    Tränings-, validerings- och testningsdataset ska beakta, i den mån som krävs på grund av det avsedda ändamålet, de egenskaper eller element som är utmärkande för just den specifika geografiska, beteendemässiga eller funktionsmässiga situation där AI-systemet med hög risk är avsett att användas.

4.    Dataset ska beakta, i den mån som krävs på grund av det avsedda ändamålet eller rimligen förutsebara felaktiga användningar av AI-system , de egenskaper eller element som är utmärkande för just den specifika geografiska, sammanhangsmässiga, beteendemässiga eller funktionsmässiga situation där AI-systemet med hög risk är avsett att användas.

Ändring 290

Förslag till förordning

Artikel 10 – punkt 5

Kommissionens förslag

Ändring

5.   I den utsträckning det är absolut nödvändigt för att säkerställa övervakning, upptäckt och korrigering av snedvridning i samband med AI-systemen med hög risk, får leverantörer av sådana system behandla särskilda kategorier av personuppgifter som avses i artikel 9.1 i förordning (EU) 2016/679, artikel 10 i direktiv (EU) 2016/680 och artikel 10.1 i förordning (EU) 2018/1725, med förbehåll för lämpliga skyddsåtgärder för fysiska personers grundläggande rättigheter och friheter, inbegripet tekniska begränsningar för vidareutnyttjande samt användning av säkerhetsåtgärder och integritetsbevarande åtgärder på aktuell teknisk nivå , såsom pseudonymisering, eller kryptering där anonymisering avsevärt kan påverka det eftersträvade ändamålet .

5.   I den utsträckning det är absolut nödvändigt för att säkerställa upptäckt och korrigering av negativ snedvridning i samband med AI-systemen med hög risk, får leverantörer av sådana system i undantagsfall behandla särskilda kategorier av personuppgifter som avses i artikel 9.1 i förordning (EU) 2016/679, artikel 10 i direktiv (EU) 2016/680 och artikel 10.1 i förordning (EU) 2018/1725, med förbehåll för lämpliga skyddsåtgärder för fysiska personers grundläggande rättigheter och friheter, inbegripet tekniska begränsningar för vidareutnyttjande samt användning av säkerhetsåtgärder och integritetsbevarande åtgärder på aktuell teknisk nivå. I synnerhet ska följande villkor gälla för att denna behandling ska äga rum:

(a)

Upptäckt och korrigering av snedvridning kan inte uppnås på ett effektivt sätt genom behandling av syntetiska eller anonymiserade data.

 

(b)

Ifrågavarande data har pseudonymiserats.

 

(c)

Leverantören vidtar lämpliga tekniska och organisatoriska åtgärder för att säkerställa att de data som behandlas vid tillämpningen av denna punkt är säkra och skyddade, med förbehåll för lämpliga skyddsåtgärder, och att endast behöriga personer har tillgång till dessa data genom lämpliga konfidentialitetskrav.

 

(d)

De data som behandlas vid tillämpningen av denna punkt får inte översändas, överföras eller på annat sätt göras tillgängliga för andra parter.

 

(e)

De data som behandlas vid tillämpningen av denna punkt är skyddade genom lämpliga tekniska och organisatoriska åtgärder och raderas när snedvridningen har korrigerats eller personuppgifternas lagringstid har löpt ut.

 

(f)

Effektiva och lämpliga åtgärder har vidtagits för att säkerställa att system och tjänster för behandling är tillgängliga, säkra och resilienta mot tekniska eller fysiska incidenter.

 

(g)

Effektiva och lämpliga åtgärder har vidtagits för att säkerställa den fysiska säkerheten på de platser där data lagras och behandlas, intern styrning och förvaltning vad gäller it och it-säkerhet samt certifiering av processer och produkter.

 

Leverantörer som tillämpar denna bestämmelse ska upprätta dokumentation som förklarar varför behandlingen av särskilda kategorier av personuppgifter varit nödvändig för att upptäcka och korrigera snedvridningar.

Ändring 291

Förslag till förordning

Artikel 10 – punkt 6a (ny)

Kommissionens förslag

Ändring

 

6a.     Om leverantören inte kan fullgöra de skyldigheter som fastställs i denna artikel på grund av att denne inte har tillgång till data och data innehas uteslutande av användaren, får användaren på grundval av ett avtal göras ansvarig för eventuella överträdelser av denna artikel.

Ändring 292

Förslag till förordning

Artikel 11 – punkt 1 – stycke 2

Kommissionens förslag

Ändring

Den tekniska dokumentationen ska upprättas på ett sådant sätt att det visas att AI-systemet med hög risk uppfyller kraven i detta kapitel, och så att nationella behöriga myndigheter och anmälda organ får all den information som krävs för att bedöma om AI-systemet uppfyller dessa krav. Den ska minst innehålla de delar som anges i bilaga IV.

Den tekniska dokumentationen ska upprättas på ett sådant sätt att det visas att AI-systemet med hög risk uppfyller kraven i detta kapitel, och så att nationella tillsynsmyndigheter och anmälda organ får den information som krävs för att bedöma om AI-systemet uppfyller dessa krav. Den ska minst innehålla de delar som anges i bilaga IV eller, när det gäller små och medelstora företag och nystartade företag, all likvärdig dokumentation som uppfyller samma mål, under förutsättning att den nationella behöriga myndigheten ger sitt godkännande .

Ändring 293

Förslag till förordning

Artikel 11 – punkt 2

Kommissionens förslag

Ändring

2.   Om ett AI-system med hög risk som är kopplat till en produkt, som omfattas av de rättsakter som förtecknas i avsnitt A i bilaga II, släpps ut på marknaden eller tas i bruk ska en enda teknisk dokumentation upprättas som innehåller all den information som anges i  bilaga IV samt den information som krävs enligt dessa rättsakter.

2.   Om ett AI-system med hög risk som är kopplat till en produkt, som omfattas av de rättsakter som förtecknas i avsnitt A i bilaga II, släpps ut på marknaden eller tas i bruk ska en enda teknisk dokumentation upprättas som innehåller all den information som anges i  punkt 1 samt den information som krävs enligt dessa rättsakter.

Ändring 294

Förslag till förordning

Artikel 11 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     Leverantörer som är kreditinstitut som regleras av direktiv 2013/36/EU ska underhålla den tekniska dokumentationen som en del av dokumentationen om intern styrning, styrformer, processer och metoder enligt artikel 74 i det direktivet.

Ändring 295

Förslag till förordning

Artikel 12 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system med hög risk ska utformas och utvecklas med funktioner som möjliggör automatisk registrering av händelser (loggar) medan AI-systemen med hög risk är i drift. Dessa loggningsfunktioner ska överensstämma med erkända standarder eller gemensamma specifikationer.

1.   AI-system med hög risk ska utformas och utvecklas med funktioner som möjliggör automatisk registrering av händelser (loggar) medan AI-systemen med hög risk är i drift. Dessa loggningsfunktioner ska överensstämma med den bästa tekniken och erkända standarder eller gemensamma specifikationer.

Ändring 296

Förslag till förordning

Artikel 12 – punkt 2

Kommissionens förslag

Ändring

2.    Loggningsfunktionerna ska säkerställa en spårbarhetsnivå som omfattar AI-systemets funktion under hela dess livscykel och som är lämplig för systemets avsedda ändamål.

2.    För att säkerställa en spårbarhetsnivå som omfattar AI-systemets funktion under hela dess livstid och som är lämplig för systemets avsedda ändamål ska loggningsfunktionerna underlätta den övervakning av driften som avses i artikel 29.4 och den övervakning efter utsläppande på marknaden som avses i artikel 61. De ska särskilt göra det möjligt att registrera händelser som är relevanta för identifieringen av situationer som kan

 

(a)

leda till att AI-systemet utgör en risk i den mening som avses i artikel 65.1, eller

 

(b)

leda till en väsentlig ändring av AI-systemet.

Ändring 297

Förslag till förordning

Artikel 12 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     AI-system med hög risk ska utformas och utvecklas med loggningsfunktioner som möjliggör registrering av energiförbrukning och mätning eller beräkning av resursanvändning och miljöpåverkan av AI-systemet med hög risk under alla faser av systemets livscykel.

Ändring 298

Förslag till förordning

Artikel 12 – punkt 3

Kommissionens förslag

Ändring

3.     Loggningsfunktionerna ska i synnerhet möjliggöra övervakning av driften av AI-systemet med hög risk med avseende på förekomsten av situationer som kan resultera i att AI-systemet utgör en risk i den mening som avses i artikel 65.1 eller leda till en väsentlig ändring, och ska underlätta den övervakning efter utsläppande på marknaden som avses i artikel 61.

utgår

Ändring 299

Förslag till förordning

Artikel 13 – rubriken

Kommissionens förslag

Ändring

Transparens och tillhandahållande av information till användare

Transparens och tillhandahållande av information

Ändring 300

Förslag till förordning

Artikel 13 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att driften av dem är tillräckligt transparent för att användare ska kunna tolka systemets utdata och använda dem på lämpligt sätt . En lämplig typ och grad av transparens ska säkerställas, i syfte att uppnå uppfyllelse av användarens och leverantörens relevanta skyldigheter enligt kapitel 3 i denna avdelning.

1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att driften av dem är tillräckligt transparent för att leverantörer och användare rimligen ska kunna förstå hur systemet fungerar . Lämplig transparens ska säkerställas, i enlighet med AI-systemets avsedda ändamål, i syfte att uppnå uppfyllelse av leverantörens och användarens relevanta skyldigheter enligt kapitel 3 i denna avdelning.

 

Vid den tidpunkt då AI-systemet med hög risk släpps ut på marknaden ska transparens innebära att alla tekniska medel som är tillgängliga i enlighet med den allmänt erkända bästa tekniken används för att säkerställa att AI-systemets utdata kan tolkas av leverantören och användaren. Användaren ska kunna förstå och använda AI-systemet på lämpligt sätt genom att i allmänhet känna till hur AI-systemet fungerar och vilka data det behandlar, så att användaren kan förklara de beslut som fattas av AI-systemet för den person som påverkas i enlighet med artikel 68c.

Ändring 301

Förslag till förordning

Artikel 13 – punkt 2

Kommissionens förslag

Ändring

2.   AI-system med hög risk ska åtföljas av en bruksanvisning i ett lämpligt digitalt format eller på annat sätt som inbegriper kortfattad, fullständig , korrekt och tydlig information som är relevant, tillgänglig och begriplig för användare.

2.   AI-system med hög risk ska åtföljas av en begriplig bruksanvisning i ett lämpligt digitalt format, eller som på annat sätt tillgängliggörs på ett varaktigt medium, som inbegriper kortfattad, korrekt, tydlig och, så långt det är möjligt, fullständig information som bidrar till att driva och upprätthålla AI-systemet samt till att stödja ett välgrundat beslutsfattande från användarnas sida och är rimligen relevant, tillgänglig och begriplig för användare.

Ändring 302

Förslag till förordning

Artikel 13 – punkt 3 – inledningen

Kommissionens förslag

Ändring

3.   I den information som avses i punkt 2 ska följande specificeras :

3.    För att uppnå de resultat som avses i punkt 1 ska följande specificeras i den information som avses i punkt 2:

Ändring 303

Förslag till förordning

Artikel 13 – punkt 3 – led a

Kommissionens förslag

Ändring

(a)

Namn och kontaktuppgifter för leverantören och i tillämpliga fall för dennes ombud.

(a)

Namn och kontaktuppgifter för leverantören och eventuella ombud.

Ändring 304

Förslag till förordning

Artikel 13 – punkt 3 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

Om annan än leverantören, identitet och kontaktuppgifter för den enhet som utförde bedömningen av överensstämmelse och, i tillämpliga fall, för dess ombud.

Ändring 305

Förslag till förordning

Artikel 13 – punkt 3 – led b – inledningen

Kommissionens förslag

Ändring

(b)

Egenskaperna, kapaciteten och prestandabegränsningarna hos AI-systemet med hög risk, inbegripet

(b)

Egenskaperna, kapaciteten och prestandabegränsningarna hos AI-systemet med hög risk, inbegripet , där så är lämpligt

Ändring 306

Förslag till förordning

Artikel 13 – punkt 3 – led b – led ii

Kommissionens förslag

Ändring

ii)

den nivå avseende noggrannhet, robusthet och cybersäkerhet som avses i artikel 15 mot vilken AI-systemet med hög risk har testats och validerats och som kan förväntas, samt alla kända och förutsebara omständigheter som kan påverka den förväntade noggrannhets-, robusthets- och cybersäkerhetsnivån,

ii)

den nivå avseende noggrannhet, robusthet och cybersäkerhet som avses i artikel 15 mot vilken AI-systemet med hög risk har testats och validerats och som kan förväntas, samt alla tydligt kända och förutsebara omständigheter som kan påverka den förväntade noggrannhets-, robusthets- och cybersäkerhetsnivån,

Ändring 307

Förslag till förordning

Artikel 13 – punkt 3 – led b – led iii

Kommissionens förslag

Ändring

iii)

varje känd eller förutsebar omständighet, som har samband med användningen av AI-systemet med hög risk i enlighet med dess avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, som kan leda till risker för hälsa och säkerhet eller grundläggande rättigheter,

iii)

de tydligt kända eller förutsebara omständigheter som har samband med användningen av AI-systemet med hög risk i enlighet med dess avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, som kan leda till risker för hälsa och säkerhet, grundläggande rättigheter eller miljön, inbegripet, vid behov, illustrativa exempel på sådana begränsningar och scenarier för vilka systemet inte bör användas ,

Ändring 308

Förslag till förordning

Artikel 13 – punkt 3 – led b – led iiia (nytt)

Kommissionens förslag

Ändring

 

iiia)

i vilken utsträckning AI-systemet kan ge en förklaring till de beslut som det fattar,

Ändring 309

Förslag till förordning

Artikel 13 – punkt 3 – led b – led v

Kommissionens förslag

Ändring

v)

i tillämpliga fall, specifikationer för indata, eller all annan relevant information i fråga om de tränings-, validerings- och testningsdataset som används, med beaktande av AI-systemets avsedda ändamål.

v)

relevant information om användaråtgärder som kan påverka systemets prestanda, inbegripet typ av eller kvalitet på indata, eller all annan relevant information i fråga om de tränings-, validerings- och testningsdataset som används, med beaktande av AI-systemets avsedda ändamål.

Ändring 310

Förslag till förordning

Artikel 13 – punkt 3 – led e

Kommissionens förslag

Ändring

(e)

Den förväntade livslängden för AI-systemet med hög risk och alla nödvändiga underhålls- och omsorgsåtgärder för att säkerställa att AI-systemet fungerar korrekt, även när det gäller programvaruuppdateringar.

(e)

Alla nödvändiga underhålls- och omsorgsåtgärder för att säkerställa att AI-systemet fungerar korrekt, även när det gäller programvaruuppdateringar , under hela dess förväntade livslängd .

Ändring 311

Förslag till förordning

Artikel 13 – punkt 3 – led ea (nytt)

Kommissionens förslag

Ändring

 

(ea)

En beskrivning av de mekanismer som ingår i AI-systemet och som gör det möjligt för användarna att korrekt samla in, lagra och tolka loggarna i enlighet med artikel 12.1.

Ändring 312

Förslag till förordning

Artikel 13 – punkt 3 – led eb (nytt)

Kommissionens förslag

Ändring

 

(eb)

Informationen ska åtminstone tillhandahållas på det språk som talas i det land där AI-systemet används.

Ändring 313

Förslag till förordning

Artikel 13 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     För att fullgöra de skyldigheter som fastställs i denna artikel ska leverantörer och användare säkerställa tillräckliga AI-kunskaper i linje med artikel 4b.

Ändring 314

Förslag till förordning

Artikel 14 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt, inbegripet med lämpliga verktyg för användargränssnitt mellan människa och maskin, att fysiska personer på ett effektivt sätt kan ha tillsyn över dem när de används.

1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt, inbegripet med lämpliga verktyg för användargränssnitt mellan människa och maskin, att fysiska personer på ett effektivt sätt har tillsyn över dem , i proportion till de risker som hör samman med systemen i fråga. Fysiska personer som ansvarar för att säkerställa mänsklig tillsyn ska ha tillräckliga AI-kunskaper i enlighet med artikel 4b och det stöd och den behörighet som krävs för att utöva denna funktion när AI-systemet används och för att möjliggöra en grundlig utredning efter en incident .

Ändring 315

Förslag till förordning

Artikel 14 – punkt 2

Kommissionens förslag

Ändring

2.   Mänsklig tillsyn ska syfta till att förebygga eller minimera de risker för hälsa, säkerhet eller grundläggande rättigheter som kan uppstå när ett AI-system med hög risk används i enlighet med sitt avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, särskilt när sådana risker kvarstår trots tillämpningen av andra krav i detta kapitel.

2.   Mänsklig tillsyn ska syfta till att förebygga eller minimera de risker för hälsa, säkerhet, grundläggande rättigheter eller miljö som kan uppstå när ett AI-system med hög risk används i enlighet med sitt avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användning, särskilt när sådana risker kvarstår trots tillämpningen av andra krav i detta kapitel och när beslut som uteslutande bygger på AI-systems automatiska behandling leder till rättsliga eller på annat sätt betydande konsekvenser för de personer eller grupper av personer på vilka systemet är avsett att tillämpas .

Ändring 316

Förslag till förordning

Artikel 14 – punkt 3 – inledningen

Kommissionens förslag

Ändring

3.   Mänsklig tillsyn ska säkerställas genom antingen en eller samtliga av följande åtgärder:

3.   Mänsklig tillsyn ska ta hänsyn till AI-systemets specifika risker, automatiseringsgrad och sammanhang och ska säkerställas genom antingen en eller samtliga av följande typer av åtgärder:

Ändring 317

Förslag till förordning

Artikel 14 – punkt 4 – inledningen

Kommissionens förslag

Ändring

4.    De åtgärder som avses i punkt 3 ska göra det möjligt för de personer som fått i uppdrag att ombesörja mänsklig tillsyn att göra följande, beroende på omständigheterna:

4.    Vid genomförandet av punkterna 1–3 ska AI-systemet med hög risk tillhandahållas användaren på ett sådant sätt att fysiska personer som fått i uppdrag att ombesörja mänsklig tillsyn ges möjlighet att på lämpligt sätt och i proportion till omständigheterna

Ändring 318

Förslag till förordning

Artikel 14 – punkt 4 – led a

Kommissionens förslag

Ändring

(a)

Fullt ut förstå kapaciteten och begränsningarna hos AI-systemet med hög risk och på vederbörligt sätt kunna övervaka dess drift, så att tecken på avvikelser, funktionsstörningar och oväntad prestanda kan upptäckas och åtgärdas så snart som möjligt.

(a)

få kännedom om och i tillräcklig grad förstå den kapacitet och de begränsningar hos AI-systemet med hög risk som är relevanta och på vederbörligt sätt kunna övervaka dess drift, så att tecken på avvikelser, funktionsstörningar och oväntad prestanda kan upptäckas och åtgärdas så snart som möjligt,

Ändring 319

Förslag till förordning

Artikel 14 – punkt 4 – led e

Kommissionens förslag

Ändring

(e)

Kunna ingripa i driften av AI-systemet med hög risk eller stoppa systemet med en ”stoppknapp” eller ett liknande förfarande.

(e)

kunna ingripa i driften av AI-systemet med hög risk eller stoppa systemet med en ”stoppknapp” eller ett liknande förfarande som gör det möjligt för systemet att stoppas i ett säkert läge, såvida inte den mänskliga inblandningen ökar riskerna eller skulle inverka negativt på prestandan med hänsyn till den allmänt erkända bästa tekniken .

Ändring 320

Förslag till förordning

Artikel 14 – punkt 5

Kommissionens förslag

Ändring

5.   För AI-system med hög risk som avses i punkt 1 a i bilaga III ska de åtgärder som avses i punkt 3 dessutom vara sådana att de säkerställer att ingen åtgärd och inget beslut vidtas respektive fattas av användaren på grundval av den identifiering som systemet resulterar i, såvida inte detta har kontrollerats och bekräftats av minst två fysiska personer.

5.   För AI-system med hög risk som avses i punkt 1 a i bilaga III ska de åtgärder som avses i punkt 3 dessutom vara sådana att de säkerställer att ingen åtgärd och inget beslut vidtas respektive fattas av användaren på grundval av den identifiering som systemet resulterar i, såvida inte detta har kontrollerats och bekräftats av minst två fysiska personer med erforderliga kunskaper samt motsvarande utbildning och behörighet .

Ändring 321

Förslag till förordning

Artikel 15 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att de, mot bakgrund av sitt avsedda ändamål , uppnår en lämplig nivå avseende noggrannhet, robusthet och cybersäkerhet och ger bra resultat i dessa avseenden under hela sin livscykel.

1.   AI-system med hög risk ska utformas och utvecklas i enlighet med principen om inbyggd säkerhet och säkerhet som standard. Mot bakgrund av sitt avsedda ändamål bör de uppnå en lämplig nivå avseende noggrannhet, robusthet , säkerhet och cybersäkerhet och ge bra resultat i dessa avseenden under hela sin livscykel. Uppfyllandet av dessa krav ska inbegripa genomförande av de senaste åtgärderna i enlighet med det specifika marknadssegmentet eller tillämpningsområdet.

Ändring 322

Förslag till förordning

Artikel 15 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     För att hantera de tekniska aspekterna av hur man mäter de lämpliga nivåer av noggrannhet och robusthet som anges i punkt 1 i denna artikel ska AI-byrån sammanföra nationella och internationella metrologi- och riktmärkningsmyndigheter och ge icke-bindande vägledning i frågan i enlighet med artikel 56.2 a.

Ändring 323

Förslag till förordning

Artikel 15 – stycke 1b (nytt)

Kommissionens förslag

Ändring

 

1b.     För att hantera eventuella nya problem som uppstår på den inre marknaden med avseende på cybersäkerhet ska Europeiska unionens cybersäkerhetsbyrå (Enisa) och den europeiska nämnden för artificiell intelligens involveras i enlighet med artikel 56.2 b.

Ändring 324

Förslag till förordning

Artikel 15 – punkt 2

Kommissionens förslag

Ändring

2.   Noggrannhetsnivåerna och relevanta noggrannhetsmått för AI-system med hög risk ska anges i de medföljande bruksanvisningarna.

2.   Noggrannhetsnivåerna och relevanta noggrannhetsmått för AI-system med hög risk ska anges i de medföljande bruksanvisningarna. Det språk som används ska vara tydligt och får inte innehålla vare sig uppgifter som kan missförstås eller vilseledande påståenden.

Ändring 325

Förslag till förordning

Artikel 15 – punkt 3 – stycke 1

Kommissionens förslag

Ändring

AI-system med hög risk ska vara resilienta mot felaktigheter, funktionsfel eller inkonsekvenser som kan uppstå inom det system eller den miljö där systemet är i drift, särskilt på grund av deras interaktion med fysiska personer eller andra system.

Tekniska och organisatoriska åtgärder ska vidtas för att säkerställa att AI-system med hög risk ska vara resilienta som möjligt mot felaktigheter, funktionsfel eller inkonsekvenser som kan uppstå inom det system eller den miljö där systemet är i drift, särskilt på grund av deras interaktion med fysiska personer eller andra system.

Ändring 326

Förslag till förordning

Artikel 15 – punkt 3 – stycke 2

Kommissionens förslag

Ändring

Robustheten hos AI-system med hög risk kan uppnås genom lösningar med teknisk redundans, som kan omfatta backup eller felsäkra planer.

Robustheten hos AI-system med hög risk kan vid behov uppnås av den lämpliga leverantören med indata från användaren genom lösningar med teknisk redundans, som kan omfatta backup eller felsäkra planer.

Ändring 327

Förslag till förordning

Artikel 15 – punkt 3 – stycke 3

Kommissionens förslag

Ändring

AI-system med hög risk som fortsätter att lära sig efter det att de har släppts ut på marknaden eller tagits i bruk ska utvecklas på ett sådant sätt att man säkerställer att eventuellt snedvridna utdata , på grund av att utdata används som indata för framtida drift (”återföring”), hanteras på vederbörligt sätt med lämpliga kompenserande åtgärder.

AI-system med hög risk som fortsätter att lära sig efter det att de har släppts ut på marknaden eller tagits i bruk ska utvecklas på ett sådant sätt att man säkerställer att eventuellt snedvridna utdata som inverkar på indata för framtida drift (”återföring”) och illasinnad manipulering av de indata som används i inlärningen under driften hanteras på vederbörligt sätt med lämpliga kompenserande åtgärder.

Ändring 328

Förslag till förordning

Artikel 15 – punkt 4 – stycke 1

Kommissionens förslag

Ändring

AI-system med hög risk ska vara resilienta mot försök av obehöriga tredje parter att ändra sin användning eller prestanda genom att utnyttja systemets sårbarheter.

AI-system med hög risk ska vara resilienta mot försök av obehöriga tredje parter att ändra användning , beteende, utdata eller prestanda genom att utnyttja systemets sårbarheter.

Ändring 329

Förslag till förordning

Artikel 15 – punkt 4 – stycke 3

Kommissionens förslag

Ändring

De tekniska lösningarna för att hantera AI-specifika sårbarheter ska, när det är lämpligt, inbegripa åtgärder för att förebygga och bekämpa attacker som försöker manipulera träningsdatasetet (”dataförgiftning”), indata som är utformade för att få modellen att göra ett misstag (”antagonistiska exempel”) eller modellfel.

De tekniska lösningarna för att hantera AI-specifika sårbarheter ska, när det är lämpligt, inbegripa åtgärder för att förebygga , upptäcka, reagera på, åtgärda och bekämpa attacker som försöker manipulera träningsdatasetet (”dataförgiftning”) eller förtränade komponenter som används i träningen (”modellförgiftning”) , indata som är utformade för att få modellen att göra ett misstag (”antagonistiska exempel” eller ”modellkringgående” ) sekretessangrepp eller modellfel , som skulle kunna leda till skadliga beslut .

Ändring 330

Förslag till förordning

Avdelning III – kapitel 3 – rubriken

Kommissionens förslag

Ändring

SKYLDIGHETER FÖR LEVERANTÖRER OCH ANVÄNDARE AV AI-SYSTEM MED HÖG RISK samt andra parter

SKYLDIGHETER FÖR LEVERANTÖRER OCH ANVÄNDARE AV AI-SYSTEM MED HÖG RISK SAMT ANDRA PARTER

Ändring 331

Förslag till förordning

Artikel 16 – rubriken

Kommissionens förslag

Ändring

Skyldigheter för leverantörer av AI-system med hög risk

Skyldigheter för leverantörer och användare av AI-system med hög risk samt andra parter

Ändring 332

Förslag till förordning

Artikel 16 – led a

Kommissionens förslag

Ändring

(a)

säkerställa att deras AI-system med hög risk uppfyller kraven i kapitel 2 i denna avdelning,

(a)

säkerställa att deras AI-system med hög risk uppfyller kraven i kapitel 2 i denna avdelning innan de släpps ut på marknaden eller tas i bruk ,

Ändring 333

Förslag till förordning

Artikel 16 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

ange sitt namn, sitt registrerade firmanamn eller sitt registrerade varumärke och sin adress och sina kontaktuppgifter på AI-systemet med hög risk eller, om detta inte är möjligt, på den medföljande dokumentationen, beroende på vad som är lämpligt,

Ändring 334

Förslag till förordning

Artikel 16 – led ab (nytt)

Kommissionens förslag

Ändring

 

(ab)

säkerställa att fysiska personer som har getts i uppdrag att utöva mänsklig tillsyn över AI-system med hög risk särskilt görs medvetna om risken för automationssnedvridning eller konfirmeringsbias,

Ändring 335

Förslag till förordning

Artikel 16 – led ac (nytt)

Kommissionens förslag

Ändring

 

(ac)

ange specifikationer för indata, eller all annan relevant information i fråga om de dataset som används, inklusive deras begränsning och antaganden, med beaktande av AI-systemets avsedda ändamål samt förutsebara användning och rimligen förutsebara felaktiga användningar,

Ändring 336

Förslag till förordning

Artikel 16 – led c

Kommissionens förslag

Ändring

(c)

upprätta den tekniska dokumentationen för AI-systemet med hög risk,

(c)

upprätta och upprätthålla den tekniska dokumentation för AI-systemet med hög risk som avses i artikel 11 ,

Ändring 337

Förslag till förordning

Artikel 16 – led d

Kommissionens förslag

Ändring

(d)

spara de loggar som genereras automatiskt av deras AI-system med hög risk, när loggarna står under deras kontroll,

(d)

spara de loggar som genereras automatiskt av deras AI-system med hög risk och som krävs för att säkerställa och visa överensstämmelse med denna förordning , när loggarna står under deras kontroll , i enlighet med artikel 20 ,

Ändring 338

Förslag till förordning

Artikel 16 – led e

Kommissionens förslag

Ändring

(e)

säkerställa att AI-systemet med hög risk genomgår det relevanta förfarandet för bedömning av överensstämmelse innan det släpps ut på marknaden eller tas i bruk,

(e)

säkerställa att AI-systemet med hög risk genomgår det relevanta förfarandet för bedömning av överensstämmelse innan det släpps ut på marknaden eller tas i bruk, i enlighet med artikel 43,

Ändring 339

Förslag till förordning

Artikel 16 – led ea (nytt)

Kommissionens förslag

Ändring

 

(ea)

utarbeta en EU-försäkran om överensstämmelse i enlighet med artikel 48,

Ändring 340

Förslag till förordning

Artikel 16 – led eb (nytt)

Kommissionens förslag

Ändring

 

(eb)

anbringa CE-märkningen på AI-systemet med hög risk för att påvisa överensstämmelse med denna förordning i enlighet med artikel 49,

Ändring 341

Förslag till förordning

Artikel 16 – led g

Kommissionens förslag

Ändring

(g)

vidta nödvändiga korrigerande åtgärder om AI-systemet med hög risk inte uppfyller kraven i kapitel 2 i denna avdelning ,

(g)

vidta de nödvändiga korrigerande åtgärder som avses i artikel 21 och tillhandahålla information om detta ,

Ändring 342

Förslag till förordning

Artikel 16 – led h

Kommissionens förslag

Ändring

(h)

informera de nationella behöriga myndigheterna i de medlemsstater där de har tillhandahållit eller tagit AI-systemet i bruk och, i tillämpliga fall, det anmälda organet, om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits,

utgår

Ändring 343

Förslag till förordning

Artikel 16 – led i

Kommissionens förslag

Ändring

(i)

anbringa CE-märkningen på sina AI-system med hög risk för att påvisa överensstämmelse med denna förordning i enlighet med artikel 49,

utgår

Ändring 344

Förslag till förordning

Artikel 16 – led j

Kommissionens förslag

Ändring

(j)

på begäran av en nationell behörig myndighet visa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

(j)

motiverad begäran av en nationell tillsynsmyndighet visa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

Ändring 345

Förslag till förordning

Artikel 16 – led ja (nytt)

Kommissionens förslag

Ändring

 

(ja)

säkerställa att AI-systemet med hög risk uppfyller tillgänglighetskraven.

Ändring 346

Förslag till förordning

Artikel 17 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Leverantörer av AI-system med hög risk ska inrätta ett kvalitetsstyrningssystem som säkerställer efterlevnad av denna förordning. Systemet ska dokumenteras på ett systematiskt och ordnat sätt i form av skriftliga riktlinjer, förfaranden och instruktioner och ska omfatta åtminstone följande aspekter:

1.   Leverantörer av AI-system med hög risk ska ha ett kvalitetsstyrningssystem som säkerställer efterlevnad av denna förordning. Detta ska dokumenteras på ett systematiskt och ordnat sätt i form av skriftliga riktlinjer, förfaranden eller instruktioner och kan införlivas i ett befintligt kvalitetssäkringssystem enligt unionens sektorsspecifika lagstiftningsakter. Det ska omfatta åtminstone följande aspekter:

Ändring 347

Förslag till förordning

Artikel 17 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

En strategi för efterlevnad av regelverket, inklusive efterlevnad av förfaranden för bedömning av överensstämmelse och för hantering av ändringar av AI-systemet med hög risk.

utgår

Ändring 348

Förslag till förordning

Artikel 17 – punkt 1 – led e

Kommissionens förslag

Ändring

(e)

Tekniska specifikationer, inbegripet standarder, som ska tillämpas och, om de relevanta harmoniserade standarderna inte tillämpas fullt ut, de medel som ska användas för att säkerställa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

(e)

Tekniska specifikationer, inbegripet standarder, som ska tillämpas och, om de relevanta harmoniserade standarderna inte tillämpas fullt ut, eller inte omfattar alla relevanta krav, de medel som ska användas för att säkerställa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning.

Ändring 349

Förslag till förordning

Artikel 17 – punkt 1 – led f

Kommissionens förslag

Ändring

(f)

System och förfaranden för datahantering, inbegripet datainsamling, dataanalys, datamärkning, datalagring, datafiltrering, datautvinning, dataaggregering, lagring av uppgifter och varje annan åtgärd som avser data och som utförs före och för utsläppandet på marknaden eller ibruktagandet av AI-system med hög risk.

(f)

System och förfaranden för datahantering, inbegripet datafångst, datainsamling, dataanalys, datamärkning, datalagring, datafiltrering, datautvinning, dataaggregering, lagring av uppgifter och varje annan åtgärd som avser data och som utförs före och för utsläppandet på marknaden eller ibruktagandet av AI-system med hög risk.

Ändring 350

Förslag till förordning

Artikel 17 – punkt 1 – led j

Kommissionens förslag

Ändring

(j)

Hantering av kommunikation med nationella behöriga myndigheter, behöriga myndigheter, inbegripet sektorsmyndigheter , som tillhandahåller eller stöder tillgången till uppgifter, anmälda organ, andra operatörer, kunder eller andra berörda parter .

(j)

Hantering av kommunikation med relevanta behöriga myndigheter, inbegripet sektorsmyndigheter.

Ändring 351

Förslag till förordning

Artikel 17 – punkt 2

Kommissionens förslag

Ändring

2.   Genomförandet av aspekter som avses i punkt 1 ska stå i proportion till storleken på leverantörens organisation.

2.   Genomförandet av aspekter som avses i punkt 1 ska stå i proportion till storleken på leverantörens organisation. Leverantörerna ska i alla händelser respektera den grad av noggrannhet och den skyddsnivå som krävs för att säkerställa att deras AI-system står i överensstämmelse med denna förordning.

Ändring 352

Förslag till förordning

Artikel 18 – rubriken

Kommissionens förslag

Ändring

Skyldighet att upprätta teknisk dokumentation

utgår

Ändring 353

Förslag till förordning

Artikel 18 – punkt 1

Kommissionens förslag

Ändring

1.     Leverantörer av AI-system med hög risk ska upprätta den tekniska dokumentation som avses i artikel 11 i enlighet med bilaga IV.

utgår

Ändring 354

Förslag till förordning

Artikel 18 – punkt 2

Kommissionens förslag

Ändring

2.     Leverantörer som är kreditinstitut som regleras av direktiv 2013/36/EU ska underhålla den tekniska dokumentationen som en del av dokumentationen om intern styrning, styrformer, processer och metoder enligt artikel 74 i det direktivet.

utgår

Ändring 355

Förslag till förordning

Artikel 19

Kommissionens förslag

Ändring

Artikel 19

utgår

Bedömning av överensstämmelse

 

1.     Leverantörer av AI-system med hög risk ska säkerställa att deras system genomgår det relevanta förfarandet för bedömning av överensstämmelse i enlighet med artikel 43 innan de släpps ut på marknaden eller tas i bruk. Om AI-systemens överensstämmelse med kraven i kapitel 2 i denna avdelning har påvisats efter denna bedömning av överensstämmelse ska leverantörerna upprätta en EU-försäkran om överensstämmelse i enlighet med artikel 48 och anbringa CE-märkningen om överensstämmelse i enlighet med artikel 49.

 

2.     När det gäller AI-system med hög risk som avses i punkt 5 b i bilaga III och som släpps ut på marknaden eller tas i bruk av leverantörer som är kreditinstitut som regleras av direktiv 2013/36/EU, ska bedömningen av överensstämmelse utföras som ett led i det förfarande som avses i artiklarna 97–101 i det direktivet.

 

Ändring 356

Förslag till förordning

Artikel 20 – punkt 1

Kommissionens förslag

Ändring

1.   Leverantörer av AI-system med hög risk ska spara de loggar som genereras automatiskt av deras AI-system med hög risk, i den mån sådana loggar står under deras kontroll genom ett avtal med användaren eller på annat sätt enligt lag . Loggarna ska sparas under en period som är lämplig mot bakgrund av det avsedda ändamålet med AI-systemet med hög risk och tillämpliga rättsliga skyldigheter enligt unionsrätten eller nationell rätt .

1.   Leverantörer av AI-system med hög risk ska spara de loggar som genereras automatiskt av deras AI-system med hög risk, i den mån sådana loggar står under deras kontroll. Utan att det påverkar tillämplig unionsrätt eller nationell rätt ska loggarna sparas i minst sex månader . Lagringsperioden ska vara i enlighet med branschstandarder och lämplig för det avsedda ändamålet med AI-systemet med hög risk.

Ändring 357

Förslag till förordning

Artikel 21 – stycke 1

Kommissionens förslag

Ändring

Tillverkare av AI-system med hög risk som anser eller har skäl att tro att ett AI-system med hög risk som de har släppt ut på marknaden eller tagit i bruk inte överensstämmer med denna förordning ska omedelbart vidta de korrigerande åtgärder som krävs för att, beroende på vad som är lämpligt, få systemet att överensstämma med kraven, dra tillbaka det eller återkalla det. De ska underrätta distributörerna av det aktuella AI-systemet med hög risk och, i förekommande fall, ombudet och importörerna om detta.

Leverantörer av AI-system med hög risk som anser eller har skäl att tro att ett AI-system med hög risk som de har släppt ut på marknaden eller tagit i bruk inte överensstämmer med denna förordning ska omedelbart vidta de korrigerande åtgärder som krävs för att, beroende på vad som är lämpligt, få systemet att överensstämma med kraven, dra tillbaka det , inaktivera det eller återkalla det.

 

I de fall som avses i första stycket ska leverantörerna omedelbart informera

 

a.

distributörerna,

 

b.

importörerna,

 

c.

de nationella behöriga myndigheterna i de medlemsstater där de har gjort AI-systemet tillgängligt eller tagit det i bruk, och

 

d.

om möjligt, användaren.

Ändring 358

Förslag till förordning

Artikel 21 – stycke 1a (nytt)

Kommissionens förslag

Ändring

 

Leverantörerna ska också informera ombudet, om ett sådant har utsetts i enlighet med artikel 25, och det anmälda organet om AI-systemet med hög risk måste genomgå en tredjepartsbedömning av överensstämmelse i enlighet med artikel 43. I tillämpliga fall ska de också undersöka orsakerna i samarbete med användaren.

Ändring 359

Förslag till förordning

Artikel 22 – stycke 1

Kommissionens förslag

Ändring

Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 och denna risk är känd för systemleverantören, ska den leverantören omedelbart informera de nationella behöriga myndigheterna i de medlemsstater där den har tillhandahållit systemet och, i tillämpliga fall, det anmälda organ som utfärdat ett intyg för AI-systemet med hög risk, särskilt om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits.

Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 och systemleverantören blir medveten om denna risk , ska den leverantören omedelbart informera de nationella tillsynsmyndigheterna i de medlemsstater där den har tillhandahållit systemet och, i tillämpliga fall, det anmälda organ som utfärdat ett intyg för AI-systemet med hög risk, särskilt typen av bristande överensstämmelse och om eventuella relevanta korrigerande åtgärder som vidtagits.

Ändring 360

Förslag till förordning

Artikel 22 – stycke 1a (nytt)

Kommissionens förslag

Ändring

 

I de fall som avses i första stycket ska leverantörerna av AI-systemet med hög risk omedelbart informera

 

a)

distributörerna,

 

b)

importörerna,

 

c)

de nationella behöriga myndigheterna i de medlemsstater där de har gjort AI-systemet tillgängligt eller tagit det i bruk, och

 

d)

om möjligt, användarna.

Ändring 361

Förslag till förordning

Artikel 22 – stycke 1b (nytt)

Kommissionens förslag

Ändring

 

Leverantörerna ska också informera ombudet, om ett sådant har utsetts i enlighet med artikel 25.

Ändring 362

Förslag till förordning

Artikel 23 – rubriken

Kommissionens förslag

Ändring

Samarbete med behöriga myndigheter

Samarbete med behöriga myndigheter , byrån och kommissionen

Ändring 363

Förslag till förordning

Artikel 23 – stycke 1

Kommissionens förslag

Ändring

Leverantörer av AI-system med hög risk ska på begäran av en nationell behörig myndighet förse den myndigheten med all information och dokumentation som krävs för att visa att AI-systemet med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning, på ett av den berörda medlemsstaten fastställt officiellt unionsspråk. På motiverad begäran av en nationell behörig myndighet ska leverantörer också ge den myndigheten tillgång till de loggar som genereras automatiskt av AI-systemet med hög risk, i den mån sådana loggar står under deras kontroll genom ett avtal med användaren eller på annat sätt enligt lag.

Leverantörer och, i tillämpliga fall, användare av AI-system med hög risk ska på motiverad begäran av en nationell behörig myndighet eller, i tillämpliga fall, av AI-byrån eller kommissionen förse dem med all information och dokumentation som krävs för att visa att AI-systemet med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning, på ett av den berörda medlemsstaten fastställt officiellt unionsspråk.

Ändring 364

Förslag till förordning

Artikel 23 – stycke 1a (nytt)

Kommissionens förslag

Ändring

 

På motiverad begäran av en nationell behörig myndighet eller, i tillämpliga fall, av kommissionen, ska leverantörer och, i tillämpliga fall, användare, också ge den begärande nationella behöriga myndigheten eller kommissionen, beroende på vad som är tillämpligt, tillgång till de loggar som automatiskt genereras av AI-systemet med hög risk, i den mån sådana loggar står under deras kontroll.

Ändring 365

Förslag till förordning

Artikel 23 – stycke 1b (nytt)

Kommissionens förslag

Ändring

 

All information som har erhållits av en nationell behörig myndighet eller av kommissionen i enlighet med bestämmelserna i denna artikel ska betraktas som en företagshemlighet och behandlas i enlighet med de konfidentialitetskrav som anges i artikel 70.

Ändring 366

Förslag till förordning

Artikel 25 – punkt 1

Kommissionens förslag

Ändring

1.   Innan leverantörer etablerade utanför unionen tillhandahåller sina AI-system på unionsmarknaden ska de , i de fall då en importör inte kan identifieras, genom skriftlig fullmakt utse ett ombud som är etablerat i unionen.

1.   Innan leverantörer etablerade utanför unionen tillhandahåller sina AI-system på unionsmarknaden ska de genom skriftlig fullmakt utse ett ombud som är etablerat i unionen.

Ändring 367

Förslag till förordning

Artikel 25 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Ombudet ska vara bosatt eller etablerat i någon av de medlemsstater där verksamheten enligt artikel 2.1cb äger rum.

Ändring 368

Förslag till förordning

Artikel 25 – punkt 1b (nytt)

Kommissionens förslag

Ändring

 

1b.     Leverantören ska förse sitt ombud med de befogenheter och resurser som krävs för att ombudet ska kunna fullgöra sina uppgifter enligt denna förordning.

Ändring 369

Förslag till förordning

Artikel 25 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.   Ombudet ska utföra de uppgifter som anges i fullmakten från leverantören. Fullmakten ska ge ombudet befogenhet att utföra följande uppgifter:

2.   Ombudet ska utföra de uppgifter som anges i fullmakten från leverantören. Ombudet ska på begäran lämna en kopia av fullmakten till marknadskontrollmyndigheterna på ett av unionsinstitutionens officiella språk som anges av den nationella behöriga myndigheten. Vid tillämpningen av denna förordning ska fullmakten ge ombudet befogenhet att utföra följande uppgifter:

Ändring 370

Förslag till förordning

Artikel 25 – punkt 2 – led a

Kommissionens förslag

Ändring

(a)

Hålla en kopia av EU-försäkran om överensstämmelse och den tekniska dokumentationen tillgänglig för de nationella behöriga myndigheterna och de nationella myndigheter som avses i artikel 63.7 .

(a)

Säkerställa att EU-försäkran om överensstämmelse och den tekniska dokumentationen har upprättats och att leverantören har genomfört ett lämpligt förfarande för bedömning av överensstämmelse .

Ändring 371

Förslag till förordning

Artikel 25 – punkt 2 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

För de nationella behöriga myndigheter och nationella myndigheter som avses i artikel 63.7 hålla tillgängligt en kopia av EU-försäkran om överensstämmelse, den tekniska dokumentationen och, i tillämpliga fall, det intyg som utfärdats av det anmälda organet.

Ändring 372

Förslag till förordning

Artikel 25 – punkt 2 – led b

Kommissionens förslag

Ändring

(b)

På motiverad begäran ge en nationell behörig myndighet all information och dokumentation som är nödvändig för att visa att ett AI-system med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning, inbegripet tillgång till de loggar som automatiskt genereras av AI-systemet med hög risk i den mån sådana loggar står under leverantörens kontroll genom ett avtal med användaren eller på annat sätt enligt lag .

(b)

På motiverad begäran ge en nationell behörig myndighet all information och dokumentation som är nödvändig för att visa att ett AI-system med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning, inbegripet tillgång till de loggar som automatiskt genereras av AI-systemet med hög risk i den mån sådana loggar står under leverantörens kontroll.

Ändring 373

Förslag till förordning

Artikel 25 – punkt 2 – led c

Kommissionens förslag

Ändring

(c)

På motiverad begäran samarbeta med behöriga nationella myndigheter om eventuella åtgärder som dessa vidtar med avseende på AI-systemet med hög risk.

(c)

På motiverad begäran samarbeta med nationella tillsynsmyndigheter om eventuella åtgärder som myndigheten vidtar för att minska och begränsa de risker som AI-systemet med hög risk utgör .

Ändring 374

Förslag till förordning

Artikel 25 – punkt 2 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

I tillämpliga fall, fullgöra de registreringsskyldigheter som avses i artikel 51 eller, om registreringen utförs av leverantören själv, säkerställa att den information som avses i punkt 3 i bilaga VIII är korrekt.

Ändring 375

Förslag till förordning

Artikel 25 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Ombudet ska ha fullmakt att utöver eller i stället för leverantören stå till förfogande, i synnerhet inför den nationella tillsynsmyndigheten eller de nationella behöriga myndigheterna, i alla frågor som rör efterlevnaden av denna förordning.

Ändring 376

Förslag till förordning

Artikel 25 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2b.     Ombudet ska säga upp fullmakten om det anser eller har skäl att anse att leverantören agerar i strid med sina skyldigheter enligt denna förordning. I så fall ska ombudet också omedelbart underrätta den nationella tillsynsmyndigheten i den medlemsstat där det är etablerat samt, i tillämpliga fall, det berörda anmälda organet om uppsägningen av fullmakten och skälen till detta.

Ändring 377

Förslag till förordning

Artikel 26 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Innan importörer av AI-system med hög risk släpper ut ett sådant system på marknaden ska de säkerställa att

1.   Innan importörer av AI-system med hög risk släpper ut ett sådant system på marknaden ska de säkerställa att systemet i fråga överensstämmer med denna förordning genom att säkerställa att

Ändring 378

Förslag till förordning

Artikel 26 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

det tillämpliga förfarandet för bedömning av överensstämmelse har utförts av leverantören av det AI-systemet,

(a)

det relevanta förfarande för bedömning av överensstämmelse som avses i artikel 43 har utförts av leverantören av det AI-systemet,

Ändring 379

Förslag till förordning

Artikel 26 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

leverantören har upprättat den tekniska dokumentationen i enlighet med bilaga IV,

(b)

leverantören har upprättat den tekniska dokumentationen i enlighet med artikel 11 och bilaga IV,

Ändring 380

Förslag till förordning

Artikel 26 – punkt 1 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

leverantören, i tillämpliga fall, har utsett ett ombud i enlighet med artikel 25.1.

Ändring 381

Förslag till förordning

Artikel 26 – punkt 2

Kommissionens förslag

Ändring

2.   Om en importör anser eller har skäl att tro att ett AI-system med hög risk inte överensstämmer med denna förordning, får importören inte släppa ut det systemet på marknaden förrän AI-systemet har bringats i överensstämmelse med kraven. Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 ska importören informera leverantören av AI-systemet och marknadskontrollmyndigheterna om detta.

2.   Om en importör anser eller har skäl att tro att ett AI-system med hög risk inte överensstämmer med denna förordning, eller är förfalskat, eller åtföljs av förfalskad dokumentation, får importören inte släppa ut det systemet på marknaden förrän AI-systemet har bringats i överensstämmelse med kraven. Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 ska importören informera leverantören av AI-systemet och marknadskontrollmyndigheterna om detta.

Ändring 382

Förslag till förordning

Artikel 26 – punkt 3

Kommissionens förslag

Ändring

3.   Importörer ska ange sitt namn, sitt registrerade firmanamn eller sitt registrerade varumärke och en kontaktadress på AI-systemet med hög risk eller, om detta inte är möjligt, på dess förpackning eller i dess åtföljande dokumentation, beroende på vad som är tillämpligt .

3.   Importörer ska ange sitt namn, sitt registrerade firmanamn eller sitt registrerade varumärke och en kontaktadress på AI-systemet med hög risk och på dess förpackning eller i dess åtföljande dokumentation, i tillämpliga fall .

Ändring 383

Förslag till förordning

Artikel 26 – punkt 5

Kommissionens förslag

Ändring

5.   Importörer ska på motiverad begäran ge nationella behöriga myndigheter all information och dokumentation som är nödvändig för att visa att ett AI-system med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning på ett språk som lätt kan förstås av den nationella behöriga myndigheten , inbegripet tillgång till de loggar som automatiskt genereras av AI-systemet med hög risk i den mån sådana loggar står under leverantörens kontroll genom ett avtal med användaren eller på annat sätt enligt lag . De ska också samarbeta med dessa myndigheter om alla åtgärder som nationella behöriga myndigheter vidtar med avseende på det systemet.

5.   Importörer ska på motiverad begäran ge nationella behöriga myndigheter all information och dokumentation som är nödvändig för att visa att ett AI-system med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning på ett språk som lätt kan förstås av dem , inbegripet tillgång till de loggar som automatiskt genereras av AI-systemet med hög risk i den mån sådana loggar står under leverantörens kontroll i enlighet med artikel 20 .

Ändring 384

Förslag till förordning

Artikel 26 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     Importörer ska samarbeta med nationella behöriga myndigheter om alla åtgärder som de myndigheterna vidtar för att minska och begränsa de risker som AI-systemet med hög risk utgör.

Ändring 385

Förslag till förordning

Artikel 27 – punkt 1

Kommissionens förslag

Ändring

1.   Innan distributörer tillhandahåller ett AI-system med hög risk på marknaden ska de kontrollera att AI-systemet med hög risk är försett med erforderlig CE-märkning om överensstämmelse, att det åtföljs av erforderlig dokumentation och bruksanvisning och att leverantören och importören av systemet, beroende på vad som är tillämpligt, har uppfyllt skyldigheterna i denna förordning.

1.   Innan distributörer tillhandahåller ett AI-system med hög risk på marknaden ska de kontrollera att AI-systemet med hög risk är försett med erforderlig CE-märkning om överensstämmelse, att det åtföljs av erforderlig dokumentation och bruksanvisning och att leverantören och importören av systemet, beroende på vad som är tillämpligt, har uppfyllt sina skyldigheter i denna förordning enligt artiklarna 16 respektive 26 .

Ändring 386

Förslag till förordning

Artikel 27 – punkt 2

Kommissionens förslag

Ändring

2.   Om en distributör anser eller har skäl att tro att ett AI-system med hög risk inte överensstämmer med kraven i kapitel 2 i denna avdelning, får distributören inte tillhandahålla AI-systemet med hög risk på marknaden förrän det systemet har bringats i överensstämmelse med dessa krav. Om systemet utgör en risk i den mening som avses i artikel 65.1 ska distributören dessutom informera leverantören eller importören av systemet, beroende på vad som är tillämpligt, om detta.

2.   Om en distributör – på grundval av den information som denne har kännedom om – anser eller har skäl att tro att ett AI-system med hög risk inte överensstämmer med kraven i kapitel 2 i denna avdelning, får distributören inte tillhandahålla AI-systemet med hög risk på marknaden förrän det systemet har bringats i överensstämmelse med dessa krav. Om systemet utgör en risk i den mening som avses i artikel 65.1 ska distributören dessutom informera leverantören eller importören av systemet och den relevanta nationella behöriga myndigheten , beroende på vad som är tillämpligt, om detta.

Ändring 387

Förslag till förordning

Artikel 27 – punkt 4

Kommissionens förslag

Ändring

4.   En distributör som anser eller har skäl att tro att ett AI-system med hög risk som denne har tillhandahållit på marknaden inte överensstämmer med kraven i kapitel 2 i denna avdelning ska vidta de korrigerande åtgärder som krävs för att bringa systemet i överensstämmelse med dessa krav, dra tillbaka det eller återkalla det eller ska säkerställa att leverantören, importören eller någon berörd operatör, beroende på vad som är lämpligt, vidtar dessa korrigerande åtgärder. Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 ska distributören omedelbart informera de nationella behöriga myndigheterna i de medlemsstater där distributören har tillhandahållit produkten om detta och lämna uppgifter särskilt om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits.

4.   En distributör som – på grundval av den information som denne har kännedom om – anser eller har skäl att tro att ett AI-system med hög risk som denne har tillhandahållit på marknaden inte överensstämmer med kraven i kapitel 2 i denna avdelning ska vidta de korrigerande åtgärder som krävs för att bringa systemet i överensstämmelse med dessa krav, dra tillbaka det eller återkalla det eller ska säkerställa att leverantören, importören eller någon berörd operatör, beroende på vad som är lämpligt, vidtar dessa korrigerande åtgärder. Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 ska distributören omedelbart informera leverantören eller importören av systemet och de nationella behöriga myndigheterna i de medlemsstater där distributören har tillhandahållit produkten om detta och lämna uppgifter särskilt om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits.

Ändring 388

Förslag till förordning

Artikel 27 – punkt 5

Kommissionens förslag

Ändring

5.   På motiverad begäran av en nationell behörig myndighet ska distributörer av AI-system med hög risk förse den myndigheten med all information och dokumentation som är nödvändig för att visa att ett högrisksystem uppfyller kraven i kapitel 2 i denna avdelning. Distributörer ska också samarbeta med den nationella behöriga myndigheten om alla åtgärder som vidtas av den myndigheten.

5.   På motiverad begäran av en nationell behörig myndighet ska distributörer av AI-systemet med hög risk förse den myndigheten med all information och dokumentation som de förfogar över eller har tillgång till, i enlighet med de skyldigheter för distributörer som anges i punkt 1, och som är nödvändig för att visa att ett högrisksystem uppfyller kraven i kapitel 2 i denna avdelning.

Ändring 389

Förslag till förordning

Artikel 27 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     Distributörer ska samarbeta med nationella behöriga myndigheter om alla åtgärder som de myndigheterna vidtar för att minska och begränsa de risker som AI-systemet med hög risk utgör.

Ändring 390

Förslag till förordning

Artikel 28 – rubriken

Kommissionens förslag

Ändring

Skyldigheter för distributörer, importörer, användare eller annan tredje part

Ansvarsområden längs AI-värdekedjan för leverantörer, distributörer, importörer, användare eller andra tredje parter

Ändring 391

Förslag till förordning

Artikel 28 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Varje distributör, importör, användare eller annan tredje part ska vid tillämpningen av denna förordning anses vara en leverantör och ska ha de skyldigheter som leverantören har enligt artikel 16, under någon av följande omständigheter:

1.   Varje distributör, importör, användare eller annan tredje part ska vid tillämpningen av denna förordning anses vara en leverantör av ett AI-system med hög risk och ska ha de skyldigheter som leverantören har enligt artikel 16, under någon av följande omständigheter:

Ändring 392

Förslag till förordning

Artikel 28 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

De släpper ut ett AI-system med hög risk på marknaden eller tar ett sådant system i bruk under eget namn eller varumärke .

(a)

De sätter sitt namn eller varumärke på ett AI-system med hög risk som redan har släppts ut på marknaden eller tagits i bruk.

Ändring 393

Förslag till förordning

Artikel 28 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

De ändrar det avsedda ändamålet för ett AI-system med hög risk som redan har släppts ut på marknaden eller tagits i bruk.

(b)

De gör en väsentlig ändring av ett AI-system med hög risk som redan har släppts ut på marknaden eller redan har tagits i bruk på ett sätt som innebär att det fortfarande är ett AI-system med hög risk i enlighet med artikel 6 .

Ändring 394

Förslag till förordning

Artikel 28 – punkt 1 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

De gör en väsentlig ändring av ett AI-system, inklusive ett AI-system för allmänna ändamål, som inte har klassificerats som ett högrisksystem och som redan har släpps ut på marknaden eller tagits i bruk på ett sådant sätt att AI-systemet blir ett AI-system med hög risk i enlighet med artikel 6.

Ändring 395

Förslag till förordning

Artikel 28 – punkt 2

Kommissionens förslag

Ändring

2.   Om de omständigheter som avses i punkt 1 b eller c uppstår, ska den leverantör som ursprungligen släppte ut AI-systemet med hög risk på marknaden eller tog det i bruk inte längre anses vara en leverantör vid tillämpningen av denna förordning.

2.   Om de omständigheter som avses i punkt 1 a–ba uppstår, ska den leverantör som ursprungligen släppte ut AI-systemet på marknaden eller tog det i bruk inte längre anses vara en leverantör av det specifika AI-systemet vid tillämpningen av denna förordning. Denna tidigare leverantör ska förse den nya leverantören med den tekniska dokumentationen och all annan relevant och rimligen förväntad informationskapacitet hos AI-systemet, teknisk åtkomst eller annat stöd baserat på den allmänt erkända bästa teknik som krävs för att fullgöra de skyldigheter som fastställs i denna förordning.

 

Denna punkt ska också tillämpas på leverantörer av grundmodeller enligt definitionen i artikel 3 när grundmodellen är direkt integrerad i ett AI-system med hög risk.

Ändring 396

Förslag till förordning

Artikel 28 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Leverantören av ett AI-system med hög risk och den tredje part som tillhandahåller verktyg, tjänster, komponenter eller processer som används eller integreras i AI-systemet med hög risk ska genom ett skriftligt avtal ange den information, kapacitet, tekniska åtkomst och/eller det andra stöd, baserat på den allmänt erkända bästa tekniken, som den tredje parten är skyldig att tillhandahålla för att göra det möjligt för leverantören av AI-systemet med hög risk att fullt ut uppfylla skyldigheterna enligt denna förordning.

 

Kommissionen ska utveckla och rekommendera icke-bindande standardavtalsvillkor mellan leverantörer av AI-system med hög risk och tredje parter som tillhandahåller verktyg, tjänster, komponenter eller processer som används eller integreras i AI-system med hög risk för att hjälpa båda parter att utarbeta och förhandla fram avtal med balanserade avtalsenliga rättigheter och skyldigheter, i överensstämmelse med varje parts grad av kontroll. Vid utarbetandet av icke-bindande standardavtalsvillkor ska kommissionen ta hänsyn till eventuella avtalskrav som är tillämpliga inom specifika sektorer eller affärsfall. De icke-bindande avtalsvillkoren ska offentliggöras och vara tillgängliga kostnadsfritt i ett lättanvänt elektroniskt format på AI-byråns webbplats.

Ändring 397

Förslag till förordning

Artikel 28 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2b.     Vid tillämpningen av denna artikel ska företagshemligheter bevaras och får endast röjas under förutsättning att alla specifika åtgärder som är nödvändiga enligt direktiv (EU) 2016/943 vidtas i förväg för att bevara deras konfidentialitet, i synnerhet med avseende på tredje parter. Vid behov kan lämpliga tekniska och organisatoriska arrangemang överenskommas för att skydda immateriella rättigheter eller företagshemligheter.

Ändring 398

Förslag till förordning

Artikel 28a (ny)

Kommissionens förslag

Ändring

 

Artikel 28a

 

Oskäliga avtalsvillkor som ensidigt åläggs ett litet eller medelstort företag eller ett nystartat företag

 

1.     Ett avtalsvillkor om tillhandahållande av verktyg, tjänster, komponenter eller processer som används eller integreras i ett AI-system med hög risk eller om rättsmedel vid överträdelse eller upphörande av relaterade skyldigheter som ett företag ensidigt har ålagt ett litet eller medelstort företag eller ett nystartat företag ska inte vara bindande för det senare företaget om det är oskäligt.

 

2.     Ett avtalsvillkor ska inte betraktas som oskäligt om det följer av tillämplig unionsrätt.

 

3.     Ett avtalsvillkor är oskäligt om det är av sådan art att det objektivt försämrar möjligheten för den part som ensidigt ålagts villkoret att skydda sitt legitima kommersiella intresse av informationen i fråga eller dess användning avviker kraftigt från god affärssed vid tillhandahållandet av verktyg, tjänster, komponenter eller processer som används eller integreras i ett AI-system med hög risk, i strid med god tro och heder, eller skapar en betydande obalans mellan parternas rättigheter och skyldigheter i avtalet. Ett avtalsvillkor är också oskäligt om det leder till att de påföljder som avses i artikel 71 eller därmed sammanhängande rättegångskostnader överförs mellan parterna i avtalet, i enlighet med artikel 71.8.

 

4.     Ett avtalsvillkor är oskäligt med avseende på tillämpningen av denna artikel om det har till syfte eller verkan att

 

a)

utesluta eller begränsa ansvaret för den part som ensidigt ålagt villkoret för uppsåtliga handlingar eller grov oaktsamhet,

 

b)

utesluta de rättsmedel som står till buds för den part som ensidigt har ålagts villkoret i händelse av underlåtenhet att fullgöra avtalsförpliktelser eller utesluta ansvar för den part som ensidigt ålagt villkoret vid ett åsidosättande av dessa skyldigheter,

 

c)

ge den part som ensidigt ålagt villkoret ensamrätt att avgöra om den tekniska dokumentation och information som tillhandahållits står i överensstämmelse med avtalet eller att tolka något villkor i avtalet.

 

5.     Ett avtalsvillkor ska anses vara ensidigt ålagt i den mening som avses i denna artikel om det har tillhandahållits av en avtalsslutande part och den andra avtalsslutande parten inte har kunnat påverka dess innehåll trots ett försök att förhandla om det. Det åligger den avtalspart som har tillhandahållit ett avtalsvillkor att bevisa att villkoret inte har ålagts ensidigt.

 

6.     Om det oskäliga avtalsvillkoret kan avskiljas från övriga villkor i avtalet ska dessa övriga villkor förbli bindande. Den part som tillhandahöll det omtvistade villkoret ska inte göra gällande att villkoret är ett oskäligt villkor.

 

7.     Denna artikel ska tillämpas på alla nya avtal som träder i kraft efter den … [den dag då denna förordning träder i kraft]. Företag ska se över befintliga avtalsförpliktelser som omfattas av denna förordning senast den … [tre år efter den dag då denna förordning träder i kraft].

 

8.     Med tanke på hur snabbt innovationer sker på marknaderna ska förteckningen över oskäliga avtalsvillkor i artikel 28a regelbundet ses över av kommissionen och vid behov uppdateras med nya affärsmetoder.

Ändring 399

Förslag till förordning

Artikel 28b (ny)

Kommissionens förslag

Ändring

 

Artikel 28b

 

Skyldigheter för en leverantör av en grundmodell

 

1.     En leverantör av en grundmodell ska, innan den tillhandahålls på marknaden eller tas i bruk, säkerställa att den uppfyller kraven i denna artikel, oavsett om den tillhandahålls som en fristående modell eller inbäddad i ett AI-system eller en produkt, eller tillhandahålls genom licenser med öppen källkod som en tjänst, liksom andra distributionskanaler.

 

2.     Vid tillämpning av punkt 1 ska leverantören av en grundmodell

 

a)

genom lämplig utformning, testning och analys visa identifieringen, minskningen och begränsningen av rimligen förutsebara risker för hälsa, säkerhet, grundläggande rättigheter, miljö, demokrati och rättssäkerhet före och under hela utvecklingsfasen, med lämpliga metoder såsom deltagande av oberoende experter, liksom dokumentation av kvarstående icke begränsningsbara risker efter utvecklingen,

 

b)

behandla och införliva endast datauppsättningar som omfattas av lämpliga dataförvaltningsåtgärder för grundmodeller, i synnerhet åtgärder för att undersöka datakällornas lämplighet och eventuella snedvridningar samt lämplig begränsning,

 

c)

utforma och utveckla grundmodellen för att under hela dess livscykel uppnå lämpliga nivåer av prestanda, förutsägbarhet, tolkningsbarhet, korrigerbarhet, säkerhet och cybersäkerhet som bedöms med hjälp av lämpliga metoder såsom modellutvärdering med deltagande av oberoende experter, dokumenterad analys och omfattande testning under konceptualisering, utformning och utveckling,

 

d)

utforma och utveckla grundmodellen, med hjälp av tillämpliga standarder för att minska energianvändningen, resursanvändningen och avfallet samt för att öka energieffektiviteten och systemets övergripande effektivitet, utan att det påverkar relevant befintlig unionsrätt och nationell rätt; denna skyldighet ska inte gälla innan de standarder som avses i artikel 40 har offentliggjorts; grundmodeller ska utformas med kapacitet som gör det möjligt att mäta och registrera energi- och resursförbrukning, och, där så är tekniskt möjligt, annan miljöpåverkan som införandet och användningen av systemen kan ha under hela sin livscykel,

 

e)

utarbeta omfattande teknisk dokumentation och begripliga bruksanvisningar för att göra det möjligt för leverantörer i senare led att uppfylla sina skyldigheter enligt artiklarna 16 och 28.1,

 

f)

inrätta ett kvalitetsstyrningssystem för att säkerställa och dokumentera efterlevnaden av denna artikel, med möjlighet att experimentera med att uppfylla detta krav,

 

g)

registrera denna grundmodell i den EU-databas som avses i artikel 60, i enlighet med instruktionerna i led C i bilaga VIII.

 

Vid uppfyllandet av dessa krav ska den allmänt erkända bästa tekniken beaktas, inbegripet i enlighet med relevanta harmoniserade standarder eller gemensamma specifikationer, liksom de senaste bedömnings- och mätmetoderna, som återspeglas i synnerhet i vägledning och kapacitet för riktmärkning som avses i artikel 58a.

 

3.     Leverantörer av grundmodeller ska under en period som upphör 10 år efter att deras grundmodeller har släppts ut på marknaden eller tagits i bruk behålla den tekniska dokumentation som avses i punkt 2e till förfogande för de nationella behöriga myndigheterna.

 

4.     Leverantörer av grundmodeller som används i AI-system som är specifikt avsedda att med varierande grad av autonomi generera innehåll såsom komplex text, bilder, ljud eller video (”generativ AI”) och leverantörer som specialiserar en grundmodell till ett system med generativ AI ska dessutom

 

a)

uppfylla de transparenskrav som anges i artikel 52.1,

 

b)

träna och, i tillämpliga fall, utforma och utveckla grundmodellen på ett sätt som säkerställer tillräckliga skyddsåtgärder mot generering av innehåll som strider mot unionsrätten, i linje med den allmänt erkända bästa tekniken, utan att det påverkar de grundläggande rättigheterna, inbegripet yttrandefriheten,

 

c)

utan att det påverkar unionslagstiftning eller nationell lagstiftning eller unionslagstiftning om upphovsrätt, dokumentera och offentliggöra en tillräckligt detaljerad sammanfattning av användningen av träningsdata som skyddas enligt upphovsrättslagstiftningen.

Ändring 400

Förslag till förordning

Artikel 29 – punkt 1

Kommissionens förslag

Ändring

1.   Användare av AI-system med hög risk ska använda sådana system i enlighet med de bruksanvisningar som åtföljer systemen, enligt punkterna 2 och 5.

1.   Användare av AI-system med hög risk ska vidta lämpliga tekniska och organisatoriska åtgärder för att se till att de använder sådana system i enlighet med de bruksanvisningar som åtföljer systemen, enligt punkterna 2 och 5 i denna artikel .

Ändring 401

Förslag till förordning

Artikel 29 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     I den mån användare utövar kontroll över AI-systemet med hög risk ska de

 

i)

ombesörja mänsklig tillsyn i enlighet med kraven i denna förordning,

 

ii)

säkerställa att de fysiska personer som fått i uppdrag att utföra den mänskliga tillsynen över AI-systemen med hög risk är kompetenta, korrekt kvalificerade och utbildade och har de resurser som krävs för att säkerställa en effektiv tillsyn av AI-systemet i enlighet med artikel 14,

 

iii)

säkerställa att relevanta och lämpliga åtgärder för robusthet och cybersäkerhet regelbundet övervakas med avseende på effektivitet och regelbundet justeras eller uppdateras.

Ändring 402

Förslag till förordning

Artikel 29 – punkt 2

Kommissionens förslag

Ändring

2.   Skyldigheterna i  punkt 1 ska inte påverka andra användarskyldigheter enligt unionsrätten eller nationell rätt eller användarens handlingsutrymme när det gäller att organisera sina egna resurser och aktiviteter i syfte att genomföra de åtgärder för mänsklig tillsyn som leverantören anger.

2.   Skyldigheterna i  punkterna 1 och 1a ska inte påverka andra användarskyldigheter enligt unionsrätten eller nationell rätt eller användarens handlingsutrymme när det gäller att organisera sina egna resurser och aktiviteter i syfte att genomföra de åtgärder för mänsklig tillsyn som leverantören anger.

Ändring 403

Förslag till förordning

Artikel 29 – punkt 3

Kommissionens förslag

Ändring

3.   Utan att det påverkar tillämpningen av punkt 1 ska användaren, i den mån användaren utövar kontroll över indata, säkerställa att indata är relevanta med tanke på det avsedda ändamålet med AI-systemet med hög risk.

3.   Utan att det påverkar tillämpningen av punkterna 1 och 1a ska användaren, i den mån användaren utövar kontroll över indata, säkerställa att indata är relevanta och tillräckligt representativa med tanke på det avsedda ändamålet med AI-systemet med hög risk.

Ändring 404

Förslag till förordning

Artikel 29 – punkt 4 – stycke 1

Kommissionens förslag

Ändring

4.   Användarna ska övervaka driften av AI-systemet med hög risk på grundval av bruksanvisningen. Om de har skäl att tro att användningen i enlighet med bruksanvisningen kan leda till att AI-systemet utgör en risk i den mening som avses i artikel 65.1 ska de informera leverantören eller distributören och tillfälligt stoppa användningen av systemet. De ska också informera leverantören eller distributören när de har identifierat en allvarlig incident eller en funktionsstörning i den mening som avses i artikel 62 och avbryta användningen av AI-systemet. Om användaren inte kan nå leverantören ska artikel 62 gälla i tillämpliga delar.

4.   Användarna ska övervaka driften av AI-systemet med hög risk på grundval av bruksanvisningen och, när så är relevant, informera leverantörerna i enlighet med artikel 61 . Om de har skäl att tro att användningen i enlighet med bruksanvisningen kan leda till att AI-systemet utgör en risk i den mening som avses i artikel 65.1 ska de utan otillbörligt dröjsmål informera leverantören eller distributören och de relevanta tillsynsmyndigheterna och tillfälligt stoppa användningen av systemet. De ska också omedelbart informera först leverantören och sedan importören eller distributören och de relevanta tillsynsmyndigheterna när de har identifierat en allvarlig incident eller en funktionsstörning i den mening som avses i artikel 62 och avbryta användningen av AI-systemet. Om användaren inte kan nå leverantören ska artikel 62 gälla i tillämpliga delar.

Ändring 405

Förslag till förordning

Artikel 29 – punkt 4 – stycke 2

Kommissionens förslag

Ändring

För användare som är kreditinstitut som regleras av direktiv 2013/36/EU ska den övervakningsskyldighet som föreskrivs i första stycket anses vara uppfylld genom att man följer reglerna om former för intern styrning, processer och metoder enligt artikel 74 i det direktivet.

(Berör inte den svenska versionen.)

Ändring 406

Förslag till förordning

Artikel 29 – punkt 5 – stycke 1

Kommissionens förslag

Ändring

5.   Användare av AI-system med hög risk ska spara de loggar som genereras automatiskt av systemet i fråga, i den mån sådana loggar står under deras kontroll. Loggarna ska sparas under en period som är lämplig mot bakgrund av det avsedda ändamålet med AI-systemet med hög risk och tillämpliga rättsliga skyldigheter enligt unionsrätten eller nationell rätt .

5.   Användare av AI-system med hög risk ska spara de loggar som genereras automatiskt av systemet i fråga, i den mån sådana loggar står under deras kontroll och krävs för att säkerställa och visa efterlevnad av denna förordning, för efterhandsrevisioner av alla rimligen förutsebara funktionsfel, incidenter eller felaktiga användningar av systemet, eller för att säkerställa och övervaka att systemet fungerar korrekt under hela sin livscykel . Utan att det påverkar tillämplig unionsrätt eller nationell rätt ska loggarna sparas i minst sex månader. Lagringsperioden ska vara i enlighet med branschstandarder och lämplig för det avsedda ändamålet med AI-systemet med hög risk.

Ändring 407

Förslag till förordning

Artikel 29 – punkt 5 – stycke 2

Kommissionens förslag

Ändring

Användare som är kreditinstitut som regleras av direktiv 2013/36/EU ska underhålla loggarna som en del av dokumentationen om intern styrning, styrformer, processer och metoder i enlighet med artikel 74 i det direktivet.

(Berör inte den svenska versionen.)

Ändring 408

Förslag till förordning

Artikel 29 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     Innan ett AI-system med hög risk tas i bruk eller används på arbetsplatsen ska användarna samråda med arbetstagarrepresentanter i syfte att nå en överenskommelse i enlighet med direktiv 2002/14/EG och informera de berörda arbetstagarna om att de kommer att omfattas av systemet.

Ändring 409

Förslag till förordning

Artikel 29 – punkt 5b (ny)

Kommissionens förslag

Ändring

 

5b.     Användare av AI-system med hög risk som är offentliga myndigheter eller unionens institutioner, organ och byråer eller företag som avses i artikel 51.1a b ska uppfylla de registreringsskyldigheter som avses i artikel 51.

Ändring 410

Förslag till förordning

Artikel 29 – punkt 6

Kommissionens förslag

Ändring

6.   Användare av AI-system med hög risk ska använda den information som tillhandahålls enligt artikel 13 för att uppfylla sin skyldighet att genomföra en konsekvensbedömning avseende dataskydd enligt artikel 35 i förordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680, i tillämpliga fall .

6.   Användare av AI-system med hög risk ska i tillämpliga fall använda den information som tillhandahålls enligt artikel 13 för att uppfylla sin skyldighet att genomföra en konsekvensbedömning avseende dataskydd enligt artikel 35 i förordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680, och en sammanfattning av denna ska offentliggöras, med beaktande av den specifika användningen och det specifika sammanhang i vilket AI-systemet är avsett att vara i drift . Användare kan delvis återgå till dessa konsekvensbedömningar avseende dataskydd för att uppfylla vissa av de skyldigheter som anges i denna artikel, i den mån konsekvensbedömningen avseende dataskydd uppfyller dessa skyldigheter.

Ändring 411

Förslag till förordning

Artikel 29 – punkt 6a (ny)

Kommissionens förslag

Ändring

 

6a.     Utan att det påverkar tillämpningen av artikel 52 ska användare av AI-system med hög risk som avses i bilaga III och som fattar beslut eller hjälper till att fatta beslut som rör fysiska personer informera de fysiska personerna om att de är föremål för användning av AI-systemet med hög risk. Denna information ska omfatta det avsedda ändamålet och typen av beslut som det fattar. Användaren ska också informera den fysiska personen om dennes rätt till en förklaring enligt vad som avses i artikel 68c.

Ändring 412

Förslag till förordning

Artikel 29 – punkt 6b (ny)

Kommissionens förslag

Ändring

 

6b.     Användare ska samarbeta med de relevanta nationella behöriga myndigheterna om alla åtgärder som dessa myndigheter vidtar med avseende på högrisksystemet i syfte att genomföra denna förordning.

Ändring 413

Förslag till förordning

Artikel 29a (ny)

Kommissionens förslag

Ändring

 

Artikel 29a

 

Bedömning av hur AI-system med hög risk påverkar grundläggande rättigheter

 

Innan ett AI-system med hög risk enligt definitionen i artikel 6.2 tas i bruk, med undantag för AI-system som är avsedda att användas i område 2 i bilaga III, ska användarna göra en bedömning av systemens inverkan i det specifika användningssammanhanget. Denna bedömning ska minst omfatta följande:

 

a)

En tydlig beskrivning av det ändamål som systemet är avsett att användas för.

 

b)

En tydlig beskrivning av det geografiska område och den tidsperiod som systemet är avsett att användas inom.

 

c)

Kategorier av fysiska personer och grupper som sannolikt kommer att påverkas av användningen av systemet.

 

d)

Kontroll av att användningen av systemet är förenlig med relevant unionsrätt och nationell rätt om grundläggande rättigheter.

 

e)

Den rimligen förutsebara inverkan på de grundläggande rättigheterna till följd av att AI-systemet med hög risk tas i bruk.

 

f)

Specifika risker för skada som sannolikt kommer att påverka marginaliserade personer eller utsatta grupper.

 

g)

Den negativa påverkan som det rimligen går att förutse att användning av systemet kommer att få för miljön.

 

h)

En detaljerad plan för hur skadan och den negativa påverkan på de grundläggande rättigheterna som identifierats kommer att begränsas.

 

j)

Det styrningssystem som användaren kommer att inrätta, inklusive mänsklig tillsyn, hantering av klagomål och rättslig prövning.

 

2.     Om en detaljerad plan för att begränsa de risker som beskrivits under den bedömning som beskrivs i punkt 1 inte kan identifieras, ska användaren avstå från att ta AI-systemet med hög risk i bruk och utan otillbörligt dröjsmål informera leverantören och den nationella tillsynsmyndigheten. Nationella tillsynsmyndigheter ska i enlighet med artiklarna 65 och 67 beakta denna information när de undersöker system som utgör en risk på nationell nivå.

 

3.     Den skyldighet som beskrivs enligt punkt 1 gäller för den första användningen av AI-systemet med hög risk. Användaren kan i liknande fall dra nytta av tidigare genomförda konsekvensbedömningar avseende grundläggande rättigheter eller befintliga bedömningar som utförts av leverantörer. En användare som under användningen av AI-systemet med hög risk anser att de kriterier som förtecknas i punkt 1 inte längre är uppfyllda ska genomföra en ny konsekvensbedömning avseende grundläggande rättigheter.

 

4.     Under konsekvensbedömningens gång ska användaren, med undantag av små och medelstora företag, underrätta den nationella tillsynsmyndigheten och relevanta intressenter och i största möjliga utsträckning involvera företrädare för de personer eller grupper av personer som sannolikt kommer att påverkas av AI-systemet med hög risk, enligt vad som anges i punkt 1, inbegripet men inte begränsat till följande: likabehandlingsorgan, konsumentskyddsorgan, arbetsmarknadens parter och dataskyddsorgan, i syfte att erhålla synpunkter på konsekvensbedömningen. Användaren ska tillåta en svarstid på sex veckor för organen. Små och medelstora företag får frivilligt tillämpa bestämmelserna i denna punkt.

 

I det fall som avses i artikel 47.1 får offentliga myndigheter undantas från dessa skyldigheter.

 

5.     Den användare som är en offentlig myndighet eller ett företag som avses i artikel 51.1a b ska offentliggöra en sammanfattning av resultaten av konsekvensbedömningen som en del av registreringen av användningen i enlighet med sin skyldighet enligt artikel 51.2.

 

6.     Om användaren redan är skyldig att genomföra en konsekvensbedömning avseende dataskydd enligt artikel 35 i förordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680 ska den konsekvensbedömning avseende grundläggande rättigheter som avses i punkt 1 genomföras i samband med konsekvensbedömningen avseende dataskydd. Konsekvensbedömningen avseende dataskydd ska offentliggöras som ett tillägg.

Ändring 414

Förslag till förordning

Artikel 30 – punkt 1

Kommissionens förslag

Ändring

1.   Varje medlemsstat ska utse eller etablera en anmälande myndighet som ska ansvara för inrättandet och genomförandet av de förfaranden som krävs för bedömning, utseende och anmälan av organ för bedömning av överensstämmelse och för övervakning av dessa.

1.   Varje medlemsstat ska utse eller etablera en anmälande myndighet som ska ansvara för inrättandet och genomförandet av de förfaranden som krävs för bedömning, utseende och anmälan av organ för bedömning av överensstämmelse och för övervakning av dessa. Dessa förfaranden ska utvecklas i samarbete mellan de anmälande myndigheterna i alla medlemsstater

Ändring 415

Förslag till förordning

Artikel 30 – punkt 7

Kommissionens förslag

Ändring

7.   Anmälande myndigheter ska förfoga över tillräckligt med personal med lämplig kompetens för att kunna utföra sina uppgifter.

7.   Anmälande myndigheter ska förfoga över tillräckligt med personal med lämplig kompetens för att kunna utföra sina uppgifter. I tillämpliga fall ska kompetent personal ha nödvändig sakkunskap, till exempel en examen inom ett lämpligt rättsligt område, i övervakningen av de grundläggande rättigheter som fastställs i Europeiska unionens stadga om de grundläggande rättigheterna.

Ändring 416

Förslag till förordning

Artikel 30 – punkt 8

Kommissionens förslag

Ändring

8.   Anmälande myndigheter ska se till att bedömningar av överensstämmelse utförs på ett proportionerligt sätt, så att man undviker onödiga bördor för leverantörer och att anmälda organ utför sin verksamhet med vederbörlig hänsyn till ett företags storlek, den sektor inom vilken det är verksamt, dess struktur och det berörda AI-systemets komplexitet.

8.   Anmälande myndigheter ska se till att bedömningar av överensstämmelse utförs på ett proportionerligt sätt och i tid , så att man undviker onödiga bördor för leverantörer, och att anmälda organ utför sin verksamhet med vederbörlig hänsyn till ett företags storlek, den sektor inom vilken det är verksamt, dess struktur och det berörda AI-systemets komplexitet. Särskild uppmärksamhet ska ägnas åt att minimera de administrativa bördorna och efterlevnadskostnaderna för mikroföretag och småföretag enligt definitionen i kommissionens rekommendation 2003/361/EG.

Ändring 417

Förslag till förordning

Artikel 32 – punkt 1

Kommissionens förslag

Ändring

1.   De anmälande myndigheterna får endast anmäla de organ för bedömning av överensstämmelse som har uppfyllt kraven i artikel 33.

1.   De anmälande myndigheterna ska endast anmäla de organ för bedömning av överensstämmelse som har uppfyllt kraven i artikel 33.

Ändring 418

Förslag till förordning

Artikel 32 – punkt 2

Kommissionens förslag

Ändring

2.   De anmälande myndigheterna ska anmäla detta till kommissionen och de andra medlemsstaterna med hjälp av det elektroniska anmälningsverktyg som har utvecklats och förvaltas av kommissionen.

2.   De anmälande myndigheterna ska till kommissionen och de andra medlemsstaterna, med hjälp av det elektroniska anmälningsverktyg som har utvecklats och förvaltas av kommissionen , anmäla varje organ för bedömning av överensstämmelse som avses i punkt 1 .

Ändring 419

Förslag till förordning

Artikel 32 – punkt 3

Kommissionens förslag

Ändring

3.   Anmälan ska innehålla detaljerade uppgifter om bedömningarna av överensstämmelse, modulen eller modulerna för bedömning av överensstämmelse och den berörda AI-tekniken.

3.    Den anmälan som avses i punkt 2 ska innehålla detaljerade uppgifter om bedömningarna av överensstämmelse, modulen eller modulerna för bedömning av överensstämmelse och den berörda AI-tekniken , samt det relevanta kompetensintyget .

Ändring 420

Förslag till förordning

Artikel 32 – punkt 4

Kommissionens förslag

Ändring

4.   Det organ som bedömer överensstämmelse får bedriva verksamhet som anmält organ endast om kommissionen eller de andra medlemsstaterna inte har gjort invändningar inom en månad från anmälan.

4.   Det berörda organet för bedömning av överensstämmelse får bedriva verksamhet som anmält organ endast om kommissionen eller de andra medlemsstaterna inte har gjort invändningar inom två veckor efter validering av anmälan, om ett ackrediteringsintyg enligt artikel 31.2 används, eller inom två månader efter anmälan , om styrkande handlingar enligt artikel 31.3 används .

Ändring 421

Förslag till förordning

Artikel 32 – punkt 4a (ny)

Kommissionens förslag

Ändring

 

4a.     Om invändningar görs ska kommissionen utan dröjsmål inleda samråd med de berörda medlemsstaterna och organet för bedömning av överensstämmelse. Mot bakgrund av detta ska kommissionen besluta om tillståndet är motiverat eller inte. Kommissionen ska rikta sitt beslut till medlemsstaten i fråga och det berörda organet för bedömning av överensstämmelse.

Ändring 422

Förslag till förordning

Artikel 32 – punkt 4b (ny)

Kommissionens förslag

Ändring

 

4b.     Medlemsstaterna ska anmäla organ för bedömning av överensstämmelse till kommissionen och övriga medlemsstater.

Ändring 423

Förslag till förordning

Artikel 33 – punkt 2

Kommissionens förslag

Ändring

2.    Allmänna organ ska uppfylla de organisatoriska krav och krav på kvalitetsledning, resurser och processer som är nödvändiga för att organen ska kunna fullgöra sina uppgifter.

2.    Anmälda organ ska uppfylla de krav på organisation, kvalitetsledning, resurser och processer som är nödvändiga för att de ska kunna fullgöra sina uppgifter samt de minimikrav för cybersäkerhet som fastställts för enheter inom offentlig förvaltning som identifierats som leverantörer av samhällsviktiga tjänster i enlighet med direktiv (EU 2022/2555) .

Ändring 424

Förslag till förordning

Artikel 33 – punkt 4

Kommissionens förslag

Ändring

4.   Anmälda organ ska vara oberoende av den leverantör av AI-system med hög risk för vilken organet utför bedömning av överensstämmelse. Anmälda organ ska också vara oberoende av varje annan operatör som har ett ekonomiskt intresse i det AI-system med hög risk som bedöms samt av eventuella konkurrenter till leverantören.

4.   Anmälda organ ska vara oberoende av den leverantör av AI-system med hög risk för vilken organet utför bedömning av överensstämmelse. Anmälda organ ska också vara oberoende av varje annan operatör som har ett ekonomiskt intresse i det AI-system med hög risk som bedöms samt av eventuella konkurrenter till leverantören. Detta ska inte hindra att bedömda AI-system som är nödvändiga för verksamheten inom organet för bedömning av överensstämmelse används, eller att sådana AI-system används för personligt bruk.

Ändring 425

Förslag till förordning

Artikel 33 – punkt 4a (ny)

Kommissionens förslag

Ändring

 

4a.     En bedömning av överensstämmelse i enlighet med punkt 1 ska utföras av anställda vid anmälda organ som inte har tillhandahållit någon annan tjänst med anknytning till det bedömda ärendet än bedömningen av överensstämmelse till leverantören av ett AI-system med hög risk eller till någon juridisk person som är ansluten till den leverantören under de tolv månader som föregick bedömningen och som har åtagit sig att inte tillhandahålla sådana tjänster inom tolv månader efter att bedömningen slutförts.

Ändring 426

Förslag till förordning

Artikel 33 – punkt 6

Kommissionens förslag

Ändring

6.   Anmälda organ ska ha infört dokumenterade förfaranden som ska säkerställa att deras personal, kommittéer, dotterbolag, underleverantörer och andra associerade organ eller personal vid externa organ respekterar konfidentialiteten i fråga om den information som organen får kännedom om i samband med aktiviteter avseende bedömning av överensstämmelse, utom när informationen måste lämnas ut enligt lag. De anmälda organens personal ska vara ålagd tystnadsplikt i fråga om all information som de erhåller under utförandet av sina uppgifter enligt denna förordning, utom gentemot de anmälande myndigheterna i den medlemsstat där deras verksamhet utförs.

6.   Anmälda organ ska ha infört dokumenterade förfaranden som ska säkerställa att deras personal, kommittéer, dotterbolag, underleverantörer och andra associerade organ eller personal vid externa organ respekterar konfidentialiteten i fråga om den information som organen får kännedom om i samband med aktiviteter avseende bedömning av överensstämmelse, utom när informationen måste lämnas ut enligt lag. De anmälda organens personal ska vara ålagd tystnadsplikt i fråga om all information som de erhåller under utförandet av sina uppgifter enligt denna förordning, utom gentemot de anmälande myndigheterna i den medlemsstat där deras verksamhet utförs. All information och dokumentation som har erhållits av anmälda organ i enlighet med bestämmelserna i denna artikel ska behandlas i enlighet med de konfidentialitetskrav som anges i artikel 70.

Ändring 427

Förslag till förordning

Artikel 34 – punkt 3

Kommissionens förslag

Ändring

3.   Verksamhet kan läggas ut på underentreprenad eller utföras av ett dotterbolag endast om leverantören samtycker därtill.

3.   Verksamhet kan läggas ut på underentreprenad eller utföras av ett dotterbolag endast om leverantören samtycker därtill. Anmälda organ ska offentliggöra en förteckning över sina dotterbolag.

Ändring 428

Förslag till förordning

Artikel 34 – punkt 4

Kommissionens förslag

Ändring

4.   De anmälda organen ska se till att den anmälande myndigheten har tillgång till de relevanta dokumenten rörande bedömningen av underentreprenörens eller dotterbolagets kvalifikationer och det arbete som dessa har utfört i enlighet med denna förordning.

4.   De anmälda organen ska se till att den anmälande myndigheten har tillgång till de relevanta dokumenten rörande kontrollen av underentreprenörens eller dotterbolagets kvalifikationer och det arbete som dessa har utfört i enlighet med denna förordning.

Ändring 429

Förslag till förordning

Artikel 35 – rubriken

Kommissionens förslag

Ändring

Identifikationsnummer och förteckningar över de organ som anmälts inom ramen för denna förordning

Identifikationsnummer och förteckningar över anmälda organ

Ändring 430

Förslag till förordning

Artikel 36 – punkt 1

Kommissionens förslag

Ändring

1.   Om en anmälande myndighet misstänker eller har informerats om att ett anmält organ inte längre uppfyller de krav som anges i artikel 33 eller att det underlåter att fullgöra sina skyldigheter, ska den anmälande myndigheten utan dröjsmål undersöka frågan med största möjliga omsorg. I detta sammanhang ska den anmälande myndigheten underrätta det berörda anmälda organet om de invändningar som framförts och ge det möjlighet att lämna synpunkter. Om en anmälande myndighet drar slutsatsen att ett anmält organ inte längre uppfyller de krav som anges i artikel 33 eller att det underlåter att fullgöra sina skyldigheter, ska den anmälande myndigheten när så är lämpligt, beroende på hur allvarlig underlåtenheten att uppfylla kraven eller fullgöra skyldigheterna är, begränsa anmälan, tillfälligt återkalla den eller dra den tillbaka. Myndigheten ska också omedelbart informera kommissionen och de andra medlemsstaterna om detta.

(Berör inte den svenska versionen.)

Ändring 431

Förslag till förordning

Artikel 36 – punkt 2

Kommissionens förslag

Ändring

2.   I händelse av begränsning, tillfällig återkallelse eller tillbakadragande av anmälan, eller om det anmälda organet har upphört med verksamheten, ska den anmälande myndigheten vidta lämpliga åtgärder för att säkerställa att det anmälda organets dokumentation antingen tas över av ett annat anmält organ eller hålls tillgänglig för de ansvariga anmälande myndigheterna på deras begäran.

2.   I händelse av begränsning, tillfällig återkallelse eller tillbakadragande av anmälan, eller om det anmälda organet har upphört med verksamheten, ska den anmälande myndigheten vidta lämpliga åtgärder för att säkerställa att det anmälda organets dokumentation antingen tas över av ett annat anmält organ eller hålls tillgänglig för de ansvariga anmälande myndigheterna och för marknadskontrollmyndigheter på deras begäran.

Ändring 432

Förslag till förordning

Artikel 37 – punkt 1

Kommissionens förslag

Ändring

1.   Kommissionen ska vid behov undersöka alla fall där det finns skäl att betvivla att ett anmält organ uppfyller kraven i artikel 33 .

1.   Kommissionen ska vid behov undersöka alla fall där det finns skäl att betvivla att ett anmält organ har erforderlig kompetens eller att ett anmält organ fortsatt uppfyller gällande krav och ansvar .

Ändring 433

Förslag till förordning

Artikel 37 – punkt 2

Kommissionens förslag

Ändring

2.   Den anmälande myndigheten ska på begäran ge kommissionen all information om anmälan av det berörda anmälda organet .

2.   Den anmälande myndigheten ska på begäran ge kommissionen all relevant information om anmälan eller underhåll av det berörda anmälda organets kompetens .

Ändring 434

Förslag till förordning

Artikel 37 – punkt 3

Kommissionens förslag

Ändring

3.   Kommissionen ska se till att all konfidentiell information som erhållits i samband med undersökningarna i enlighet med denna artikel behandlas konfidentiellt.

3.   Kommissionen ska se till att all känslig information som erhållits i samband med undersökningarna i enlighet med denna artikel behandlas konfidentiellt.

Ändring 435

Förslag till förordning

Artikel 37 – punkt 4

Kommissionens förslag

Ändring

4.   Om kommissionen konstaterar att ett anmält organ inte uppfyller eller inte längre uppfyller kraven som fastställs i artikel 33 ska den anta ett motiverat beslut för att anmoda den anmälande medlemsstaten att vidta erforderliga korrigerande åtgärder, inbegripet att vid behov återta anmälan. Den genomförandeakten ska antas i enlighet med det granskningsförfarande som avses i artikel 74.2.

4.   Om kommissionen konstaterar att ett anmält organ inte uppfyller eller inte längre uppfyller kraven för anmälan ska den informera den anmälande medlemsstaten om detta och anmoda medlemsstaten att vidta erforderliga korrigerande åtgärder, inbegripet att vid behov dra tillbaka eller återta anmälan. Om medlemsstaten inte vidtar nödvändiga korrigerande åtgärder får kommissionen genom en genomförandeakt belägga utseendet med restriktioner eller återkalla det tillfälligt eller slutgiltigt. Den genomförandeakten ska antas i enlighet med det granskningsförfarande som avses i artikel 74.2.

Ändring 436

Förslag till förordning

Artikel 38 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2a.     Kommissionen ska se till att det förekommer utbyte av kunskap och bästa praxis mellan de myndigheter i medlemsstaterna som ansvarar för riktlinjerna för anmälan.

Ändring 437

Förslag till förordning

Artikel 40 – stycke 1

Kommissionens förslag

Ändring

AI-system med hög risk som överensstämmer med harmoniserade standarder eller delar av dessa, till vilka hänvisningar har offentliggjorts i Europeiska unionens officiella tidning, ska förutsättas överensstämma med de krav som fastställs i kapitel 2 i denna avdelning i den omfattning som standarderna omfattar dessa krav.

AI-system med hög risk och grundmodeller som överensstämmer med harmoniserade standarder eller delar av dessa till vilka hänvisningar har offentliggjorts i Europeiska unionens officiella tidning i enlighet med förordning (EU) nr 1025/2012 ska förutsättas överensstämma med de krav som fastställs i kapitel 2 i denna avdelning eller artikel 28b i den omfattning som standarderna omfattar dessa krav.

Ändring 438

Förslag till förordning

Artikel 40 – stycke 1a (nytt)

Kommissionens förslag

Ändring

 

Kommissionen ska utfärda begäranden om standardisering som omfattar alla krav i denna förordning i enlighet med artikel 10 i förordning (EU) nr 1025/2012 senast den … [två månader efter dagen för denna förordnings ikraftträdande]. När kommissionen utarbetar en begäran om standardisering ska den samråda med AI-byrån och den rådgivande gruppen.

Ändring 439

Förslag till förordning

Artikel 40 – stycke 1b (nytt)

Kommissionens förslag

Ändring

 

När kommissionen utfärdar en begäran om standardisering till europeiska standardiseringsorganisationer ska den specificera att standarderna måste vara förenliga, inbegripet med den sektorslagstiftning som förtecknas i bilaga II, och syfta till att säkerställa att AI-system eller grundmodeller som släpps ut på marknaden eller tas i bruk i unionen uppfyller de relevanta kraven i denna förordning.

Ändring 440

Förslag till förordning

Artikel 40 – punkt 1c (ny)

Kommissionens förslag

Ändring

 

De aktörer som deltar i standardiseringsprocessen ska beakta de allmänna principer för tillförlitlig AI som anges i artikel 4 a, sträva efter att främja investeringar och innovation inom AI samt unionsmarknadens konkurrenskraft och tillväxt, och bidra till att stärka det globala standardiseringssamarbetet och ta hänsyn till befintliga internationella standarder på AI-området som är förenliga med unionens värden, grundläggande rättigheter och intressen, och säkerställa en balanserad representation av intressen och ett faktiskt deltagande av alla relevanta intressenter i enlighet med artiklarna 5, 6 och 7 i förordning (EU) nr 1025/2012.

Ändring 441

Förslag till förordning

Artikel 41 – punkt 1

Kommissionens förslag

Ändring

1.     Om sådana harmoniserade standarder som avses i artikel 40 inte finns eller om kommissionen anser att de relevanta harmoniserade standarderna är otillräckliga eller att det finns ett behov av att ta itu med specifika säkerhetsproblem eller frågor som rör de grundläggande rättigheterna, får kommissionen genom genomförandeakter anta gemensamma specifikationer med avseende på de krav som anges i kapitel 2 i denna avdelning. Dessa genomförandeakter ska antas i enlighet med det granskningsförfarande som avses i artikel 74.2.

utgår

Ändring 442

Förslag till förordning

Artikel 41 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Kommissionen får, genom en genomförandeakt som antas i enlighet med det granskningsförfarande som avses i artikel 74.2 och efter samråd med AI-byrån och den rådgivande gruppen för AI, anta gemensamma specifikationer med avseende på kraven i kapitel 2 i denna avdelning eller artikel 28b om samtliga följande villkor är uppfyllda:

 

a)

Det finns ingen hänvisning till harmoniserade standarder som redan har offentliggjorts i Europeiska unionens officiella tidning och som rör de väsentliga kraven, såvida inte den harmoniserade standarden i fråga är en befintlig standard som måste revideras.

 

b)

Kommissionen har begärt att en eller flera europeiska standardiseringsorganisationer ska utarbeta en harmoniserad standard för de väsentliga krav som anges i kapitel 2.

 

c)

Den begäran som avses i led b har inte godtagits av någon av de europeiska standardiseringsorganisationerna, eller det förekommer otillbörliga förseningar i utarbetandet av en lämplig harmoniserad standard, eller den standard som tillhandahållits uppfyller inte kraven i den relevanta unionsrätten eller överensstämmer inte med kommissionens begäran.

Ändring 443

Förslag till förordning

Artikel 41 – punkt 1b (ny)

Kommissionens förslag

Ändring

 

1b.     Om kommissionen anser att det finns ett behov att behandla specifika frågor som rör de grundläggande rättigheterna ska de gemensamma specifikationer som antas av kommissionen i enlighet med punkt 1a också behandla dessa specifika frågor som rör de grundläggande rättigheterna.

Ändring 444

Förslag till förordning

Artikel 41 – punkt 1c (ny)

Kommissionens förslag

Ändring

 

1c.     Kommissionen ska utarbeta gemensamma specifikationer för metoden för att uppfylla rapporterings- och dokumentationskraven för förbrukning av energi och resurser under utveckling, träning och användning av AI-systemet med hög risk.

Ändring 445

Förslag till förordning

Artikel 41 – punkt 2

Kommissionens förslag

Ändring

2.    Kommissionen ska när den utarbetar de gemensamma specifikationer som avses i  punkt 1 samla in synpunkter från relevanta organ eller expertgrupper som inrättats enligt relevant sektorsspecifik unionsrätt .

2.    Under hela processen med att utarbeta de gemensamma specifikationer som avses i  punkterna 1 a och 1b ska kommissionen regelbundet samråda med AI-byrån och den rådgivande gruppen, de europeiska standardiseringsorganisationer och standardiseringsorgan eller expertgrupper som inrättats enligt relevant sektorsspecifik unionslagstiftning samt andra relevanta intressenter . Kommissionen ska uppfylla de mål som avses i artikel 40.1c och vederbörligen motivera varför den beslutat att använda sig av gemensamma specifikationer.

 

Om kommissionen har för avsikt att anta gemensamma specifikationer i enlighet med punkt 1a i denna artikel ska den också tydligt ange den specifika fråga avseende grundläggande rättigheter som ska behandlas.

 

När kommissionen antar gemensamma specifikationer i enlighet med punkterna 1a och 1b i denna artikel ska den beakta det yttrande från AI-byrån som avses i artikel 56e b i denna förordning. Om kommissionen beslutar att inte följa AI-byråns yttrande ska den lämna en motiverad förklaring till AI-byrån.

Ändring 446

Förslag till förordning

Artikel 41 – punkt 3

Kommissionens förslag

Ändring

3.   AI-system med hög risk som överensstämmer med de gemensamma specifikationer som hänvisas till i  punkt 1 ska förutsättas överensstämma med de krav som fastställs i kapitel 2 i denna avdelning i den omfattning som de gemensamma specifikationerna omfattar dessa krav.

3.   AI-system med hög risk som överensstämmer med de gemensamma specifikationer som hänvisas till i  punkterna 1 a och 1b ska förutsättas överensstämma med de krav som fastställs i kapitel 2 i denna avdelning i den omfattning som de gemensamma specifikationerna omfattar dessa krav.

Ändring 447

Förslag till förordning

Artikel 41 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     Om en harmoniserad standard antas av en europeisk standardiseringsorganisation och föreslås för kommissionen för offentliggörande av hänvisningen till den i Europeiska unionens officiella tidning, ska kommissionen bedöma den harmoniserade standarden i enlighet med förordning (EU) nr 1025/2012. När en hänvisning till en harmoniserad standard offentliggörs i Europeiska unionens officiella tidning ska kommissionen upphäva de akter som avses i punkterna 1 och 1b, eller delar av dem som omfattar samma krav som anges i kapitel 2 i denna avdelning.

Ändring 448

Förslag till förordning

Artikel 41 – punkt 4

Kommissionens förslag

Ändring

4.   Om leverantörer inte följer de gemensamma specifikationer som avses i punkt 1 ska de vederbörligen motivera att de har antagit tekniska lösningar som åtminstone är likvärdiga med dessa .

4.   Om leverantörer av AI-system med hög risk inte följer de gemensamma specifikationer som avses i punkt 1 ska de vederbörligen motivera att de har antagit tekniska lösningar som uppfyller kraven i kapitel 2 till en nivå som åtminstone är likvärdig med dem .

Ändring 449

Förslag till förordning

Artikel 42 – punkt 1

Kommissionens förslag

Ändring

1.   Med beaktande av deras avsedda ändamål ska AI-system med hög risk som har tränats och testats på data som berör den specifika geografiska, beteendemässiga och funktionella miljö inom vilken de är avsedda att användas antas uppfylla kravet i artikel 10.4.

1.   Med beaktande av deras avsedda ändamål ska AI-system med hög risk som har tränats och testats på data som berör den specifika geografiska, beteendemässiga , kontextuella och funktionella miljö inom vilken de är avsedda att användas antas uppfylla de respektive kraven i artikel 10.4.

Ändring 450

Förslag till förordning

Artikel 43 – punkt 1 – stycke 1 – inledningen

Kommissionens förslag

Ändring

1.   För AI-system med hög risk som förtecknas i punkt 1 i bilaga III, ska leverantören, när denne vill visa att ett AI-system med hög risk uppfyller kraven i kapitel 2 i denna avdelning och denne har tillämpat de harmoniserade standarder som avses i artikel 40 eller, i tillämpliga fall, de gemensamma specifikationer som avses i artikel 41, följa ett av följande förfaranden:

1.   För AI-system med hög risk som förtecknas i punkt 1 i bilaga III ska leverantören, när denne vill visa att ett AI-system med hög risk uppfyller kraven i kapitel 2 i denna avdelning och har tillämpat de harmoniserade standarder som avses i artikel 40 eller, i tillämpliga fall, de gemensamma specifikationer som avses i artikel 41, välja ett av följande förfaranden:

Ändring 451

Förslag till förordning

Artikel 43 – punkt 1 – stycke 1 – led a

Kommissionens förslag

Ändring

(a)

Det förfarande för bedömning av överensstämmelse grundat på intern kontroll som hänvisas till i bilaga VI.

(a)

Det förfarande för bedömning av överensstämmelse grundat på intern kontroll som hänvisas till i bilaga VI , eller

Ändring 452

Förslag till förordning

Artikel 43 – punkt 1 – stycke 1 – led b

Kommissionens förslag

Ändring

(b)

Det förfarande för bedömning av överensstämmelse grundat på en bedömning av kvalitetsstyrningssystemet och en bedömning av den tekniska dokumentationen, med deltagande av ett anmält organ, som hänvisas till i bilaga VII.

(b)

det förfarande för bedömning av överensstämmelse grundat på en bedömning av kvalitetsstyrningssystemet och den tekniska dokumentationen, med deltagande av ett anmält organ, som hänvisas till i bilaga VII.

Ändring 453

Förslag till förordning

Artikel 43 – punkt 1 – stycke 2

Kommissionens förslag

Ändring

När leverantören vill visa att ett AI-system med hög risk uppfyller kraven som fastställs i kapitel 2 i denna avdelning och leverantören inte har tillämpat eller endast delvis har tillämpat de harmoniserade standarder som hänvisas till i artikel 40, eller i fall där sådana harmoniserade standarder saknas och de gemensamma specifikationerna som det hänvisas till i artikel 41 inte är tillgängliga, ska leverantören följa det förfarande för bedömning som fastställs i bilaga VII.

När leverantören vill visa att ett AI-system med hög risk uppfyller de krav som fastställs i kapitel 2 i denna avdelning ska denne följa det förfarande för bedömning av överensstämmelse som anges i bilaga VII i följande fall:

 

a)

När det inte finns några harmoniserade standarder, enligt vad som avses i artikel 40, till vilka hänvisningar har offentliggjorts i Europeiska unionens officiella tidning och som omfattar alla relevanta säkerhetskrav för AI-systemet, och gemensamma specifikationer enligt vad som avses i artikel 41 inte är tillgängliga,

 

b)

När de tekniska specifikationer som avses i led a finns men leverantören inte har tillämpat dem eller endast delvis har tillämpat dem.

 

c)

När en eller flera av de tekniska specifikationer som avses i led a har offentliggjorts med en begränsning och endast för den del av standarden som begränsades.

 

d)

När leverantören anser att AI-systemets art, utformning, konstruktion eller syfte kräver tredjepartskontroll, oavsett risknivå.

Ändring 454

Förslag till förordning

Artikel 43 – punkt 1 – stycke 3

Kommissionens förslag

Ändring

För det förfarande för bedömning av överensstämmelse som avses i bilaga VII får leverantören välja vilket av de anmälda organen som helst. Om systemet är avsett att tas i bruk av brottsbekämpande myndigheter, immigrations- eller asylmyndigheter eller EU:s institutioner, organ eller byråer ska dock den marknadskontrollmyndighet som avses i artikel 63.5 eller 63.6, enligt vad som är tillämpligt, fungera som anmält organ.

För genomförande av det förfarande för bedömning av överensstämmelse som avses i bilaga VII får leverantören välja vilket av de anmälda organen som helst. Om systemet är avsett att tas i bruk av brottsbekämpande myndigheter, immigrations- eller asylmyndigheter eller EU:s institutioner, organ eller byråer ska dock den marknadskontrollmyndighet som avses i artikel 63.5 eller 63.6, enligt vad som är tillämpligt, fungera som anmält organ.

Ändring 455

Förslag till förordning

Artikel 43 – punkt 4 – stycke 1

Kommissionens förslag

Ändring

4.   AI-system med hög risk ska genomgå ett nytt förfarande för bedömning av överensstämmelse när de ändras väsentligt, oavsett om det ändrade systemet är avsett att distribueras vidare eller fortsätter att användas av den nuvarande användaren.

4.   AI-system med hög risk som redan har varit föremål för ett förfarande för bedömning av överensstämmelse ska genomgå ett nytt förfarande för bedömning av överensstämmelse när de ändras väsentligt, oavsett om det ändrade systemet är avsett att distribueras vidare eller fortsätter att användas av den nuvarande användaren.

Ändring 456

Förslag till förordning

Artikel 43 – punkt 4a (ny)

Kommissionens förslag

Ändring

 

4a.     Små och medelstora företags specifika intressen och behov ska beaktas när avgifterna för tredjepartsbedömning av överensstämmelse enligt denna artikel fastställs, och avgifterna ska minskas i proportion till deras storlek och marknadsandel.

Ändring 457

Förslag till förordning

Artikel 43 – punkt 5

Kommissionens förslag

Ändring

5.   Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 i syfte att uppdatera bilagorna VI och VII för att introducera element av förfarandena för bedömning av överensstämmelse som blir nödvändiga på grund av tekniska framsteg.

5.   Kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 i syfte att uppdatera bilagorna VI och VII för att introducera element av förfarandena för bedömning av överensstämmelse som blir nödvändiga på grund av tekniska framsteg. Vid utarbetandet av sådana delegerade akter ska kommissionen samråda med AI-byrån och de berörda parter som påverkas.

Ändring 458

Förslag till förordning

Artikel 43 – punkt 6

Kommissionens förslag

Ändring

6.   Kommissionen ges befogenhet att anta delegerade akter för att ändra punkterna 1 och 2 i syfte att låta de AI-system med hög risk som avses i punkterna 2–8 i bilaga III omfattas av det förfarande för bedömning av överensstämmelse som avses i bilaga VII eller delar därav. Kommissionen ska anta sådana delegerade akter med beaktande av hur ändamålsenligt förfarandet för bedömning av överensstämmelse grundat på intern kontroll enligt bilaga VI är när det gäller att förebygga eller minimera de risker för hälsa, säkerhet och skyddet av grundläggande rättigheter som sådana system medför samt vilken tillgång det finns till tillräcklig kapacitet och tillräckliga resurser bland anmälda organ.

6.   Kommissionen ges befogenhet att anta delegerade akter för att ändra punkterna 1 och 2 i syfte att låta de AI-system med hög risk som avses i punkterna 2–8 i bilaga III omfattas av det förfarande för bedömning av överensstämmelse som avses i bilaga VII eller delar därav. Kommissionen ska anta sådana delegerade akter med beaktande av hur ändamålsenligt förfarandet för bedömning av överensstämmelse grundat på intern kontroll enligt bilaga VI är när det gäller att förebygga eller minimera de risker för hälsa, säkerhet och skyddet av grundläggande rättigheter som sådana system medför samt vilken tillgång det finns till tillräcklig kapacitet och tillräckliga resurser bland anmälda organ. Vid utarbetandet av sådana delegerade akter ska kommissionen samråda med AI-byrån och de berörda parter som påverkas.

Ändring 459

Förslag till förordning

Artikel 44 – punkt 1

Kommissionens förslag

Ändring

1.   De intyg som de anmälda organen utfärdar i enlighet med bilaga VII ska vara upprättade på ett av unionens officiella språk som bestäms av den medlemsstat där det anmälda organet är etablerat eller på ett annat av unionens officiella språk som det anmälda organet godtar.

1.   De intyg som de anmälda organen utfärdar i enlighet med bilaga VII ska vara upprättade på ett eller flera av unionens officiella språk som bestäms av den medlemsstat där det anmälda organet är etablerat eller på ett eller flera av unionens officiella språk som det anmälda organet annars godtar.

Ändring 460

Förslag till förordning

Artikel 44 – punkt 2

Kommissionens förslag

Ändring

2.   Intyg ska gälla under den tid som anges i dem och högst i  fem år. På begäran av leverantören får intygets giltighet förlängas med högst fem år i taget på grundval av en ny bedömning i enlighet med det tillämpliga förfarandet för bedömning av överensstämmelse.

2.   Intyg ska gälla under den tid som anges i dem och högst i  fyra år. På begäran av leverantören får intygets giltighet förlängas med högst fyra år i taget på grundval av en ny bedömning i enlighet med det tillämpliga förfarandet för bedömning av överensstämmelse.

Ändring 461

Förslag till förordning

Artikel 44 – punkt 3

Kommissionens förslag

Ändring

3.   Om ett anmält organ konstaterar att ett AI-system inte längre uppfyller kraven som fastställs i kapitel 2 i denna avdelning, ska det , med beaktande av proportionalitetsprincipen, tillfälligt återkalla eller dra tillbaka det utfärdade intyget eller införa inskränkningar för det, om efterlevnad av dessa krav inte säkerställs genom lämpliga korrigerande åtgärder vidtagna av systemleverantören inom en rimlig tidsgräns som fastställts av det anmälda organet. Det anmälda organet ska motivera sitt beslut.

3.   Om ett anmält organ konstaterar att ett AI-system inte längre uppfyller kraven som fastställs i kapitel 2 i denna avdelning, ska det tillfälligt återkalla eller dra tillbaka det utfärdade intyget eller införa inskränkningar för det, om efterlevnad av dessa krav inte säkerställs genom lämpliga korrigerande åtgärder vidtagna av systemleverantören inom en rimlig tidsgräns som fastställts av det anmälda organet. Det anmälda organet ska motivera sitt beslut.

Ändring 462

Förslag till förordning

Artikel 45

Kommissionens förslag

Ändring

Medlemsstaterna ska se till att det finns ett förfarande för överklagande av de anmälda organens beslut för de parter som har ett berättigat intresse i beslutet.

Medlemsstaterna ska se till att det finns ett förfarande för överklagande av de anmälda organens beslut , inbegripet om utfärdade intyg om överensstämmelse, för de parter som har ett berättigat intresse i beslutet.

Ändring 463

Förslag till förordning

Artikel 46 – punkt 3

Kommissionens förslag

Ändring

3.   Varje anmält organ ska ge de andra anmälda organen, som utför liknande bedömningar av överensstämmelse avseende samma AI-teknik, relevant information om frågor som rör negativa och, på begäran, positiva resultat av bedömningar av överensstämmelse.

3.   Varje anmält organ ska ge de andra anmälda organ som utför liknande bedömningar av överensstämmelse relevant information om frågor som rör negativa och, på begäran, positiva resultat av bedömningar av överensstämmelse.

Ändring 464

Förslag till förordning

Artikel 47 – punkt 1

Kommissionens förslag

Ändring

1.   Genom undantag från artikel 43 får vilken marknadskontrollmyndighet som helst tillåta att specifika AI-system med hög risk släpps ut på marknaden eller tas i bruk inom den berörda medlemsstatens territorium, av exceptionella skäl som rör allmän säkerhet eller skydd av människors liv och hälsa, miljöskydd och skydd av viktiga industriella och infrastrukturella tillgångar . Godkännandet ska gälla under en begränsad tid, medan de nödvändiga förfarandena för bedömning av överensstämmelse genomförs, och ska upphöra att gälla när dessa förfaranden har slutförts. Dessa förfaranden ska slutföras utan onödigt dröjsmål.

1.   Genom undantag från artikel 43 får en nationell tillsynsmyndighet begära att en rättslig myndighet tillåter att specifika AI-system med hög risk släpps ut på marknaden eller tas i bruk inom den berörda medlemsstatens territorium, av exceptionella skäl som rör skydd av människors liv och hälsa, miljöskydd och skydd av kritisk infrastruktur . Godkännandet ska gälla under en begränsad tid, medan de nödvändiga förfarandena för bedömning av överensstämmelse genomförs, och ska upphöra att gälla när dessa förfaranden har slutförts. Dessa förfaranden ska slutföras utan onödigt dröjsmål.

Ändring 465

Förslag till förordning

Artikel 47 – punkt 2

Kommissionens förslag

Ändring

2.   Det godkännande som avses i punkt 1 ska endast utfärdas om marknadskontrollmyndigheten konstaterar att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. Marknadskontrollmyndigheten ska informera kommissionen och de andra medlemsstaterna om eventuella godkännanden som utfärdats i enlighet med punkt 1.

2.   Det godkännande som avses i punkt 1 ska endast utfärdas om den nationella tillsynsmyndigheten och den rättsliga myndigheten konstaterar att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. Den nationella tillsynsmyndigheten ska informera kommissionen , AI-byrån och de andra medlemsstaterna om varje begäran som görs och varje efterföljande godkännande som utfärdats i enlighet med punkt 1.

Ändring 466

Förslag till förordning

Artikel 47 – punkt 3

Kommissionens förslag

Ändring

3.   Godkännandet ska anses vara motiverat om ingen medlemsstat eller kommissionen har gjort någon invändning inom 15 kalenderdagar efter mottagandet av den information som avses i punkt 2 om ett godkännande utfärdat av en marknadskontrollmyndighet i en medlemsstat i enlighet med punkt 1.

3.   Godkännandet ska anses vara motiverat om ingen medlemsstat eller kommissionen har gjort någon invändning inom 15 kalenderdagar efter mottagandet av den information som avses i punkt 2 mot den nationella tillsynsmyndighetens begäran om ett godkännande utfärdat av en nationell tillsynsmyndighet i en medlemsstat i enlighet med punkt 1.

Ändring 467

Förslag till förordning

Artikel 47 – punkt 4

Kommissionens förslag

Ändring

4.   Om en medlemsstat inom 15 kalenderdagar efter mottagandet av den anmälan som avses i punkt 2 gör en invändning mot ett godkännande som utfärdats av en marknadskontrollmyndighet i en annan medlemsstat, eller om kommissionen anser att godkännandet strider mot unionslagstiftningen, eller att medlemsstatens slutsats om systemets överensstämmelse som avses i punkt 2 är ogrundad, ska kommissionen utan dröjsmål inleda samråd med den berörda medlemsstaten; den eller de operatörer som berörs ska rådfrågas och ha möjlighet att framföra sina åsikter. Mot bakgrund av detta ska kommissionen besluta om tillståndet är motiverat eller inte. Kommissionen ska rikta sitt beslut till den berörda medlemsstaten och den eller de berörda operatörerna.

4.   Om en medlemsstat inom 15 kalenderdagar efter mottagandet av den anmälan som avses i punkt 2 gör en invändning mot en begäran som utfärdats av en nationell tillsynsmyndighet i en annan medlemsstat, eller om kommissionen anser att godkännandet strider mot unionsrätten eller att medlemsstatens slutsats om systemets överensstämmelse enligt vad som avses i punkt 2 är ogrundad, ska kommissionen utan dröjsmål inleda samråd med den berörda medlemsstaten och AI-byrån ; den eller de operatörer som berörs ska rådfrågas och ha möjlighet att framföra sina åsikter. Mot bakgrund av detta ska kommissionen besluta om tillståndet är motiverat eller inte. Kommissionen ska rikta sitt beslut till den berörda medlemsstaten och den eller de berörda operatörerna.

Ändring 468

Förslag till förordning

Artikel 47 – punkt 5

Kommissionens förslag

Ändring

5.   Om godkännandet anses omotiverat ska detta dras tillbaka av den berörda medlemsstatens marknadskontrollmyndighet .

5.   Om godkännandet anses omotiverat ska detta dras tillbaka av den berörda medlemsstatens nationella tillsynsmyndighet .

Ändring 469

Förslag till förordning

Artikel 48 – punkt 1

Kommissionens förslag

Ändring

1.   Leverantören ska upprätta en skriftlig EU-försäkran om överensstämmelse för varje AI-system och kunna uppvisa den för de nationella myndigheterna i tio år efter det att AI-systemet har släppts ut på marknaden eller tagits i bruk. I EU-försäkran om överensstämmelse ska det anges för vilket AI-system den har upprättats. En kopia av EU-försäkran om överensstämmelse ska på begäran ges till de berörda nationella behöriga myndigheterna.

1.   Leverantören ska upprätta en skriftlig maskinläsbar, fysisk eller elektronisk EU-försäkran om överensstämmelse för varje AI-system med hög risk och kunna uppvisa den för den nationella tillsynsmyndigheten och de nationella behöriga myndigheterna i tio år efter det att AI-systemet med hög risk har släppts ut på marknaden eller tagits i bruk. En kopia av EU-försäkran om överensstämmelse ska på begäran lämnas in till den nationella tillsynsmyndigheten och de berörda nationella behöriga myndigheterna.

Ändring 470

Förslag till förordning

Artikel 48 – punkt 2

Kommissionens förslag

Ändring

2.   I EU-försäkran om överensstämmelse ska det anges att det berörda AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. EU-försäkran om överensstämmelse ska innehålla den information som anges i bilaga V och ska översättas till det eller de officiella unionsspråk som krävs av den eller de medlemsstater där AI-systemet med hög risk tillhandahålls.

2.   I EU-försäkran om överensstämmelse ska det anges att det berörda AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. EU-försäkran om överensstämmelse ska innehålla den information som anges i bilaga V och ska översättas till det eller de officiella unionsspråk som krävs av den eller de medlemsstater där AI-systemet med hög risk släpps ut på marknaden eller tillhandahålls.

Ändring 471

Förslag till förordning

Artikel 48 – punkt 3

Kommissionens förslag

Ändring

3.   Om AI-system med hög risk omfattas av annan harmoniseringslagstiftning i unionen som också kräver en EU-försäkran om överensstämmelse ska en enda EU-försäkran om överensstämmelse upprättas med avseende på all unionslagstiftning som är tillämplig på AI-systemet med hög risk. Försäkran ska innehålla all information som krävs för att identifiera vilken harmoniseringslagstiftning som försäkran gäller.

3.   Om AI-system med hög risk omfattas av annan harmoniseringslagstiftning i unionen som också kräver en EU-försäkran om överensstämmelse får en enda EU-försäkran om överensstämmelse upprättas med avseende på all unionslagstiftning som är tillämplig på AI-systemet med hög risk. Försäkran ska innehålla all information som krävs för att identifiera vilken unionslagstiftning om harmonisering som försäkran gäller.

Ändring 472

Förslag till förordning

Artikel 48 – punkt 5

Kommissionens förslag

Ändring

5.   Kommissionen ska ges befogenhet att anta delegerade akter i enlighet med artikel 73 i syfte av att uppdatera innehållet i den EU-försäkran om överensstämmelse som inrättas i bilaga V för att introducera element som blir nödvändiga på grund av tekniska framsteg.

5.    Efter samråd med AI-byrån ska kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 73 i syfte av att uppdatera innehållet i den EU-försäkran om överensstämmelse som anges i bilaga V för att introducera element som blir nödvändiga på grund av tekniska framsteg.

Ändring 473

Förslag till förordning

Artikel 49 – punkt 1

Kommissionens förslag

Ändring

1.   CE-märkningen ska anbringas på AI-systemet med hög risk så att den är synlig, läsbar och outplånlig. Om detta inte är möjligt eller lämpligt på grund av arten av AI-systemet med hög risk, ska märkningen anbringas på förpackningen eller på den medföljande dokumentationen, beroende på vad som är lämpligt.

1.    Den fysiska CE-märkningen ska anbringas på AI-systemet med hög risk så att den är synlig, läsbar och outplånlig innan AI-systemet med hög risk släpps ut på marknaden . Om detta inte är möjligt eller lämpligt på grund av arten av AI-systemet med hög risk, ska märkningen anbringas på förpackningen eller på den medföljande dokumentationen, beroende på vad som är lämpligt. Den kan åtföljas av ett piktogram eller någon annan märkning som anger en särskild risk eller användning.

Ändring 474

Förslag till förordning

Artikel 49 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     För enbart digitala AI-system med hög risk ska en digital CE-märkning användas endast om den lätt kan nås via det gränssnitt från vilket AI-systemet är tillgängligt eller via en lättillgänglig maskinläsbar kod eller andra elektroniska medel.

Ändring 475

Förslag till förordning

Artikel 49 – punkt 3

Kommissionens förslag

Ändring

3.   CE-märkningen ska i tillämpliga fall åtföljas av identifikationsnumret för det anmälda organ som ansvarar för den bedömning av överensstämmelse som föreskrivs i artikel 43. Identifikationsnumret ska också anges i sådant reklammaterial där det nämns att AI-systemet med hög risk uppfyller kraven för CE-märkning.

3.   CE-märkningen ska i tillämpliga fall åtföljas av identifikationsnumret för det anmälda organ som ansvarar för den bedömning av överensstämmelse som föreskrivs i artikel 43. Det anmälda organets identifikationsnummer ska anbringas av organet självt eller, enligt organets anvisningar, av leverantörens ombud. Identifikationsnumret ska också anges i sådant reklammaterial där det nämns att AI-systemet med hög risk uppfyller kraven för CE-märkning.

Ändring 476

Förslag till förordning

Artikel 49 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3 a.     Om AI-system med hög risk omfattas av annan unionslagstiftning som också föreskriver CE-märkning ska CE-märkningen visa att AI-systemet med hög risk också uppfyller kraven i den andra lagstiftningen.

Ändring 477

Förslag till förordning

Artikel 50 – inledningen

Kommissionens förslag

Ändring

Leverantören ska under en period på 10 år efter det att AI-systemet har släppts ut på marknaden eller tagits i bruk, för de nationella behöriga myndigheternas räkning hålla tillgängligt

Leverantören ska under en period på 10 år efter det att AI-systemet har släppts ut på marknaden eller tagits i bruk, för den nationella tillsynsmyndighetens och de nationella behöriga myndigheternas räkning hålla tillgängligt

Ändring 478

Förslag till förordning

Artikel 51 – stycke 1

Kommissionens förslag

Ändring

Innan ett AI-system med hög risk som avses i artikel 6.2 släpps ut på marknaden eller tas i bruk ska leverantören eller, i tillämpliga fall, den auktoriserade representanten registrera detta system i den EU-databas som avses i artikel 60.

Innan ett AI-system med hög risk som avses i artikel 6.2 släpps ut på marknaden eller tas i bruk ska leverantören eller, i tillämpliga fall, den auktoriserade representanten registrera detta system i den EU-databas som avses i artikel 60 , i enlighet med artikel 60.2 .

Ändring 479

Förslag till förordning

Artikel 51 – stycke 1a (nytt)

Kommissionens förslag

Ändring

 

Innan ett AI-system med hög risk tas i bruk eller används i enlighet med artikel 6.2 ska följande kategorier av användare registrera användningen av det AI-systemet i den EU-databas som avses i artikel 60:

 

a)

Användare som är offentliga myndigheter eller unionens institutioner, organ eller byråer eller användare som agerar på deras vägnar.

 

b)

Användare som är företag som betecknas som grindvakter enligt förordning (EU) 2022/1925.

Ändring 480

Förslag till förordning

Artikel 51 – stycke 1b (nytt)

Kommissionens förslag

Ändring

 

Användare som inte omfattas av stycke 1a ska ha rätt att frivilligt registrera användningen av ett AI-system med hög risk som avses i artikel 6.2 i den EU-databas som avses i artikel 60.

Ändring 481

Förslag till förordning

Artikel 51 – stycke 1c (nytt)

Kommissionens förslag

Ändring

 

En uppdaterad registrering måste göras omedelbart efter varje väsentlig ändring.

Ändring 482

Förslag till förordning

Avdelning IV

Kommissionens förslag

Ändring

TRANSPARENSKRAV FÖR VISSA AI-SYSTEM

TRANSPARENSKRAV

Ändring 483

Förslag till förordning

Artikel 52 – rubriken

Kommissionens förslag

Ändring

Transparenskrav för vissa AI-system

Transparenskrav

Ändring 484

Förslag till förordning

Artikel 52 – punkt 1

Kommissionens förslag

Ändring

1.   Leverantörer ska säkerställa att AI-system som är avsedda att interagera med fysiska personer utformas och utvecklas på ett sådant sätt att fysiska personer informeras om att de interagerar med ett AI-system, såvida detta inte är uppenbart på grund av användningens omständigheter och sammanhang. Denna skyldighet ska inte gälla AI-system som enligt lag får upptäcka, förebygga, utreda och lagföra brott, såvida inte dessa system är tillgängliga för allmänheten för att anmäla ett brott.

1.   Leverantörer ska säkerställa att AI-system som är avsedda att interagera med fysiska personer utformas och utvecklas på ett sådant sätt att AI-systemet, leverantören själv eller användaren i god tid och på ett tydligt och lättförståeligt sätt informerar den fysiska person som exponeras för ett AI-system om att de interagerar med ett AI-system, såvida detta inte är uppenbart på grund av användningens omständigheter och sammanhang.

 

Där så är lämpligt och relevant ska denna information även omfatta vilka funktioner som är AI-aktiverade, om det finns mänsklig tillsyn, och vem som ansvarar för beslutsprocessen, liksom de befintliga rättigheter och processer som, i enlighet med unionsrätten och nationell rätt, gör det möjligt för fysiska personer eller deras företrädare att invända mot tillämpningen av sådana system på dem och att söka rättslig prövning mot beslut som fattats av eller skada som orsakats av AI-system, inbegripet deras rätt att begära en förklaring. Denna skyldighet ska inte gälla AI-system som enligt lag får upptäcka, förebygga, utreda och lagföra brott, såvida inte dessa system är tillgängliga för allmänheten för att anmäla ett brott.

Ändring 485

Förslag till förordning

Artikel 52 – punkt 2

Kommissionens förslag

Ändring

2.   Användare av system för känsloigenkänning eller system för biometrisk kategorisering ska informera de fysiska personer som exponeras för systemet om systemets drift. Denna skyldighet ska inte gälla AI-system som används för biometrisk kategorisering som enligt lag får upptäcka, förebygga och utreda brott.

2.   Användare av system för känsloigenkänning eller system för biometrisk kategorisering som inte är förbjudna enligt artikel 5 ska i god tid och på ett tydligt och lättförståeligt sätt informera de fysiska personer som exponeras för systemet om systemets drift och inhämta deras samtycke innan deras biometriska uppgifter och andra personuppgifter behandlas i enlighet med förordning (EU) 2016/679, förordning (EU) 2016/1725 och direktiv (EU) 2016/280, beroende på vad som är tillämpligt . Denna skyldighet ska inte gälla AI-system som används för biometrisk kategorisering som enligt lag får upptäcka, förebygga och utreda brott.

Ändring 486

Förslag till förordning

Artikel 52 – punkt 3 – stycke 1

Kommissionens förslag

Ändring

3.   Användare av ett AI-system som genererar eller manipulerar bilder eller ljud eller videoinnehåll som på ett märkbart sätt liknar befintliga personer, objekt, platser eller andra enheter eller händelser och som för en person felaktigt skulle framstå som autentiska (deepfake), ska upplysa om att innehållet har skapats artificiellt eller manipulerats .

3.   Användare av ett AI-system som genererar eller manipulerar text, ljud eller visuellt innehåll som felaktigt skulle framstå som autentiskt eller sanningsenligt och som innehåller avbildningar av personer som verkar säga eller göra saker som de inte har sagt eller gjort, utan deras samtycke (deepfake), ska på ett lämpligt, snabbt, tydligt och synligt sätt upplysa om att innehållet har genererats eller manipulerats på konstlad väg, liksom, när så är möjligt, namnet på den fysiska eller juridiska person som genererat eller manipulerat det . Med upplysning avses märkning av innehållet på ett sätt som informerar om att innehållet är icke-autentiskt och som är tydligt synligt för mottagaren av det innehållet. Vid märkningen av innehållet ska användarna ta hänsyn till den allmänt erkända bästa tekniken och relevanta harmoniserade standarder och specifikationer.

Ändring 487

Förslag till förordning

Artikel 52 – punkt 3 – stycke 2

Kommissionens förslag

Ändring

Första stycket ska dock inte tillämpas om användningen enligt lag är tillåten för att upptäcka, förhindra , utreda och lagföra brott eller det är nödvändigt för utövandet av den rätt till yttrandefrihet och den rätt som avser konstens och den vetenskapliga forskningens frihet i Europeiska unionens stadga om de grundläggande rättigheterna, och under förutsättning att lämpliga skyddsåtgärder vidtas för tredje parts rättigheter och friheter.

3a.     Punkt 3 ska dock inte tillämpas om användningen av ett AI-system som genererar eller manipulerar text , ljud eller visuellt innehåll enligt lag är tillåten eller är nödvändig för utövandet av den rätt till yttrandefrihet och den rätt som avser konstens och den vetenskapliga forskningens frihet i Europeiska unionens stadga om de grundläggande rättigheterna, och under förutsättning att lämpliga skyddsåtgärder vidtas för tredje parts rättigheter och friheter. Om innehållet utgör en del av ett uppenbart kreativt, satiriskt, konstnärligt eller fiktivt kinematografi, videospel och liknande verk eller program, ska de transparenskrav som anges i punkt 3 begränsas till att upplysa om förekomsten av sådant genererat eller manipulerat innehåll på ett lämpligt, tydligt och synligt sätt som inte hindrar visningen av verket och, i förekommande fall, upplysa om tillämpliga upphovsrätter. Den ska inte heller hindra brottsbekämpande myndigheter från att använda AI-system som är avsedda att upptäcka deepfake och förebygga, utreda och lagföra brott med koppling till användning av deepfake.

Ändring 488

Förslag till förordning

Artikel 52 – punkt 3b (ny)

Kommissionens förslag

Ändring

 

3b.     Den information som avses i punkterna 1–3 ska lämnas till de fysiska personerna senast vid tidpunkten för den första interaktionen eller exponeringen. Den ska vara tillgänglig för sårbara personer, till exempel personer med funktionsnedsättning eller barn, och, i relevanta fall och om lämpligt, komplett med förfaranden för ingripande eller flaggning för den exponerade fysiska personen med beaktande av den allmänt erkända bästa tekniken och relevanta harmoniserade standarder och gemensamma specifikationer.

Ändring 489

Förslag till förordning

Artikel 53 – punkt 1

Kommissionens förslag

Ändring

1.    Regulatoriska sandlådor för AI som inrättats av en eller flera medlemsstaters behöriga myndigheter eller den europeiska datatillsynsmannen ska tillhandahålla en kontrollerad miljö som underlättar utveckling, testning och validering av innovativa AI-system under en begränsad tid innan de släpps ut på marknaden eller tas i bruk i enlighet med en särskild plan. Detta ska ske under direkt tillsyn och vägledning av de behöriga myndigheterna i syfte att säkerställa efterlevnad av kraven i denna förordning och, i tillämpliga fall, annan unionslagstiftning och medlemsstaternas lagstiftning som övervakas inom ramen för sandlådan.

1.    Medlemsstaterna ska inrätta minst en regulatorisk sandlåda för AI på nationell nivå, som ska vara i drift senast den dag då denna förordning börjar tillämpas. Denna sandlåda kan också inrättas tillsammans med en eller flera andra medlemsstater.

Ändring 490

Förslag till förordning

Artikel 53 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Ytterligare regulatoriska sandlådor för AI på regional eller lokal nivå eller tillsammans med andra medlemsstater får också inrättas.

Ändring 491

Förslag till förordning

Artikel 53 – punkt 1b (ny)

Kommissionens förslag

Ändring

 

1b.     Kommissionen och Europeiska datatillsynsmannen får också, på egen hand, gemensamt eller i samarbete med en eller flera medlemsstater, inrätta regulatoriska sandlådor för AI på unionsnivå.

Ändring 492

Förslag till förordning

Artikel 53 – punkt 1c (ny)

Kommissionens förslag

Ändring

 

1c.     De inrättande myndigheterna ska anslå tillräckliga resurser för att ändamålsenligt och i god tid uppfylla denna artikel.

Ändring 493

Förslag till förordning

Artikel 53 – punkt 1d (ny)

Kommissionens förslag

Ändring

 

1d.     Regulatoriska sandlådor för AI ska, i enlighet med de kriterier som anges i artikel 53a, tillhandahålla en kontrollerad miljö som främjar innovation och underlättar utveckling, testning och validering av innovativa AI-system under en begränsad tid innan de släpps ut på marknaden eller tas i bruk i enlighet med en särskild plan som de presumtiva leverantörerna och den utfärdande myndigheten kommer överens om.

Ändring 494

Förslag till förordning

Artikel 53 – punkt 1e (ny)

Kommissionens förslag

Ändring

 

1e.     Inrättandet av regulatoriska sandlådor för AI ska syfta till att bidra till följande mål:

 

a)

Vägledning från de behöriga myndigheterna för presumtiva leverantörer av AI-system för att uppnå regulatorisk efterlevnad av denna förordning eller, i förekommande fall, annan tillämplig lagstiftning i unionen och medlemsstaterna.

 

b)

Möjlighet för de presumtiva leverantörerna att möjliggöra och underlätta testning och utveckling av innovativa lösningar med anknytning till AI-system.

 

c)

Regulatoriskt lärande i en kontrollerad miljö.

Ändring 495

Förslag till förordning

Artikel 53 – punkt 1f (ny)

Kommissionens förslag

Ändring

 

1f.     De inrättande myndigheterna ska tillhandahålla vägledning och tillsyn inom sandlådan i syfte att identifiera risker, i synnerhet för de grundläggande rättigheterna, demokratin och rättsstaten, hälsa och säkerhet samt miljön, testa och demonstrera riskbegränsningsåtgärder för identifierade risker och deras effektivitet samt säkerställa överensstämmelse med kraven i denna förordning och, i förekommande fall, annan lagstiftning i unionen och medlemsstaterna.

Ändring 496

Förslag till förordning

Artikel 53 – punkt 1g (ny)

Kommissionens förslag

Ändring

 

1g.     De inrättande myndigheterna ska förse presumtiva sandlådeleverantörer som utvecklar AI-system med hög risk med vägledning och tillsyn om hur man uppfyller kraven i denna förordning, så att AI-systemen när de lämnar sandlådan kan förutsättas uppfylla de specifika krav i denna förordning som var föremål för bedömning inom sandlådan. I den mån AI-systemet uppfyller kraven när det lämnar sandlådan ska det förutsättas vara förenligt med denna förordning. I detta avseende ska marknadskontrollmyndigheterna eller de anmälda organen, beroende på vad som är tillämpligt, i samband med förfaranden för bedömning av överensstämmelse eller marknadsövervakningskontroller beakta de rapporter avseende AI-systemets lämnande av sandlådan som upprättas av den utfärdande myndigheten.

Ändring 497

Förslag till förordning

Artikel 53 – punkt 2

Kommissionens förslag

Ändring

2.    Medlemsstaterna ska se till att i den mån de innovativa AI-systemen inbegriper behandling av personuppgifter eller på annat sätt faller inom tillsynsområdet för andra nationella myndigheter eller behöriga myndigheter som tillhandahåller eller stöder åtkomst till data , ska de nationella dataskyddsmyndigheterna och dessa andra nationella myndigheter knytas till driften av den regulatoriska sandlådan för AI.

2.    De inrättande myndigheterna ska se till att i den mån de innovativa AI-systemen inbegriper behandling av personuppgifter eller på annat sätt faller inom tillsynsområdet för andra nationella myndigheter eller behöriga myndigheter som tillhandahåller eller stöder åtkomst till personuppgifter , ska de nationella dataskyddsmyndigheterna eller, i fall som avses i punkt 1b, Europeiska datatillsynsmannen och dessa andra nationella myndigheter knytas till driften av den regulatoriska sandlådan för AI och delta i övervakningen av dessa aspekter så långt deras respektive uppgifter och befogenheter sträcker sig .

Ändring 498

Förslag till förordning

Artikel 53 – punkt 3

Kommissionens förslag

Ändring

3.   De regulatoriska sandlådorna för AI ska inte påverka de behöriga myndigheternas tillsynsbefogenheter eller korrigerande befogenheter. Alla betydande risker för hälsa och säkerhet och för grundläggande rättigheter som upptäcks under utvecklingen och testningen av sådana system ska leda till omedelbara kompenserande åtgärder och , om detta inte är möjligt, leda till att utvecklings- och testprocessen avbryts till dess att sådana kompenserande åtgärder äger rum .

3.   De regulatoriska sandlådorna för AI ska inte påverka de behöriga myndigheternas tillsynsbefogenheter eller korrigerande befogenheter , inbegripet på regional eller lokal nivå . Alla betydande risker för de grundläggande rättigheterna, demokratin och rättsstaten, hälsa och säkerhet eller miljön som upptäcks under utvecklingen och testningen av sådana AI-system ska leda till omedelbara och adekvata begränsningsåtgärder. De behöriga myndigheterna ska ha befogenhet att tillfälligt eller permanent avbryta testprocessen eller deltagandet i sandlådan om inga verkningsfulla begränsningsåtgärder är möjliga och informera AI-byrån om ett sådant beslut .

Ändring 499

Förslag till förordning

Artikel 53 – punkt 4

Kommissionens förslag

Ändring

4.    Deltagare i den regulatoriska sandlådan för AI ska förbli ansvariga, enligt tillämplig unionslagstiftning och medlemsstaternas lagstiftning om ansvarsskyldighet, för skada som åsamkas tredje part till följd av de experiment som äger rum i sandlådan.

4.    Presumtiva leverantörer i den regulatoriska sandlådan för AI ska förbli ansvariga, enligt tillämplig lagstiftning i unionen och medlemsstaterna om ansvarsskyldighet, för skada som åsamkas tredje part till följd av de experiment som äger rum i sandlådan. Under förutsättning att den eller de presumtiva leverantörerna respekterar den särskilda plan som avses i punkt 1c och villkoren för deras deltagande och i god tro följer de riktlinjer som de inrättade myndigheterna ger, ska myndigheterna dock inte ålägga några administrativa sanktionsavgifter för överträdelser av denna förordning.

Ändring 500

Förslag till förordning

Artikel 53 – punkt 5

Kommissionens förslag

Ändring

5.    Behöriga myndigheter i medlemsstaterna som har inrättat regulatoriska sandlådor för AI ska samordna sin verksamhet och samarbeta inom ramen för den europeiska nämnden för artificiell intelligens. De ska lämna årliga rapporter till nämnden och kommissionen om resultaten av genomförandet av dessa ordningar, inbegripet god praxis, tillvaratagna erfarenheter och rekommendationer om deras etablering och, i tillämpliga fall, om tillämpningen av denna förordning och annan unionslagstiftning som övervakas inom sandlådan.

5.    De inrättande myndigheterna ska samordna sin verksamhet och samarbeta inom ramen för AI-byrån .

Ändring 501

Förslag till förordning

Artikel 53 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     De inrättande myndigheterna ska informera AI-byrån om inrättandet av en sandlåda och får begära stöd och vägledning. En förteckning över planerade och befintliga sandlådor ska göras allmänt tillgänglig av AI-byrån och hållas uppdaterad för att uppmuntra till ökad interaktion i regulatoriska sandlådor och transnationellt samarbete.

Ändring 502

Förslag till förordning

Artikel 53 – punkt 5b (ny)

Kommissionens förslag

Ändring

 

5b.     De inrättande myndigheterna ska lämna årliga rapporter till AI-byrån och, såvida inte kommissionen är den enda inrättande myndigheten, till kommissionen, med början ett år efter att sandlådan har inrättats och därefter varje år fram till dess att den avslutas samt en slutrapport. Dessa rapporter ska innehålla information om framstegen och resultaten av genomförandet av dessa sandlådor, inbegripet bästa praxis, incidenter, tillvaratagna erfarenheter och rekommendationer om deras inrättande och, vid behov, om tillämpningen och en eventuell revidering av denna förordning och annan unionsrätt som övervakas inom sandlådan. Dessa årsrapporter eller sammanfattningar av dem ska göras tillgängliga för allmänheten på internet.

Ändring 503

Förslag till förordning

Artikel 53 – punkt 6

Kommissionens förslag

Ändring

6.    Regulatoriska sandlådors former och villkor, inbegripet kriterierna för stödberättigande och förfarandet för ansökan, urval, deltagande och utträde ur sandlådan, samt deltagarnas rättigheter och skyldigheter ska fastställas i genomförandeakter. Dessa genomförandeakter ska antas i enlighet med det granskningsförfarande som avses i artikel 74.2.

6.    Kommissionen ska utveckla ett gemensamt och särskilt gränssnitt som innehåller all relevant information om sandlådor, tillsammans med en gemensam kontaktpunkt på unionsnivå för att interagera med regulatoriska sandlådor och göra det möjligt för berörda parter att ta upp frågor med behöriga myndigheter och söka icke-bindande vägledning om överensstämmelse för innovativa produkter, tjänster och affärsmodeller med inbäddad AI-teknik.

 

Kommissionen ska proaktivt säkerställa samordning med nationella, regionala och även lokala myndigheter, där så är relevant.

Ändring 504

Förslag till förordning

Artikel 53 – punkt 6a (ny)

Kommissionens förslag

Ändring

 

6a.     Vid tillämpning av punkterna 1 och 1a ska kommissionen spela en kompletterande roll som gör det möjligt för medlemsstaterna att bygga vidare på sin sakkunskap och även bistå och tillhandahålla teknisk förståelse och tekniska resurser till de medlemsstater som söker vägledning om inrättandet och driften av dessa regulatoriska sandlådor.

Ändring 505

Förslag till förordning

Artikel 53a (ny)

Kommissionens förslag

Ändring

 

Artikel 53a

 

Villkor och funktionssätt för regulatoriska sandlådor för AI

 

1.     För att undvika fragmentering i unionen ska kommissionen, i samråd med AI-byrån, anta en delegerad akt med närmare uppgifter om villkoren för inrättande, utveckling, genomförande, funktionssätt och tillsyn av regulatoriska sandlådor för AI, inbegripet kriterierna för behörighet och förfarandet för ansökan, urval, deltagande och lämnande av sandlådan samt deltagarnas rättigheter och skyldigheter på grundval av bestämmelserna i denna artikel.

 

2.     Kommissionen ska ges befogenhet att anta delegerade akter i enlighet med det förfarande som avses i artikel 73 senast 12 månader efter denna förordnings ikraftträdande och ska säkerställa att

 

a)

regulatoriska sandlådor är öppna för alla ansökande presumtiva leverantörer av ett AI-system som uppfyller behörighets- och urvalskriterierna; kriterierna för tillgång till den regulatoriska sandlådan är transparenta och rättvisa och de inrättande myndigheterna informerar de sökande om sitt beslut inom tre månader efter ansökan,

 

b)

regulatoriska sandlådor möjliggör bred och likvärdig tillgång och håller jämna steg med efterfrågan på deltagande,

 

c)

tillgången till regulatoriska sandlådor för AI är kostnadsfri för små och medelstora företag och nystartade företag, utan att det påverkar exceptionella kostnader, som inrättande myndigheter kan få tillbaka på ett rättvist och proportionellt sätt,

 

d)

regulatoriska sandlådor underlättar deltagandet av andra relevanta aktörer inom AI-ekosystemet, såsom anmälda organ och standardiseringsorganisationer (små och medelstora företag, nystartade företag, företag, innovatörer, test- och experimentanläggningar, forsknings- och experimentlaboratorier och digitala innovationsnav, kompetenscentrum samt enskilda forskare), för att möjliggöra och underlätta samarbete med den offentliga och privata sektorn,

 

e)

de gör det möjligt för presumtiva leverantörer att i en kontrollerad miljö uppfylla skyldigheterna avseende bedömning av överensstämmelse enligt denna förordning eller frivillig tillämpning av de uppförandekoder som avses i artikel 69,

 

f)

förfaranden, processer och administrativa krav för ansökan, urval, deltagande och lämnande av sandlådan ska vara enkla, lättbegripliga och tydligt kommunicerade för att underlätta deltagandet av små och medelstora företag och nystartade företag med begränsad rättslig och administrativ kapacitet och strömlinjeformas i hela unionen i syfte att undvika fragmentering, och att deltagande i en regulatorisk sandlåda som inrättats av en medlemsstat, av kommissionen eller av Europeiska datatillsynsmannen erkänns ömsesidigt och enhetligt och har samma rättsliga verkan i hela unionen,

 

g)

deltagandet i den regulatoriska sandlådan för AI är begränsat till en period som är lämplig med tanke på projektets komplexitet och omfattning,

 

h)

sandlådorna ska underlätta utvecklingen av verktyg och infrastruktur för testning, riktmärkning, bedömning och förklaring av de aspekter av AI-systemen som är relevanta för sandlådor, såsom noggrannhet, robusthet och cybersäkerhet samt minimering av riskerna för de grundläggande rättigheterna, miljön och samhället i stort.

 

3.     Presumtiva leverantörer i sandlådorna, i synnerhet små och medelstora företag och nystartade företag, ska få enklare tillgång till tjänster före ibruktagandet, såsom vägledning om genomförandet av denna förordning, till andra värdeskapande tjänster såsom hjälp med standardiseringsdokument och certifiering och samråd, och till andra initiativ för den digitala inre marknaden, såsom testnings- och experimentanläggningar, digitala nav, kompetenscentrum och EU:s riktmärkningskapacitet.

Ändring 506

Förslag till förordning

Artikel 54 – rubriken

Kommissionens förslag

Ändring

Ytterligare behandling av personuppgifter för utveckling av vissa AI-system i allmänhetens intresse i den regulatoriska sandlådan för AI

Ytterligare behandling av uppgifter för utveckling av vissa AI-system i allmänhetens intresse i den regulatoriska sandlådan för AI

Ändring 507

Förslag till förordning

Artikel 54 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   I den regulatoriska sandlådan för AI ska personuppgifter som lagligen samlats in för andra ändamål behandlas i syfte att utveckla och testa vissa innovativa AI-system i sandlådan följande villkor:

1.   I den regulatoriska sandlådan för AI får personuppgifter som lagligen samlats in för andra ändamål behandlas enbart i syfte att utveckla och testa vissa AI-system i sandlådan om samtliga följande villkor är uppfyllda :

Ändring 508

Förslag till förordning

Artikel 54 – punkt 1 – led a – inledningen

Kommissionens förslag

Ändring

(a)

De innovativa AI-systemen ska utvecklas för att skydda ett betydande allmänintresse på ett eller flera av följande områden:

(a)

AI-systemen ska utvecklas för att skydda ett betydande allmänintresse på ett eller flera av följande områden:

 

 

ii)

Den allmänna säkerheten och folkhälsan, inbegripet upptäckt, diagnostisering, förebyggande, bekämpning och behandling av sjukdomar.

 

 

iii)

En hög nivå av skydd och förbättring av miljöns kvalitet, skydd av den biologiska mångfalden, föroreningar samt begränsning av och anpassning till klimatförändringarna.

 

 

iiia)

Säkerhet och resiliens hos transportsystem, kritisk infrastruktur och nätverk.

Ändring 509

Förslag till förordning

Artikel 54 – punkt 1 – led a – led i

Kommissionens förslag

Ändring

i)

Förebyggande, förhindrande, utredning, avslöjande eller lagföring av brott eller verkställande av straffrättsliga sanktioner, inbegripet skydd mot samt förebyggande och förhindrande av hot mot den allmänna säkerheten, under överinseende och ansvar av den behöriga myndigheten. Behandlingen ska grundas på medlemsstaternas eller unionens lagstiftning.

utgår

Ändring 510

Förslag till förordning

Artikel 54 – punkt 1 – led c

Kommissionens förslag

Ändring

(c)

Det finns effektiva övervakningsmekanismer för att fastställa om experimenten i sandlådan kan medföra några allvarliga risker för de registrerades grundläggande rättigheter samt en svarsmekanism för att snabbt begränsa dessa risker och, vid behov, stoppa behandlingen.

(c)

Det finns effektiva övervakningsmekanismer för att fastställa om experimenten i sandlådan kan medföra några allvarliga risker för de registrerades rättigheter och friheter, enligt vad som avses i artikel 35 i förordning (EU) 2016/679 och i artikel 35 i förordning (EU) 2018/1725, samt en svarsmekanism för att snabbt begränsa dessa risker och, vid behov, stoppa behandlingen.

Ändring 511

Förslag till förordning

Artikel 54 – punkt 1 – led d

Kommissionens förslag

Ändring

(d)

Alla personuppgifter som ska behandlas inom ramen för sandlådan befinner sig i en funktionellt separat, isolerad och skyddad databehandlingsmiljö under deltagarnas kontroll och endast behöriga personer har tillgång till dessa uppgifter.

(d)

Alla personuppgifter som ska behandlas inom ramen för sandlådan befinner sig i en funktionellt separat, isolerad och skyddad databehandlingsmiljö under de presumtiva leverantörernas kontroll och endast behöriga personer har tillgång till dessa uppgifter.

Ändring 512

Förslag till förordning

Artikel 54 – punkt 1 – led f

Kommissionens förslag

Ändring

(f)

Behandling av personuppgifter inom ramen för sandlådan får inte leda till åtgärder eller beslut som påverkar de registrerade.

(f)

Behandling av personuppgifter inom ramen för sandlådan får inte leda till åtgärder eller beslut som påverkar de registrerade och inte heller påverka tillämpningen av deras rättigheter enligt unionsrätten om skydd av personuppgifter .

Ändring 513

Förslag till förordning

Artikel 54 – punkt 1 – led g

Kommissionens förslag

Ändring

(g)

Alla personuppgifter som behandlas i sandlådan raderas när deltagandet i sandlådan har upphört eller personuppgifternas lagringstid har löpt ut.

(g)

Alla personuppgifter som behandlas i sandlådan skyddas genom lämpliga tekniska och organisatoriska åtgärder och raderas när deltagandet i sandlådan har upphört eller personuppgifternas lagringstid har löpt ut.

Ändring 514

Förslag till förordning

Artikel 54 – punkt 1 – led h

Kommissionens förslag

Ändring

(h)

Loggarna över behandlingen av personuppgifter inom ramen för sandlådan sparas under hela deltagandet i sandlådan och ett år efter det att det har upphört, endast i syfte av att och endast så länge som det är nödvändigt för att fullgöra ansvarighets- och dokumentationsskyldigheterna enligt denna artikel eller enligt annan tillämpning lagstiftning i unionen eller medlemsstaterna .

(h)

Loggarna över behandlingen av personuppgifter inom ramen för sandlådan sparas under hela deltagandet i sandlådan.

Ändring 515

Förslag till förordning

Artikel 54 – punkt 1 – led j

Kommissionens förslag

Ändring

(j)

En kort sammanfattning av AI-projektet som utvecklats i sandlådan, dess mål och förväntade resultat offentliggörs på den behöriga myndighetens webbplats.

(j)

En kort sammanfattning av det AI-system som utvecklats i sandlådan, dess mål , hypoteser och förväntade resultat offentliggörs på den behöriga myndighetens webbplats.

Ändring 516

Förslag till förordning

Artikel 54a (ny)

Kommissionens förslag

Ändring

 

Artikel 54a

 

Främjande av forskning och utveckling inom AI till stöd för socialt och miljömässigt gynnsamma resultat

 

1.     Medlemsstaterna ska främja forskning och utveckling av AI-lösningar som stöder socialt och miljömässigt gynnsamma utgångar, inbegripet men inte begränsat till utveckling av AI-baserade lösningar för att öka tillgängligheten för personer med funktionsnedsättning, tackla socioekonomisk ojämlikhet och uppfylla hållbarhets- och miljömål genom att

 

a)

ge relevanta projekt prioriterad tillgång till de regulatoriska sandlådorna för AI, i den mån de uppfyller behörighetskraven,

 

b)

öronmärka offentlig finansiering, även från relevanta EU-medel, för forskning och utveckling inom AI till stöd för socialt och miljömässigt gynnsamma utgångar,

 

c)

organisera specifika medvetandehöjande aktiviteter om tillämpningen av denna förordning, tillgängligheten och ansökningsförfarandena för särskild finansiering, skräddarsydda efter dessa projekts behov,

 

d)

vid behov inrätta tillgängliga särskilda kanaler, även inom sandlådorna, för kommunikation med projekt i syfte att ge vägledning och svara på frågor om genomförandet av denna förordning.

 

Medlemsstaterna ska stödja det civila samhället och sociala aktörer så att de kan leda eller delta i sådana projekt.

Ändring 517

Förslag till förordning

Artikel 55 – rubriken

Kommissionens förslag

Ändring

Åtgärder för småskaliga leverantörer och användare

Åtgärder för små och medelstora företag, nystartade företag och användare

Ändring 518

Förslag till förordning

Artikel 55 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

Ge småskaliga leverantörer och nystartade företag prioriterad åtkomst till de regulatoriska sandlådorna för AI, i den mån de uppfyller behörighetskraven.

(a)

Ge små och medelstora företag och nystartade företag som är etablerade i unionen prioriterad åtkomst till de regulatoriska sandlådorna för AI, i den mån de uppfyller behörighetskraven.

Ändring 519

Förslag till förordning

Artikel 55 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

Anordna särskilda medvetandehöjande åtgärder om tillämpningen av denna förordning som är anpassade till behoven hos småskaliga leverantörer och användare.

(b)

Anordna särskilda medvetandehöjande åtgärder och åtgärder för förstärkt utveckling av digital kompetens om tillämpningen av denna förordning som är anpassade till behoven hos små och medelstora företag, nystartade företag och användare.

Ändring 520

Förslag till förordning

Artikel 55 – punkt 1 – led c

Kommissionens förslag

Ändring

(c)

Där det är lämpligt, inrätta en särskild kanal för att kommunicera med småskaliga leverantörer och användare och andra innovatörer i syfte av att ge vägledning och svara på frågor om genomförandet av denna förordning.

(c)

Använda befintliga särskilda kanaler och, där det är lämpligt, inrätta nya särskilda kanaler för kommunikation med små och medelstora företag, nystartade företag, användare och andra innovatörer i syfte av att ge vägledning och svara på frågor om genomförandet av denna förordning.

Ändring 521

Förslag till förordning

Artikel 55 – punkt 1 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

Främja små och medelstora företags och andra berörda parters deltagande i utvecklingen av standardiseringsprocessen.

Ändring 522

Förslag till förordning

Artikel 55 – punkt 2

Kommissionens förslag

Ändring

2.   De småskaliga leverantörernas särskilda intressen och behov ska beaktas när avgifterna för bedömning av överensstämmelse enligt artikel 43 fastställs, och avgifterna ska minskas i proportion till deras storlek och marknadsstorlek .

2.   De särskilda intressena och behoven hos små och medelstora företag, nystartade företag och användare ska beaktas när avgifterna för bedömning av överensstämmelse enligt artikel 43 fastställs, och avgifterna ska minskas i proportion till deras utvecklingsfas, storlek , marknadsstorlek och efterfrågan på marknaden. Kommissionen ska regelbundet bedöma kostnaderna för certifiering och efterlevnad för små och medelstora företag och nystartade företag, inbegripet genom transparenta samråd med små och medelstora företag, nystartade företag och användare, samt samarbeta med medlemsstaterna för att sänka sådana kostnader där så är möjligt. Kommissionen ska rapportera om dessa resultat till Europaparlamentet och rådet som en del av den rapport om utvärdering och översyn av denna förordning som föreskrivs i artikel 84.2.

Ändring 523

Förslag till förordning

Artikel 56 – AVSNITT 1 – rubriken

Kommissionens förslag

Ändring

 

Rubrik

 

AVSNITT 1: Allmänna bestämmelser för Europeiska byrån för artificiell intelligens

Ändring 524

Förslag till förordning

Artikel 56 – rubriken

Kommissionens förslag

Ändring

Inrättande av den europeiska nämnden för artificiell intelligens

Inrättande av Europeiska byrån för artificiell intelligens

Ändring 525

Förslag till förordning

Artikel 56 – punkt 1

Kommissionens förslag

Ändring

1.    En europeisk nämnd för artificiell intelligens ( nämnden ) inrättas.

1.    Europeiska byrån för artificiell intelligens ( AI-byrån ) inrättas härmed . AI-byrån ska vara ett oberoende unionsorgan. Den ska vara en juridisk person.

Ändring 526

Förslag till förordning

Artikel 56 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.    Nämnden ska ge råd och stöd till kommissionen för att

2.    AI-byrån ska ha ett sekretariat och ska ha tillräcklig finansiering och personal för att kunna utföra sina uppgifter i enlighet med denna förordning.

Ändring 527

Förslag till förordning

Artikel 56 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     AI-byråns säte ska vara i Bryssel.

Ändring 528

Förslag till förordning

Artikel 56a (ny)

Kommissionens förslag

Ändring

 

Artikel 56a

Struktur

AI-byråns förvaltnings- och ledningsstruktur ska omfatta följande:

a)

En styrelse, inklusive en ordförande.

b)

Ett sekretariat som leds av en verkställande direktör.

c)

En rådgivande grupp.

Ändring 529

Förslag till förordning

Artikel 56b (ny)

Kommissionens förslag

Ändring

 

Artikel 56b

 

AI-byråns uppgifter

 

AI-byrån ska utföra följande uppgifter:

 

a)

Stödja, ge råd till och samarbeta med medlemsstaterna, nationella tillsynsmyndigheter, kommissionen och unionens övriga institutioner, organ och byråer med avseende på genomförandet av denna förordning.

 

b)

Övervaka och säkerställa en effektiv och konsekvent tillämpning av denna förordning, utan att det påverkar de nationella tillsynsmyndigheternas uppgifter.

 

c)

Bidra till samordningen mellan de nationella tillsynsmyndigheter som ansvarar för tillämpningen av denna förordning.

 

d)

Fungera som medlare i diskussioner om allvarliga meningsskiljaktigheter som kan uppstå mellan behöriga myndigheter när det gäller tillämpningen av förordningen.

 

e)

Samordna gemensamma utredningar i enlighet med artikel 66a.

 

f)

Bidra till ett effektivt samarbete med behöriga myndigheter i tredjeländer och med internationella organisationer.

 

g)

Samla in och dela med sig av medlemsstaternas sakkunskap och bästa praxis och bistå medlemsstaternas nationella tillsynsmyndigheter och kommissionen med att utveckla den organisatoriska och tekniska expertis som krävs för genomförandet av denna förordning, bland annat genom att underlätta skapandet och administrationen av en reservgrupp med experter på unionsnivå.

 

h)

På eget initiativ eller på begäran av styrelsen eller kommissionen granska frågor som rör genomförandet av denna förordning samt avge yttranden, rekommendationer eller skriftliga bidrag, bland annat med avseende på

 

 

i)

tekniska specifikationer eller befintliga standarder,

 

 

ii)

kommissionens riktlinjer,

 

 

iii)

uppförandekoder och deras tillämpning, i nära samarbete med näringslivet och andra berörda parter,

 

 

iv)

en eventuell revidering av förordningen, utarbetandet av delegerade akter samt eventuella anpassningar av förordningen till de rättsakter som förtecknas i bilaga II,

 

 

v)

trender, till exempel när det gäller den europeiska globala konkurrenskraften inom artificiell intelligens, spridningen av artificiell intelligens i unionen, utvecklingen av digitala färdigheter samt framväxande systemhot med anknytning till artificiell intelligens,

 

 

vi)

vägledning om hur denna förordning ska tillämpas på den ständigt föränderliga typologin i AI-värdekedjorna, i synnerhet om de resulterande konsekvenserna när det gäller ansvarsskyldighet för alla inblandade enheter.

 

i)

Ge ut

 

 

i)

en årsrapport som innehåller en utvärdering av genomförandet av denna förordning, en granskning av de rapporter om allvarliga incidenter som avses i artikel 62 och funktionen hos den databas som avses i artikel 60, och

 

 

ii)

rekommendationer till kommissionen om kategoriseringen av förbjudna metoder, AI-system med hög risk som avses i bilaga III, de uppförandekoder som avses i artikel 69 samt tillämpningen av de allmänna principer som beskrivs i artikel 4a.

 

j)

Hjälpa myndigheterna att inrätta och utveckla regulatoriska sandlådor och underlätta samarbetet mellan regulatoriska sandlådor.

 

k)

Anordna möten med unionens byråer och styrande organ vars uppgifter rör artificiell intelligens och genomförandet av denna förordning.

 

l)

Anordna kvartalsvisa samråd med den rådgivande gruppen och, vid behov, offentliga samråd med andra berörda parter och offentliggöra resultaten av dessa samråd på sin webbplats.

 

m)

Öka allmänhetens medvetenhet och kunskap om fördelar, risker, skyddsåtgärder och rättigheter och skyldigheter i samband med användningen av AI-system.

 

n)

Underlätta utvecklingen av gemensamma kriterier och en gemensam förståelse bland marknadsoperatörer och behöriga myndigheter om de relevanta begrepp som anges i denna förordning.

 

o)

Tillhandahålla övervakning av grundmodeller och organisera en regelbunden dialog med utvecklarna av grundmodeller med avseende på deras efterlevnad samt AI-system som använder sådana AI-modeller.

 

p)

Tillhandahålla tolkningsvägledning om hur AI-akten är tillämplig på AI-värdekedjornas ständigt föränderliga typologi, och vilka konsekvenser detta kommer att få när det gäller ansvarsskyldighet för alla inblandade enheter enligt de olika scenarierna baserat på den allmänt erkända bästa tekniken, inbegripet såsom den återspeglas i relevanta harmoniserade standarder.

 

q)

Tillhandahålla särskild tillsyn och övervakning och institutionalisera en regelbunden dialog med leverantörerna av grundmodeller om hur grundmodeller och AI-system som använder sådana AI-modeller stämmer överens med artikel 28b i denna förordning, och om branschens bästa praxis för självstyre. Alla sådana möten ska vara öppna för nationella tillsynsmyndigheter, anmälda organ och marknadskontrollmyndigheter så att de kan närvara och bidra.

 

r)

Utfärda och regelbundet uppdatera riktlinjer om de tröskelvärden som gör att träning av en grundmodell kvalificeras som en stor träningsomgång, registrera och övervaka kända fall av stora träningsomgångar och utfärda en årlig rapport om läget när det gäller utveckling, spridning och användning av grundmodeller jämte politiska alternativ för att hantera risker och möjligheter som är specifika för grundmodeller.

 

s)

Främja AI-kompetens i enlighet med artikel 4b.

Ändring 530

Förslag till förordning

Artikel 56c (ny)

Kommissionens förslag

Ändring

 

Artikel 56c

 

Ansvarsskyldighet, oberoende och transparens

 

1.     AI-byrån ska

 

a)

vara ansvarig inför Europaparlamentet och rådet i enlighet med denna förordning,

 

b)

agera oberoende när den utför sina uppgifter eller utövar sina befogenheter, och

 

c)

säkerställa en hög grad av transparens avseende sin verksamhet och utveckla god administrativ praxis i detta avseende.

 

Förordning (EG) nr 1049/2001 ska tillämpas på handlingar som innehas av AI-byrån.

Ändring 531

Förslag till förordning

Artikel - 57a (ny) – AVSNITT 2 – rubriken

Kommissionens förslag

Ändring

 

Rubrik

 

AVSNITT 2: Styrelsen

Ändring 532

Förslag till förordning

Artikel - 57a (ny)

Kommissionens förslag

Ändring

 

Artikel - 57a

 

Styrelsens sammansättning

 

1.     Styrelsen ska bestå av följande ledamöter:

 

a)

En företrädare för varje medlemsstats nationella tillsynsmyndighet.

 

b)

En företrädare för kommissionen.

 

c)

En företrädare för Europeiska datatillsynsmannen (EDPS).

 

d)

En företrädare för Europeiska unionens cybersäkerhetsbyrå (Enisa).

 

(e)

En företrädare för byrån för grundläggande rättigheter (FRA).

 

Varje företrädare för en nationell tillsynsmyndighet ska ha en röst. Företrädarna för kommissionen, EDPS, Enisa och FRA ska inte ha rösträtt. Varje ledamot ska ha en suppleant. Vid utnämningen av ledamöter och suppleanter i styrelsen ska hänsyn tas till behovet av en jämn könsfördelning. Vilka styrelseledamöterna och deras suppleanter är ska offentliggöras.

 

2.     Ledamöterna och suppleanterna i styrelsen ska inte ha motstridiga befattningar eller kommersiella intressen när det gäller frågor som rör tillämpningen av denna förordning.

 

3.     Reglerna för styrelsens sammanträden och omröstningar samt utnämning och avsättning av den verkställande direktören ska fastställas i den arbetsordning som avses i artikel - 57b a.

Ändring 533

Förslag till förordning

Artikel - 57b (ny)

Kommissionens förslag

Ändring

 

Artikel - 57b

 

Styrelsens funktion

 

1.     Styrelsen ska ha följande uppgifter:

 

a)

Fatta strategiska beslut om AI-byråns verksamhet och anta dess arbetsordning med två tredjedelars majoritet av sina ledamöter.

 

b)

Genomföra byråns arbetsordning.

 

c)

Anta AI-byråns samlade programdokument samt dess årliga offentliga rapport och översända båda till Europaparlamentet, rådet, kommissionen och revisionsrätten.

 

d)

Anta AI-byråns budget.

 

e)

Utse den verkställande direktören och vid behov förlänga eller inskränka den verkställande direktörens mandatperiod eller avsätta honom eller henne från ämbetet.

 

f)

Besluta om inrättandet av AI-byråns interna strukturer och vid behov om ändring av de interna strukturer som krävs för att fullgöra AI-byråns uppgifter.

Ändring 534

Förslag till förordning

Artikel - 57c (ny)

Kommissionens förslag

Ändring

 

Artikel - 57c

Styrelsens ordförande

1.     Styrelsen ska med enkel majoritet välja en ordförande och två vice ordförande bland sina röstberättigade ledamöter.

2.     Ordförandens och de vice ordförandenas förordnande ska löpa på fyra år. Ordförandens och de vice ordförandenas mandatperiod får förnyas en gång.

Ändring 535

Förslag till förordning

Artikel 57 – AVSNITT 3 – rubriken

Kommissionens förslag

Ändring

Nämndens uppbyggnad

Sekretariatet

Ändring 536

Förslag till förordning

Artikel 57 – punkt 1

Kommissionens förslag

Ändring

1.    Nämnden ska bestå av de nationella tillsynsmyndigheterna, som ska företrädas av chefen eller motsvarande högre tjänsteman vid den myndigheten, och Europeiska datatillsynsmannen. Andra nationella myndigheter får bjudas in till möten där frågor av relevans för dem diskuteras.

1.    Sekretariatets verksamhet ska ledas av en verkställande direktör. Den verkställande direktören ska vara ansvarig inför styrelsen. Utan att det påverkar styrelsens och unionsinstitutionernas respektive befogenheter får den verkställande direktören varken begära eller ta emot instruktioner från någon regering eller något annat organ.

Ändring 537

Förslag till förordning

Artikel 57 – punkt 2

Kommissionens förslag

Ändring

2.    Nämnden ska anta sin arbetsordning med enkel majoritet av sina ledamöter efter godkännande från kommissionen. Arbetsordningen ska också innehålla de operativa aspekter som rör utförandet av nämndens uppgifter enligt förteckningen i artikel 58. Nämnden får inrätta arbetsgrupper när så är lämpligt i syfte att granska specifika frågor.

2.    Den verkställande direktören ska närvara vid utfrågningar i alla frågor som rör AI-byråns verksamhet och ska rapportera om utförandet av den verkställande direktörens uppgifter när Europaparlamentet eller rådet så begär.

Ändring 538

Förslag till förordning

Artikel 57 – punkt 3

Kommissionens förslag

Ändring

3.    En företrädare för kommissionen ska vara ordförande i nämnden. Kommissionen ska vara sammankallande till mötena och förbereda dagordningen i enlighet med nämndens uppdrag enligt denna förordning och enligt nämndens arbetsordning. Kommissionen ska tillhandahålla administrativt och analytiskt stöd till nämndens verksamhet i enlighet med denna förordning.

3.    Den verkställande direktören ska företräda AI-byrån, inbegripet i internationella forum för samarbete kring artificiell intelligens.

Ändring 539

Förslag till förordning

Artikel 57 – punkt 4

Kommissionens förslag

Ändring

4.    Nämnden får bjuda in externa experter och observatörer för att delta i dessa möten och får hålla utbyten med berörda tredje parter för att informera om sin verksamhet i lämplig utsträckning. I detta syfte får kommissionen underlätta utbyten mellan nämnden och andra unionsorgan, unionskontor, unionsbyråer och rådgivande grupper.

4.    Sekretariatet ska ge styrelsen och den rådgivande gruppen det analytiska, administrativa och logistiska stöd som krävs för att fullgöra AI-byråns uppgifter, bland annat genom att

 

a)

genomföra de beslut, program och verksamheter som styrelsen antar,

 

b)

varje år utarbeta utkastet till samlat programdokument, budgetförslaget, den årliga verksamhetsrapporten om AI-byrån, utkasten till yttranden och utkasten till ståndpunkter från AI-byrån samt överlämna dem till styrelsen,

 

c)

säkerställa samordning med internationella forum för samarbete om artificiell intelligens.

Ändring 540

Förslag till förordning

Artikel 58 – AVSNITT 4 – rubriken

Kommissionens förslag

Ändring

Nämndens uppgifter

Rådgivande grupp

Ändring 541

Förslag till förordning

Artikel 58 – stycke 1 – inledningen

Kommissionens förslag

Ändring

När nämnden ger råd och stöd till kommissionen inom ramen för artikel 56.2 ska den särskilt

Den rådgivande gruppen ska förse AI-byrån med synpunkter från berörda parter i frågor som rör denna förordning, i synnerhet med avseende på de uppgifter som anges i artikel 56b l.

Ändring 542

Förslag till förordning

Artikel 58 – stycke 2 (nytt)

Kommissionens förslag

Ändring

 

Medlemmarna i den rådgivande gruppen ska representera ett balanserat urval av berörda parter, däribland branschen, nystartade företag, små och medelstora företag, det civila samhället, arbetsmarknadens parter och den akademiska världen. Sammansättningen av den rådgivande gruppen ska vara balanserad med avseende på kommersiella och icke-kommersiella intressen samt, inom kategorin kommersiella intressen, med avseende på små och medelstora företag och andra företag.

Ändring 543

Förslag till förordning

Artikel 58 – stycke 3 (nytt)

Kommissionens förslag

Ändring

 

Styrelsen ska utse medlemmarna i den rådgivande gruppen i enlighet med det urvalsförfarande som fastställs i AI-byråns arbetsordning och med beaktande av behovet av insyn och i enlighet med de kriterier som anges i punkt 2.

Ändring 544

Förslag till förordning

Artikel 58 – stycke 4 (nytt)

Kommissionens förslag

Ändring

 

Mandatperioden för medlemmarna i den rådgivande gruppen ska vara två år, som kan förlängas med högst fyra år.

Ändring 545

Förslag till förordning

Artikel 58 – stycke 5 (nytt)

Kommissionens förslag

Ändring

 

Europeiska standardiseringskommittén (CEN), Europeiska kommittén för elektroteknisk standardisering (Cenelec) och Europeiska institutet för telekommunikationsstandarder (Etsi) ska vara ständiga medlemmar i den rådgivande gruppen. Gemensamma forskningscentrumet ska vara ständig medlem utan rösträtt.

Ändring 546

Förslag till förordning

Artikel 58 – stycke 6 (nytt)

Kommissionens förslag

Ändring

 

Den rådgivande gruppen ska själv utarbeta sin arbetsordning. Den ska välja två medordförande bland sina medlemmar i enlighet med kriterierna i punkt 2. Medordförandenas mandatperiod ska vara två år och kan förlängas en gång.

Ändring 547

Förslag till förordning

Artikel 58 – stycke 7 (nytt)

Kommissionens förslag

Ändring

 

Den rådgivande gruppen ska hålla regelbundna möten minst fyra gånger per år. Den rådgivande gruppen får bjuda in experter och andra berörda parter till sina möten. Den verkställande direktören får delta, på tjänstens vägnar, i den rådgivande gruppens möten.

Ändring 548

Förslag till förordning

Artikel 58 – stycke 8 (nytt)

Kommissionens förslag

Ändring

 

Inom ramen för uppfyllandet av sin roll enligt punkt 1 kan den rådgivande gruppen utarbeta yttranden, rekommendationer och skriftliga bidrag.

Ändring 549

Förslag till förordning

Artikel 58 – stycke 9 (nytt)

Kommissionens förslag

Ändring

 

Den rådgivande gruppen får inrätta permanenta eller tillfälliga undergrupper enligt vad som är lämpligt för att utreda specifika frågor med avseende på målen för denna förordning.

Ändring 550

Förslag till förordning

Artikel 58 – stycke 10 (nytt)

Kommissionens förslag

Ändring

 

Den rådgivande gruppen ska utarbeta en årsrapport om sin verksamhet. Den rapporten ska göras tillgänglig för allmänheten.

Ändring 551

Förslag till förordning

Artikel 58a – avsnitt 5 – rubriken

Kommissionens förslag

Ändring

 

Europeiska myndigheter för riktmärkning

Ändring 552

Förslag till förordning

Artikel 58a (ny)

Kommissionens förslag

Ändring

 

Artikel 58a

Riktmärkning

De europeiska myndigheterna för riktmärkning som avses i artikel 15.1a och AI-byrån ska, i nära samarbete med internationella partner, gemensamt utveckla kostnadseffektiv vägledning och kapacitet för att mäta och jämföra aspekter av AI-system och AI-komponenter, särskilt vad gäller grundmodeller som är relevanta för efterlevnad och tillsyn av denna förordning på grundval av allmänt erkänd tidigare känd teknik, inbegripet såsom återspeglas i relevanta harmoniserade standarder.

Ändring 553

Förslag till förordning

Artikel 59 – rubriken

Kommissionens förslag

Ändring

Utseende av nationella behöriga myndigheter

Utseende av nationella tillsynsmyndigheter

Ändring 554

Förslag till förordning

Artikel 59 – punkt 1

Kommissionens förslag

Ändring

1.    Nationella behöriga myndigheter ska inrättats eller utses av varje medlemsstat i syfte att säkerställa tillämpningen och genomförandet av denna förordning. Nationella behöriga myndigheter ska vara organiserade och fungera på ett sådant sätt att deras verksamhet är objektiv och opartisk.

1.   Varje medlemsstat ska inrätta eller utse en nationell tillsynsmyndighet, som ska vara organiserad och fungera på ett sådant sätt att dess verksamhet är objektiv och opartisk senast den … [tre månader efter dagen för denna förordnings ikraftträdande] .

Ändring 555

Förslag till förordning

Artikel 59 – punkt 2

Kommissionens förslag

Ändring

2.    Varje medlemsstat ska utse en nationell tillsynsmyndighet bland de nationella behöriga myndigheterna. Den nationella tillsynsmyndigheten ska fungera som anmälande myndighet och marknadskontrollmyndighet , såvida inte en medlemsstat har organisatoriska och administrativa skäl att utse mer än en myndighet .

2.    Den nationella tillsynsmyndigheten ska säkerställa tillämpningen och genomförandet av denna förordning. När det gäller AI-system med hög risk som hör samman med produkter som omfattas av de rättsakter som förtecknas i bilaga II ska de behöriga myndigheter som utsetts enligt dessa rättsakter fortsätta att leda de administrativa förfarandena. I den mån ett ärende rör aspekter som uteslutande omfattas av denna förordning ska dessa behöriga myndigheter emellertid vara bundna av de åtgärder som rör dessa aspekter och som utfärdats av den nationella tillsynsmyndighet som utsetts enligt denna förordning. Den nationella tillsynsmyndigheten ska fungera som marknadskontrollmyndighet.

Ändring 556

Förslag till förordning

Artikel 59 – punkt 3

Kommissionens förslag

Ändring

3.   Medlemsstaterna ska underrätta kommissionen om vilken eller vilka myndigheter de har utsett och, i tillämpliga fall, om skälen för att utse mer än en myndighet.

3.   Medlemsstaterna ska senast den … [tre månader efter dagen för denna förordnings ikraftträdande] göra den nationella tillsynsmyndigheten tillgänglig för allmänheten och information tillgänglig om hur den kan kontaktas och meddela det till AI-byrån och kommissionen. Den nationella tillsynsmyndigheten ska fungera som gemensam kontaktpunkt för denna förordning och bör kunna nås via elektroniska kommunikationsmedel .

Ändring 557

Förslag till förordning

Artikel 59 – punkt 4

Kommissionens förslag

Ändring

4.   Medlemsstaterna ska se till att de nationella behöriga myndigheterna har tillräckliga ekonomiska resurser och personalresurser för att kunna fullgöra sina uppgifter enligt denna förordning. I synnerhet ska de nationella behöriga myndigheterna ha ett tillräckligt antal anställda till ständigt förfogande, vars kompetens och sakkunskap ska inbegripa en ingående förståelse av teknik för artificiell intelligens, data och databehandling, grundläggande rättigheter, hälso- och säkerhetsrisker och kunskap om befintliga standarder och rättsliga krav.

4.   Medlemsstaterna ska se till att de nationella tillsynsmyndigheterna har tillräckliga tekniska och ekonomiska resurser samt personalresurser och infrastruktur för att kunna fullgöra sina uppgifter på ett ändamålsenligt sätt enligt denna förordning. I synnerhet ska de nationella tillsynsmyndigheterna ha ett tillräckligt antal anställda till ständigt förfogande, vars kompetens och sakkunskap ska inbegripa en ingående förståelse av teknik för artificiell intelligens, data och databehandling, skydd av personuppgifter, cybersäkerhet, konkurrensrätt, grundläggande rättigheter, hälso- och säkerhetsrisker och kunskap om befintliga standarder och rättsliga krav. Medlemsstaterna ska varje år bedöma och, om det anses nödvändigt, uppdatera de kompetens- och resurskrav som avses i denna punkt.

Ändring 558

Förslag till förordning

Artikel 59 – punkt 4a (ny)

Kommissionens förslag

Ändring

 

4a.     Varje nationell tillsynsmyndighet ska utöva sina befogenheter och utföra sina uppgifter oberoende, objektivt och opartiskt. Ledamöterna i varje nationell tillsynsmyndighet får, när de utför sina uppgifter och utövar sina befogenheter i enlighet med denna förordning, varken begära eller ta emot instruktioner från något organ och ska avhålla sig från varje handling som är oförenlig med deras skyldigheter.

Ändring 559

Förslag till förordning

Artikel 59 – punkt 4b (ny)

Kommissionens förslag

Ändring

 

4b.     De nationella tillsynsmyndigheterna ska uppfylla de minimikrav för cybersäkerhet som fastställs för de offentliga förvaltningsenheter som identifierats som leverantörer av samhällsviktiga tjänster i enlighet med direktiv (EU) 2022/2555.

Ändring 560

Förslag till förordning

Artikel 59 – punkt 4c (ny)

Kommissionens förslag

Ändring

 

4c.     De nationella tillsynsmyndigheterna ska när de utför sina uppgifter agera i enlighet med de konfidentialitetskrav som anges i artikel 70.

Ändring 561

Förslag till förordning

Artikel 59 – punkt 5

Kommissionens förslag

Ändring

5.   Medlemsstaterna ska årligen rapportera till kommissionen om situationen för de nationella behöriga myndigheternas ekonomiska och mänskliga resurser med en bedömning av deras resurstillräcklighet. Kommissionen ska översända denna information till nämnden för diskussion och eventuella rekommendationer.

5.   Medlemsstaterna ska årligen rapportera till kommissionen om situationen för de nationella tillsynsmyndigheternas ekonomiska och mänskliga resurser med en bedömning av deras resurstillräcklighet. Kommissionen ska översända denna information till AI-byrån för diskussion och eventuella rekommendationer.

Ändring 562

Förslag till förordning

Artikel 59 – punkt 6

Kommissionens förslag

Ändring

6.     Kommissionen ska underlätta utbytet av erfarenhet mellan nationella behöriga myndigheter.

utgår

Ändring 563

Förslag till förordning

Artikel 59 – punkt 7

Kommissionens förslag

Ändring

7.   Nationella behöriga myndigheter kan ge vägledning och råd om genomförandet av denna förordning, inbegripet till småskaliga leverantörer . När nationella behöriga myndigheter tänker ge vägledning och rådgivning om ett AI-system på områden som omfattas av annan unionslagstiftning, ska de behöriga nationella myndigheterna enligt den unionslagstiftningen i lämpliga fall rådfrågas . Medlemsstaterna får också inrätta en central kontaktpunkt för kommunikation med operatörer.

7.   Nationella tillsynsmyndigheter kan ge vägledning och råd om genomförandet av denna förordning, inbegripet till små och medelstora företag och nystartade företag, med beaktande av AI-byråns eller kommissionens vägledning och rådgivning . När de nationella tillsynsmyndigheterna tänker ge vägledning och rådgivning om ett AI-system på områden som omfattas av annan unionslagstiftning, ska vägledningen utarbetas i samråd med de behöriga nationella myndigheterna enligt den unionslagstiftningen i lämpliga fall.

Ändring 564

Förslag till förordning

Artikel 59 – punkt 8

Kommissionens förslag

Ändring

8.   När unionens institutioner, byråer och organ omfattas av denna förordning ska Europeiska datatillsynsmannen fungera som behörig tillsynsmyndighet för dessa.

8.   När unionens institutioner, byråer och organ omfattas av denna förordning ska Europeiska datatillsynsmannen fungera som behörig myndighet för tillsyn och samordning av dessa.

Ändring 565

Förslag till förordning

Artikel 59a (ny)

Kommissionens förslag

Ändring

 

Artikel 59a

 

Mekanism för samarbete mellan nationella tillsynsmyndigheter i fall som berör två eller flera medlemsstater

 

1.     Varje nationell tillsynsmyndighet ska utföra de uppgifter och utöva de befogenheter som tilldelas den i enlighet med denna förordning inom sin egen medlemsstats territorium.

 

2.     I fall som innefattar två eller flera nationella tillsynsmyndigheter ska den nationella tillsynsmyndigheten i den medlemsstat där överträdelsen ägde rum anses vara den ansvariga nationella tillsynsmyndigheten.

 

3.     I de fall som avses i punkt 2 ska de relevanta tillsynsmyndigheterna samarbeta och utbyta all relevant information i god tid. De nationella tillsynsmyndigheterna ska samarbeta för att nå samförstånd.

Ändring 566

Förslag till förordning

Avdelning VII

Kommissionens förslag

Ändring

VII EU-DATABAS FÖR FRISTÅENDE AI-SYSTEM MED HÖG RISK

EU-DATABAS FÖR AI-SYSTEM MED HÖG RISK

Ändring 567

Förslag till förordning

Artikel 60 – rubriken

Kommissionens förslag

Ändring

EU-databas för fristående AI-system med hög risk

EU-databas för AI-system med hög risk

Ändring 568

Förslag till förordning

Artikel 60 – punkt 1

Kommissionens förslag

Ändring

1.   Kommissionen ska i samarbete med medlemsstaterna inrätta och upprätthålla en EU-databas som innehåller den information som avses i punkt 2 om AI-system med hög risk som avses i artikel  6.2 och som är registrerade i enlighet med artikel 51.

1.   Kommissionen ska i samarbete med medlemsstaterna inrätta och upprätthålla en offentlig EU-databas som innehåller den information som avses i  punkterna 2 och 2a om AI-system med hög risk som avses i artikel  6.2 och som är registrerade i enlighet med artikel 51.

Ändring 569

Förslag till förordning

Artikel 60 – punkt 2

Kommissionens förslag

Ändring

2.   Leverantörerna ska föra in de uppgifter som förtecknas i bilaga VIII i EU-databasen. Kommissionen ska ge dem tekniskt och administrativt stöd.

2.   Leverantörerna ska föra in de uppgifter som förtecknas i  avsnitt A i bilaga VIII i EU-databasen.

Ändring 570

Förslag till förordning

Artikel 60 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Användarna ska föra in de uppgifter som förtecknas i avsnitt B i bilaga VIII i EU-databasen, däribland de användare som agerar på uppdrag av offentliga myndigheter eller unionens institutioner, organ, byråer eller myndigheter och de användare som är de företag som avses i artikel 51.1a och 51.1b.

Ändring 571

Förslag till förordning

Artikel 60 – punkt 3

Kommissionens förslag

Ändring

3.   Information i EU-databasen ska vara tillgänglig för allmänheten.

3.   Information i EU-databasen ska vara fritt tillgänglig för allmänheten, användarvänlig och tillgänglig samt enkel att navigera genom och maskinläsbar med strukturerade digitala uppgifter som bygger på ett standardiserat protokoll .

Ändring 572

Förslag till förordning

Artikel 60 – punkt 4

Kommissionens förslag

Ändring

4.   EU-databasen ska innehålla personuppgifter endast i den mån det är nödvändigt för insamling och behandling av information i enlighet med denna förordning. Denna information ska omfatta namnen på och kontaktuppgifter till fysiska personer som ansvarar för att registrera systemet och som har rättslig behörighet att företräda leverantören.

4.   EU-databasen ska innehålla personuppgifter endast i den mån det är nödvändigt för insamling och behandling av information i enlighet med denna förordning. Denna information ska omfatta namnen på och kontaktuppgifter till fysiska personer som ansvarar för att registrera systemet och som har rättslig behörighet att företräda leverantören eller användaren, som är en myndighet eller unionens institution, organ, byrå eller myndighet eller en användare som agerar för deras räkning eller en användare som är ett företag som avses i artikel 51.1a b och 51.1b.

Ändring 573

Förslag till förordning

Artikel 60 – punkt 5

Kommissionens förslag

Ändring

5.   Kommissionen ska vara personuppgiftsansvarig för EU-databasen. Den ska också se till att leverantörerna får tillräckligt tekniskt och administrativt stöd.

5.   Kommissionen ska vara personuppgiftsansvarig för EU-databasen. Den ska också se till att leverantörerna och användarna får tillräckligt tekniskt och administrativt stöd.

 

Databasen ska uppfylla tillgänglighetskraven i bilaga I till direktiv (EU) 2019/882.

Ändring 574

Förslag till förordning

Artikel 61 – punkt 2

Kommissionens förslag

Ändring

2.   Systemet för övervakning efter utsläppandet på marknaden ska aktivt och systematiskt samla in, dokumentera och analysera relevanta data tillhandahållna av användare eller insamlade via andra källor vad gäller hur AI-systemen med hög risk presterar under hela sin livstid, och göra det möjligt för leverantören att utvärdera AI-systemens fortlöpande överensstämmelse med kraven i avdelning III kapitel 2.

2.   Systemet för övervakning efter utsläppandet på marknaden ska aktivt och systematiskt samla in, dokumentera och analysera relevanta data tillhandahållna av användare eller insamlade via andra källor vad gäller hur AI-systemen med hög risk presterar under hela sin livstid, och göra det möjligt för leverantören att utvärdera AI-systemens fortlöpande överensstämmelse med kraven i avdelning III kapitel 2. I förekommande fall ska övervakningen efter utsläppande på marknaden omfatta en analys av samspelet med andra AI-systemmiljöer, inbegripet andra enheter och programvara, med beaktande av de regler som är tillämpliga på områden såsom dataskydd, immateriella rättigheter och konkurrenslagstiftning.

Ändring 575

Förslag till förordning

Artikel 61 – punkt 3

Kommissionens förslag

Ändring

3.   Systemet för övervakning efter utsläppande på marknaden ska baseras på en plan för övervakning efter utsläppande på marknaden. Planen för övervakning efter utsläppande på marknaden ska vara en del av den tekniska dokumentation som avses i bilaga IV. Kommissionen ska anta en genomförandeakt med detaljerade bestämmelser som fastställer en mall för planen för övervakning efter utsläppande på marknaden och en förteckning över de element som ska ingå i planen.

3.   Systemet för övervakning efter utsläppande på marknaden ska baseras på en plan för övervakning efter utsläppande på marknaden. Planen för övervakning efter utsläppande på marknaden ska vara en del av den tekniska dokumentation som avses i bilaga IV. Kommissionen ska anta en genomförandeakt med detaljerade bestämmelser som fastställer en mall för planen för övervakning efter utsläppande på marknaden och en förteckning över de element som ska ingå i planen senast [12 månader efter dagen för denna förordnings ikraftträdande].

Ändring 576

Förslag till förordning

Artikel 62 – rubriken

Kommissionens förslag

Ändring

Rapportering av allvarliga incidenter och funktionsstörningar

Rapportering av allvarliga incidenter

Ändring 577

Förslag till förordning

Artikel 62 – punkt 1 – stycke 1

Kommissionens förslag

Ändring

1.   Leverantörer av AI-system med hög risk som släpps ut på unionsmarknaden ska rapportera alla allvarliga incidenter eller funktionsstörningar i dessa system som åsidosätter skyldigheter enligt unionsrätt avsedda att skydda de grundläggande rättigheterna till marknadskontrollmyndigheterna i de medlemsstater där incidenten eller åsidosättandet inträffade.

1.   Leverantörer och, om användare har fastställt en allvarlig incident, användare av AI-system med hög risk som släpps ut på unionsmarknaden ska rapportera alla allvarliga incidenter eller funktionsstörningar i dessa system som åsidosätter skyldigheter enligt unionsrätt avsedda att skydda de grundläggande rättigheterna till de nationella tillsynsmyndigheterna i de medlemsstater där incidenten eller åsidosättandet inträffade.

Ändring 578

Förslag till förordning

Artikel 62 – punkt 1 – stycke 2

Kommissionens förslag

Ändring

En sådan underrättelse ska göras omedelbart efter det att leverantören har fastställt ett orsakssamband mellan AI-systemet och incidenten eller funktionsstörningen eller den rimliga sannolikheten att det finns ett sådant samband, och under alla omständigheter senast 15 dagar efter det att leverantörerna fått kännedom om den allvarliga incidenten eller funktionsstörningen .

En sådan underrättelse ska göras utan dröjsmål efter det att leverantören eller, i tillämpliga fall, användaren har fastställt ett orsakssamband mellan AI-systemet och incidenten eller den rimliga sannolikheten att det finns ett sådant samband, och under alla omständigheter senast 72 timmar efter det att leverantören eller, i tillämpliga fall, användaren fått kännedom om den allvarliga incidenten.

Ändring 579

Förslag till förordning

Artikel 62 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     Efter fastställandet av ett orsakssamband mellan AI-systemet och den allvarliga incidenten eller den rimliga sannolikheten för ett sådant samband ska leverantörerna vidta lämpliga korrigerande åtgärder i enlighet med artikel 21.

Ändring 580

Förslag till förordning

Artikel 62 – punkt 2

Kommissionens förslag

Ändring

2.   Efter att ha mottagit en underrättelse om ett åsidosättande av skyldigheter enligt unionsrätt avsedda att skydda de grundläggande rättigheterna ska marknadskontrollmyndigheten informera de nationella offentliga myndigheter eller organ som avses i artikel 64.3. Kommissionen ska utarbeta särskilda riktlinjer för att underlätta fullgörandet av de skyldigheter som anges i punkt 1. Dessa riktlinjer ska utfärdas senast 12 månader efter det att denna förordning har trätt i kraft.

2.   Efter att ha mottagit en underrättelse om ett åsidosättande av skyldigheter enligt unionsrätt avsedda att skydda de grundläggande rättigheterna ska den nationella tillsynsmyndigheten informera de nationella offentliga myndigheter eller organ som avses i artikel 64.3. Kommissionen ska utarbeta särskilda riktlinjer för att underlätta fullgörandet av de skyldigheter som anges i punkt 1. Dessa riktlinjer ska utfärdas senast [ efter det att denna förordning har trätt i kraft ] och ska bedömas regelbundet .

Ändring 581

Förslag till förordning

Artikel 62 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Den nationella tillsynsmyndigheten ska vidta lämpliga åtgärder inom sju dagar efter dagen för mottagandet av den underrättelse som avses i punkt 1. Om åsidosättandet äger rum eller sannolikt kommer att äga rum i andra medlemsstater ska den nationella tillsynsmyndigheten underrätta AI-byrån och de relevanta nationella behöriga tillsynsmyndigheterna i dessa medlemsstater.

Ändring 582

Förslag till förordning

Artikel 62 – punkt 3

Kommissionens förslag

Ändring

3.   För AI-system med hög risk som avses i  punkt 5 b i bilaga III och som släpps ut på marknaden eller tas i bruk av leverantörer som är kreditinstitut reglerade av direktiv 2013/36/EU och AI-system med hög risk som utgör säkerhetskomponenter i enheter, eller själva är enheter, omfattade av förordning (EU) 2017/745 och förordning (EU) 2017/746 , ska anmälan av allvarliga incidenter eller funktionsstörningar begränsas till sådana som utgör ett åsidosättande av skyldigheter enligt unionsrätt avsedda att skydda de grundläggande rättigheterna.

3.   För AI-system med hög risk som avses i bilaga III och som släpps ut på marknaden eller tas i bruk av leverantörer som omfattas av unionslagstifting om rapporteringskyldigheter som är likvärdiga med dem som anges i denna förordning ska anmälan av allvarliga incidenter som utgör ett åsidosättande av de grundläggande rättigheterna i enlighet med unionslagstiftningen överföras till den nationella tillsynsmyndigheten .

Ändring 583

Förslag till förordning

Artikel 62 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     Nationella tillsynsmyndigheter ska årligen underrätta AI-byrån om de allvarliga incidenter som rapporteras till dem i enlighet med denna artikel.

Ändring 584

Förslag till förordning

Artikel 63 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Förordning (EU) 2019/1020 ska tillämpas på AI-system som omfattas av denna förordning. För att effektivt kunna verkställa denna förordning gäller dock följande:

1.   Förordning (EU) 2019/1020 ska tillämpas på AI-system och grundmodeller som omfattas av denna förordning. För att effektivt kunna verkställa denna förordning gäller dock följande:

Ändring 585

Förslag till förordning

Artikel 63 – punkt 1 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

De nationella tillsynsmyndigheterna ska fungera som marknadskontrollmyndigheter enligt denna förordning och ha samma befogenheter och skyldigheter som marknadskontrollmyndigheterna enligt förordning (EU) 2019/1020.

Ändring 586

Förslag till förordning

Artikel 63 – punkt 2

Kommissionens förslag

Ändring

2.   Den nationella tillsynsmyndigheten ska regelbundet rapportera resultaten av relevant marknadskontroll till kommissionen. Den nationella tillsynsmyndigheten ska utan dröjsmål rapportera till kommissionen och berörda nationella konkurrensmyndigheter all information som framkommit i samband med marknadskontrollen och som kan vara av potentiellt intresse för tillämpningen av unionens konkurrenslagstiftning.

2.   Den nationella tillsynsmyndigheten ska årligen rapportera resultaten av relevant marknadskontroll till kommissionen och AI-byrån . Den nationella tillsynsmyndigheten ska utan dröjsmål rapportera till kommissionen och berörda nationella konkurrensmyndigheter all information som framkommit i samband med marknadskontrollen och som kan vara av potentiellt intresse för tillämpningen av unionens konkurrenslagstiftning.

Ändring 587

Förslag till förordning

Artikel 63 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     För att säkerställa en ändamålsenlig efterlevnad av denna förordning får de nationella tillsynsmyndigheterna

 

(a)

genomföra oannonserade inspektioner på plats och på distans av AI-system med hög risk,

 

(b)

förvärva prover som avser AI-system med hög risk, inbegripet genom inspektioner på distans, för att bakåtkompilera AI-systemen och inhämta bevis för att identifiera bristande efterlevnad.

Ändring 588

Förslag till förordning

Artikel 63 – punkt 5

Kommissionens förslag

Ändring

5.   För AI-system som förtecknas i punkt 1 a, i den mån systemen används för brottsbekämpande ändamål , punkt 6 och punkt 7 i bilaga III , ska medlemsstaterna utse som marknadskontrollmyndigheter vid tillämpningen av denna förordning antingen de behöriga tillsynsmyndigheterna för dataskydd enligt direktiv (EU) 2016/680 eller förordning 2016/679 eller de nationella behöriga myndigheter som utövar tillsyn över den verksamhet som bedrivs av de brottsbekämpande myndigheter, immigrationsmyndigheter eller asylmyndigheter som tar i bruk eller använder dessa system .

5.   För AI-system som används för brottsbekämpande ändamål ska medlemsstaterna utse som marknadskontrollmyndigheter vid tillämpningen av denna förordning de behöriga tillsynsmyndigheterna för dataskydd enligt direktiv (EU) 2016/680.

Ändring 589

Förslag till förordning

Artikel 63 – punkt 7

Kommissionens förslag

Ändring

7.    Medlemsstaterna ska underlätta samordningen mellan marknadskontrollmyndigheter som utses enligt denna förordning och andra relevanta nationella myndigheter eller organ som övervakar tillämpningen av den harmoniseringslagstiftning i unionen som förtecknas i bilaga II eller annan unionslagstiftning som kan vara relevant för de AI-system med hög risk som avses i bilaga III.

7.    Nationella tillsynsmyndigheter som utses enligt denna förordning ska samordna med andra relevanta nationella myndigheter eller organ som övervakar tillämpningen av den harmoniseringslagstiftning i unionen som förtecknas i bilaga II eller annan unionslagstiftning som kan vara relevant för de AI-system med hög risk som avses i bilaga III.

Ändring 590

Förslag till förordning

Artikel 64 – punkt 1

Kommissionens förslag

Ändring

1.   Inom ramen för sin verksamhet ska marknadskontrollmyndigheterna ges full tillgång till de dataset för utbildning, validering och testning som leverantören använder, inbegripet genom programmeringsgränssnitt (API) eller andra lämpliga tekniska medel och verktyg som möjliggör fjärråtkomst .

1.   Inom ramen för sin verksamhet och på motiverad begäran, ska den nationella tillsynsmyndigheten ges full tillgång till de dataset för utbildning, validering och testning som leverantören, eller, när så är lämpligt, användaren, använder och som är relevanta och strängt nödvändiga med avseende på dess begäran genom lämpliga tekniska medel och verktyg.

Ändring 591

Förslag till förordning

Artikel 64 – punkt 2

Kommissionens förslag

Ändring

2.   Om det är nödvändigt för att bedöma om AI-systemet med hög risk överensstämmer med kraven i avdelning III kapitel 2 och på motiverad begäran ska marknadskontrollmyndigheterna ges tillgång till AI-systemets källkod .

2.   Om det är nödvändigt för att bedöma om AI-systemet med hög risk överensstämmer med kraven i avdelning III kapitel 2 och på motiverad begäran ska den nationella tillsynsmyndigheten, efter det att alla andra rimliga sätt att kontrollera överensstämmelse, inbegripet punkt 1, har uttömts och har visat sig vara sig vara otillräckliga, ges tillgång till AI-systemets träningsmodeller och intränade modeller, inbegripet dess relevanta modellparametrar . All den information som erhålls i enlighet med artikel 70 ska behandlas som konfidentiell information och ska omfattas av gällande unionslagstiftning om skydd av immateriella rättigheter och företagshemligheter och ska raderas när den utredning för vilken informationen begärdes har slutförts.

Ändring 592

Förslag till förordning

Artikel 64 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Punkterna 1 och 2 påverkar inte den berörda operatörens processuella rättigheter i enlighet med artikel 18 i förordning (EU) 2019/1020.

Ändring 593

Förslag till förordning

Artikel 64 – punkt 3

Kommissionens förslag

Ändring

3.   Nationella offentliga myndigheter eller organ som utövar tillsyn över eller verkställer efterlevnaden av skyldigheter enligt unionslagstiftning som skyddar grundläggande rättigheter i samband med användningen av AI-system med hög risk som avses i bilaga III, ska ha befogenhet att begära och få åtkomst till all dokumentation som skapas eller upprätthålls enligt denna förordning när åtkomst till sådan dokumentation är nödvändig för att uppfylla de befogenheter som ingår i myndigheternas eller organens mandat inom ramen för deras jurisdiktion. Den berörda offentliga myndigheten eller det berörda offentliga organet ska informera marknadskontrollmyndigheten i den berörda medlemsstaten om en sådan begäran.

3.   Nationella offentliga myndigheter eller organ som utövar tillsyn över eller verkställer efterlevnaden av skyldigheter enligt unionslagstiftning som skyddar grundläggande rättigheter i samband med användningen av AI-system med hög risk som avses i bilaga III, ska ha befogenhet att begära och få åtkomst till all dokumentation som skapas eller upprätthålls enligt denna förordning när åtkomst till sådan dokumentation är nödvändig för att uppfylla de befogenheter som ingår i myndigheternas eller organens mandat inom ramen för deras jurisdiktion. Den berörda offentliga myndigheten eller det berörda offentliga organet ska informera den nationella tillsynsmyndigheten i den berörda medlemsstaten om en sådan begäran.

Ändring 594

Förslag till förordning

Artikel 64 – punkt 4

Kommissionens förslag

Ändring

4.   Senast tre månader efter det att denna förordning har trätt i kraft ska varje medlemsstat identifiera de offentliga myndigheter eller organ som avses i punkt 3 och offentliggöra en förteckning på den nationella tillsynsmyndighetens webbplats. Medlemsstaterna ska anmäla förteckningen till kommissionen och alla andra medlemsstater och ska hålla förteckningen uppdaterad.

4.   Senast tre månader efter det att denna förordning har trätt i kraft ska varje medlemsstat identifiera de offentliga myndigheter eller organ som avses i punkt 3 och offentliggöra en förteckning på den nationella tillsynsmyndighetens webbplats. Den nationella tillsynsmyndigheten ska anmäla förteckningen till kommissionen, AI-byrån och alla andra nationella tillsynsmyndigheter och ska hålla förteckningen uppdaterad. Kommissionen ska på en särskild webbplats offentliggöra förteckningen över alla behöriga myndigheter som utses av medlemsstaterna i enlighet med denna artikel.

Ändring 595

Förslag till förordning

Artikel 64 – punkt 5

Kommissionens förslag

Ändring

5.   Om den dokumentation som avses i punkt 3 är otillräcklig för att fastställa huruvida ett åsidosättande av skyldigheter enligt unionsrätt som syftar till att skydda de grundläggande rättigheterna har ägt rum, får den offentliga myndighet eller det offentliga organ som avses i punkt 3 lämna en motiverad begäran till marknadskontrollmyndigheten om att organisera testning av AI-systemet med hög risk genom tekniska medel. Marknadskontrollmyndigheten ska organisera testningen i nära samarbete med den begärande myndigheten eller det begärande organet inom rimlig tid efter begäran.

5.   Om den dokumentation som avses i punkt 3 är otillräcklig för att fastställa huruvida ett åsidosättande av skyldigheter enligt unionsrätt som syftar till att skydda de grundläggande rättigheterna har ägt rum, får den offentliga myndighet eller det offentliga organ som avses i punkt 3 lämna en motiverad begäran till den nationella tillsynsmyndigheten om att organisera testning av AI-systemet med hög risk genom tekniska medel. Den nationella tillsynsmyndigheten ska organisera testningen i nära samarbete med den begärande myndigheten eller det begärande organet inom rimlig tid efter begäran.

Ändring 596

Förslag till förordning

Artikel 65 – punkt 1

Kommissionens förslag

Ändring

1.   AI-system som utgör en risk ska förstås som en produkt som utgör en risk enligt definitionen i artikel 3.19 i förordning (EU) 2019/1020 i den mån det gäller risker för hälsa eller säkerhet eller för skyddet av personers grundläggande rättigheter.

1.   AI-system som utgör en risk ska förstås som ett AI-system som kan inverka negativt på personers hälsa och säkerhet, grundläggande rättigheter i allmänhet, inbegripet på arbetsplatsen, konsumentskydd, miljön, den allmänna säkerheten, demokratin eller rättstatsprincipen och andra allmänna intressen som skyddas av unionens gällande harmoniseringslagstiftning, i en omfattning som går utöver vad som anses rimligt och godtagbart i förhållande till dess avsedda ändamål eller under normala eller rimligen förutsägbara användningsförhållanden för det berörda systemet, inklusive användningstid och, i förekommande fall, krav som gäller ibruktagande, installation och underhållskrav.

Ändring 597

Förslag till förordning

Artikel 65 – punkt 2 – stycke 1

Kommissionens förslag

Ändring

2.   Om en medlemsstats marknadskontrollmyndighet har tillräckliga skäl att anse att ett AI-system utgör en sådan risk som avses i punkt 1, ska den utvärdera om det berörda AI-systemet uppfyller alla krav och skyldigheter som fastställs i denna förordning. Om risker för skyddet av de grundläggande rättigheterna föreligger ska marknadskontrollmyndigheten även informera de berörda nationella offentliga myndigheter eller organ som avses i artikel 64.3. De berörda operatörerna ska vid behov samarbeta med marknadskontrollmyndigheterna och andra nationella offentliga myndigheter eller organ som avses i artikel 64.3.

2.   Om en medlemsstats nationella tillsynsmyndighet har tillräckliga skäl att anse att ett AI-system utgör en sådan risk som avses i punkt 1, ska den utvärdera om det berörda AI-systemet uppfyller alla krav och skyldigheter som fastställs i denna förordning. Om risker för de grundläggande rättigheterna föreligger ska den nationella tillsynsmyndigheten även omedelbart informera och till fullo samarbeta med de berörda nationella offentliga myndigheter eller organ som avses i artikel 64.3. När det finns tillräcklig anledning att anse att ett AI-system utnyttjar utsatta gruppers sårbarhet eller avsiktligt eller oavsiktligt kränker deras rättigheter ska den nationella tillsynsmyndigheten ha skyldighet att utreda designmål, datainput, modellval, genomförande och resultat för AI-systemet. De berörda operatörerna ska vid behov samarbeta med den nationella tillsynsmyndigheten och andra nationella offentliga myndigheter eller organ som avses i artikel 64.3.

Ändring 598

Förslag till förordning

Artikel 65 – punkt 2 – stycke 2

Kommissionens förslag

Ändring

Om marknadskontrollmyndigheten vid utvärderingen konstaterar att AI-systemet inte uppfyller kraven och skyldigheterna i denna förordning ska den utan dröjsmål kräva att berörda operatörer vidtar alla lämpliga korrigerande åtgärder för att AI-systemet ska uppfylla dessa krav, dra tillbaka AI-systemet från marknaden eller återkalla det inom en rimlig tid som den fastställer i förhållande till typen av risk.

Om den nationella tillsynsmyndigheten eller, när så är lämpligt, den nationella myndighet som avses i artikel 64.3 vid utvärderingen konstaterar att AI-systemet inte uppfyller kraven och skyldigheterna i denna förordning ska den utan dröjsmål kräva att berörda operatörer vidtar alla lämpliga korrigerande åtgärder för att AI-systemet ska uppfylla dessa krav, dra tillbaka AI-systemet från marknaden eller återkalla det inom en rimlig tid som den fastställer i förhållande till typen av risk , och i alla händelser senast inom 15 arbetsdagar eller såsom fastställts i unionens relevanta harmoniseringslagstiftning, beroende på vad som är tillämpligt.

Ändring 599

Förslag till förordning

Artikel 65 – punkt 2 – stycke 3

Kommissionens förslag

Ändring

Marknadskontrollmyndigheten ska informera det berörda anmälda organet om detta. Artikel 18 i förordning (EU) 2019/1020 ska tillämpas på de åtgärder som avses i andra stycket.

Den nationella tillsynsmyndigheten ska informera det berörda anmälda organet om detta. Artikel 18 i förordning (EU) 2019/1020 ska tillämpas på de åtgärder som avses i andra stycket.

Ändring 600

Förslag till förordning

Artikel 65 – punkt 3

Kommissionens förslag

Ändring

3.   Om marknadskontrollmyndigheten anser att den bristande överensstämmelsen inte bara gäller det nationella territoriet, ska den informera kommissionen och de andra medlemsstaterna om utvärderingsresultaten och om de åtgärder som den har ålagt operatören att vidta.

3.   Om den nationella tillsynsmyndigheten anser att den bristande överensstämmelsen inte bara gäller det nationella territoriet, ska den utan onödigt dröjsmål informera kommissionen, AI-byrån och de andra medlemsstaternas nationella tillsynsmyndigheter om utvärderingsresultaten och om de åtgärder som den har ålagt operatören att vidta.

Ändring 601

Förslag till förordning

Artikel 65 – punkt 5

Kommissionens förslag

Ändring

5.   Om operatören av ett AI-system inte vidtar lämpliga korrigerande åtgärder inom den tid som avses i punkt 2, ska marknadskontrollmyndigheten vidta alla lämpliga provisoriska åtgärder för att förbjuda eller begränsa tillhandahållandet av AI-systemet på sin nationella marknad, dra tillbaka produkten från den marknaden eller återkalla den. Myndigheten ska utan dröjsmål informera kommissionen och de andra medlemsstaterna om dessa åtgärder.

5.   Om operatören av ett AI-system inte vidtar lämpliga korrigerande åtgärder inom den tid som avses i punkt 2, ska den nationella tillsynsmyndigheten vidta alla lämpliga provisoriska åtgärder för att förbjuda eller begränsa tillhandahållandet eller ibruktagandet av AI-systemet på sin nationella marknad, dra tillbaka AI-systemet från den marknaden eller återkalla det. Myndigheten ska omedelbart informera kommissionen , AI- byrån och de andra medlemsstaternas nationella tillsynsmyndigheter om dessa åtgärder.

Ändring 602

Förslag till förordning

Artikel 65 – punkt 6 – inledningen

Kommissionens förslag

Ändring

6.   I den information som avses i punkt 5 ska alla tillgängliga data ingå, särskilt de data som krävs för att kunna identifiera det AI-system som inte uppfyller kraven, dess ursprung, vilken typ av bristande överensstämmelse som görs gällande och den risk systemet utgör, vilken typ av nationell åtgärd som vidtagits och dess varaktighet samt den berörda operatörens synpunkter. Marknadskontrollmyndigheterna ska särskilt ange om den bristande överensstämmelsen beror en eller flera av följande orsaker:

6.   I den information som avses i punkt 5 ska alla tillgängliga data ingå, särskilt de data som krävs för att kunna identifiera det AI-system som inte uppfyller kraven, dess ursprung och leveranskedjan , vilken typ av bristande överensstämmelse som görs gällande och den risk systemet utgör, vilken typ av nationell åtgärd som vidtagits och dess varaktighet samt den berörda operatörens synpunkter. De nationella tillsynsmyndigheterna ska särskilt ange om den bristande överensstämmelsen beror på en eller flera av följande orsaker:

Ändring 603

Förslag till förordning

Artikel 65 – punkt 6 – led a

Kommissionens förslag

Ändring

(a)

AI-systemet uppfyller inte kraven i  avdelning III kapitel 2 .

(a)

AI-systemet  med hög risk uppfyller inte kraven i  denna förordning .

Ändring 604

Förslag till förordning

Artikel 65 – punkt 6 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

Bristande efterlevnad av det förbud mot tillämpningar av artificiell intelligens som avses i artikel 5.

Ändring 605

Förslag till förordning

Artikel 65 – punkt 6 – led bb (nytt)

Kommissionens förslag

Ändring

 

(bb)

Bristande efterlevnad av bestämmelserna i artikel 52.

Ändring 606

Förslag till förordning

Artikel 65 – punkt 7

Kommissionens förslag

Ändring

7.    Marknadskontrollmyndigheterna i andra medlemsstater än den som inledde förfarandet ska utan dröjsmål informera kommissionen och de andra medlemsstaterna om alla vidtagna åtgärder och eventuella kompletterande uppgifter som de har tillgång till med avseende på AI-systemets bristande överensstämmelse samt eventuella invändningar mot den anmälda nationella åtgärden.

7.    De nationella tillsynsmyndigheterna i andra medlemsstater än den som inledde förfarandet ska utan dröjsmål informera kommissionen , AI-byrån och de andra medlemsstaterna om alla vidtagna åtgärder och eventuella kompletterande uppgifter som de har tillgång till med avseende på AI-systemets bristande överensstämmelse samt eventuella invändningar mot den anmälda nationella åtgärden.

Ändring 607

Förslag till förordning

Artikel 65 – punkt 8

Kommissionens förslag

Ändring

8.   Åtgärden ska anses vara berättigad om ingen medlemsstat eller kommissionen har gjort invändningar inom tre månader efter mottagandet av den information som avses i punkt 5 mot en provisorisk åtgärd som vidtagits av en medlemsstat. Detta påverkar inte den berörda operatörens processuella rättigheter i enlighet med artikel 18 i förordning (EU) 2019/1020.

8.   Åtgärden ska anses vara berättigad om ingen nationell tillsynsmyndighet i en medlemsstat eller kommissionen har gjort invändningar inom tre månader efter mottagandet av den information som avses i punkt 5 mot en provisorisk åtgärd som vidtagits av en nationell tillsynsmyndighet i en annan medlemsstat. Detta påverkar inte den berörda operatörens processuella rättigheter i enlighet med artikel 18 i förordning (EU) 2019/1020. Den period som avses i första meningen i denna punkt ska minskas till 30 dagar vid bristande efterlevnad av förbudet mot de tillämpningar av artificiell intelligens som avses i artikel 5.

Ändring 608

Förslag till förordning

Artikel 65 – punkt 9

Kommissionens förslag

Ändring

9.    Marknadskontrollmyndigheterna i alla medlemsstater ska se till att lämpliga begränsande åtgärder, till exempel att produkten dras tillbaka från marknaden, vidtas utan dröjsmål i fråga om den produkt som berörs.

9.    Den nationella tillsynsmyndigheten i alla medlemsstater ska se till att lämpliga begränsande åtgärder, till exempel att AI-systemet dras tillbaka från marknaden, vidtas utan dröjsmål i fråga om det AI-system som berörs.

Ändring 609

Förslag till förordning

Artikel 65 – punkt 9a (ny)

Kommissionens förslag

Ändring

 

9a.     De nationella tillsynsmyndigheterna ska årligen rapportera till AI-byrån om användningen av förbjudna metoder under det året och om de åtgärder som vidtagits för att eliminera eller minska riskerna i enlighet med denna artikel.

Ändring 610

Förslag till förordning

Artikel 66 – punkt 1

Kommissionens förslag

Ändring

1.   Om en medlemsstat inom tre månader efter mottagandet av den anmälan som avses i artikel 65.5 har gjort invändningar mot en åtgärd som vidtagits av en annan medlemsstat , eller om kommissionen anser att åtgärden strider mot unionsrätten, ska kommissionen utan dröjsmål inleda samråd med den berörda medlemsstaten och operatören eller operatörerna och ska utvärdera den nationella åtgärden. På grundval av utvärderingsresultaten ska kommissionen besluta om den nationella åtgärden är berättigad eller inte inom nio månader från den anmälan som avses i artikel 65.5 och meddela beslutet till den berörda medlemsstaten.

1.   Om de nationella tillsynsmyndigheterna i en medlemsstat inom tre månader efter mottagandet av den anmälan som avses i artikel 65.5 , eller 30 dagar vid bristande efterlevnad av förbudet mot de tillämpningar av artificiell intelligens som avses i artikel 5, har gjort invändningar mot en åtgärd som vidtagits av den nationella tillsynsmyndigheten i en annan medlemsstat, eller om kommissionen anser att åtgärden strider mot unionsrätten, ska kommissionen utan dröjsmål inleda samråd med den berörda medlemsstatens nationella tillsynsmyndighet och operatören eller operatörerna och ska utvärdera den nationella åtgärden. På grundval av utvärderingsresultaten ska kommissionen besluta om den nationella åtgärden är berättigad eller inte inom tre månader , eller inom 60 dagar vid bristande efterlevnad av förbudet mot de tillämpningar av artificiell intelligens som avses i artikel 5, från den anmälan som avses i artikel 65.5 och meddela beslutet till den nationella tillsynsmyndigheten i den berörda medlemsstaten. Kommissionen ska också underrätta alla de övriga nationella tillsynsmyndigheterna om ett sådant beslut.

Ändring 611

Förslag till förordning

Artikel 66 – punkt 2

Kommissionens förslag

Ändring

2.   Om den nationella åtgärden anses vara berättigad, ska alla medlemsstater vidta de åtgärder som krävs för att säkerställa att det AI-system som inte uppfyller kraven dras tillbaka från deras marknader och underrätta kommissionen om detta. Om den nationella åtgärden anses omotiverad ska den medlemsstat som berörs återkalla åtgärden.

2.   Om den nationella åtgärden anses vara berättigad, ska alla nationella tillsynsmyndigheter som utsetts i enlighet med denna förordning vidta de åtgärder som krävs för att säkerställa att det AI-system som inte uppfyller kraven dras tillbaka utan dröjsmål från deras marknader och underrätta kommissionen och AI-byrån om detta. Om den nationella åtgärden anses omotiverad ska den nationella tillsynsmyndigheten i den medlemsstat som berörs återkalla åtgärden.

Ändring 612

Förslag till förordning

Artikel 66a (ny)

Kommissionens förslag

Ändring

 

Artikel 66a

Gemensamma utredningar

Om en nationell tillsynsmyndighet har skäl att misstänka att en leverantörs eller användares överträdelse av ett AI-system med hög risk eller ett AI-system för allmänna ändamål när det gäller denna förordning utgör en utbredd överträdelse med en EU-dimension eller påverkar eller sannolikt kommer att påverka minst 45 miljoner personer i mer än en medlemsstat, ska den nationella tillsynsmyndigheten underrätta AI-byrån och får begära att de nationella tillsynsmyndigheterna i de medlemsstater där en sådan överträdelse ägde rum inleder en gemensam utredning. AI-byrån ska tillhandahålla central samordning av den gemensamma utredningen. Utredningsbefogenheterna ska även i fortsättningen ligga inom de nationella tillsynsmyndigheternas behörighetsområde.

Ändring 613

Förslag till förordning

Artikel 67 – punkt 1

Kommissionens förslag

Ändring

1.   Om en marknadskontrollmyndighet , efter att ha gjort en utvärdering enligt artikel 65, konstaterar att AI-systemet uppfyller kraven i denna förordning men ändå utgör en risk för personers hälsa och säkerhet, för efterlevnad av skyldigheter enligt unionsrätt eller nationell rätt avsedda att skydda de grundläggande rättigheterna eller för andra aspekter av skyddet av allmänintresset ska den ålägga den berörda operatören att vidta alla lämpliga åtgärder för att säkerställa att det berörda AI-systemet när det släpps ut på marknaden eller tas i bruk inte längre utgör en sådan risk , att dra tillbaka AI-systemet från marknaden eller att återkalla det inom en rimlig tid som medlemsstaten fastställer i förhållande till typen av risk .

1.   Om en nationell tillsynsmyndighet , efter att i nära samarbete med den berörda nationella myndighet som avses i artikel 64.3 ha gjort en utvärdering enligt artikel 65, konstaterar att AI-systemet uppfyller kraven i denna förordning men ändå utgör en allvarlig risk för personers hälsa och säkerhet, för efterlevnad av skyldigheter enligt unionsrätt eller nationell rätt avsedda att skydda de grundläggande rättigheterna, miljön eller demokratin och rättsstatsprincipen eller för andra aspekter av skyddet av allmänintresset ska den ålägga den berörda operatören att vidta alla lämpliga åtgärder för att säkerställa att det berörda AI-systemet när det släpps ut på marknaden eller tas i bruk inte längre utgör en sådan risk, att dra tillbaka AI-systemet från marknaden eller att återkalla det inom en rimlig tid som medlemsstaten fastställer i förhållande till typen av risk.

Ändring 614

Förslag till förordning

Artikel 67 – punkt 2

Kommissionens förslag

Ändring

2.   Leverantören eller andra berörda operatörer ska säkerställa att korrigerande åtgärder vidtas i fråga om alla berörda AI-system som de har tillhandahållit på marknaden i unionen inom den tidsfrist som föreskrivs av marknadskontrollmyndigheten i den medlemsstat som avses i punkt 1.

2.   Leverantören eller andra berörda operatörer ska säkerställa att korrigerande åtgärder vidtas i fråga om alla berörda AI-system som de har tillhandahållit på marknaden i unionen inom den tidsfrist som föreskrivs av den nationella tillsynsmyndigheten i den medlemsstat som avses i punkt 1.

Ändring 615

Förslag till förordning

Artikel 67 – punkt 2a (ny)

Kommissionens förslag

Ändring

 

2a.     Om leverantören eller andra berörda operatörer inte vidtar de korrigerande åtgärder som avses i punkt 2 och om AI-systemet fortsätter att utgöra en risk såsom avses i punkt 1 får den nationella tillsynsmyndigheten begära att den berörda operatören drar tillbaka AI-systemet från marknaden eller återkallar det inom den rimliga tid som fastställs i förhållande till typen av risk.

Ändring 616

Förslag till förordning

Artikel 67 – punkt 3

Kommissionens förslag

Ändring

3.    Medlemsstaten ska omedelbart informera kommissionen och de andra medlemsstaterna . Den informationen ska innehålla alla tillgängliga uppgifter, särskilt de data som krävs för att kunna identifiera det berörda AI-systemet, dess ursprung och leveranskedja, den risk som AI-systemet utgör samt vilken typ av nationella åtgärder som vidtagits och deras varaktighet.

3.    Den nationella tillsynsmyndigheten ska omedelbart informera kommissionen , AI-byrån och de andra nationella tillsynsmyndigheterna . Den informationen ska innehålla alla tillgängliga uppgifter, särskilt de data som krävs för att kunna identifiera det berörda AI-systemet, dess ursprung och leveranskedja, den risk som AI-systemet utgör samt vilken typ av nationella åtgärder som vidtagits och deras varaktighet.

Ändring 617

Förslag till förordning

Artikel 67 – punkt 4

Kommissionens förslag

Ändring

4.   Kommissionen ska utan dröjsmål inleda samråd med medlemsstaterna och den eller de berörda operatörerna samt utvärdera den nationella åtgärden. På grundval av utvärderingsresultaten ska kommissionen besluta om åtgärden är berättigad eller inte, och vid behov föreslå lämpliga åtgärder.

4.   Kommissionen, i samråd med AI-byrån, ska utan dröjsmål inleda samråd med de berörda nationella tillsynsmyndigheterna och den eller de berörda operatörerna samt utvärdera den nationella åtgärden. På grundval av utvärderingsresultaten ska AI-byrån besluta om åtgärden är berättigad eller inte, och vid behov föreslå lämpliga åtgärder.

Ändring 618

Förslag till förordning

Artikel 67 – punkt 5

Kommissionens förslag

Ändring

5.   Kommissionen ska rikta sitt beslut till medlemsstaterna.

5.   Kommissionen ska , i samråd med AI-byrån, omedelbart meddela sitt beslut till de nationella tillsynsmyndigheterna i de berörda medlemsstaterna och till de berörda operatörerna . Den ska också underrätta alla andra nationella tillsynsmyndigheter om beslutet.

Ändring 619

Förslag till förordning

Artikel 67 – punkt 5a (ny)

Kommissionens förslag

Ändring

 

5a.     Kommissionen ska anta riktlinjer för att hjälpa de nationella behöriga myndigheterna att vid behov identifiera och rätta till liknande problem i andra AI-system.

Ändring 620

Förslag till förordning

Artikel 68 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   Om marknadskontrollmyndigheten i en medlemsstat konstaterar något av följande ska den ålägga den berörda leverantören att åtgärda den bristande överensstämmelsen:

1.   Om den nationella tillsynsmyndigheten i en medlemsstat konstaterar något av följande ska den ålägga den berörda leverantören att åtgärda den bristande överensstämmelsen:

Ändring 621

Förslag till förordning

Artikel 68 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

CE-märkningen har anbringats i strid med artikel 49.

(Berör inte den svenska versionen.)

Ändring 622

Förslag till förordning

Artikel 68 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

CE-märkning saknas.

(Berör inte den svenska versionen.)

Ändring 623

Förslag till förordning

Artikel 68 – punkt 1 – led ea (nytt)

Kommissionens förslag

Ändring

 

(ea)

Den tekniska dokumentationen är inte tillgänglig.

Ändring 624

Förslag till förordning

Artikel 68 – punkt 1 – led eb (nytt)

Kommissionens förslag

Ändring

 

(eb)

Registreringen i EU-databasen har inte genomförts.

Ändring 625

Förslag till förordning

Artikel 68 – punkt 1 – led ec (nytt)

Kommissionens förslag

Ändring

 

(ec)

I tillämpliga fall har ombudet inte utsetts.

Ändring 626

Förslag till förordning

Artikel 68 – punkt 2

Kommissionens förslag

Ändring

2.   Om den bristande överensstämmelse som avses i punkt 1 kvarstår ska den berörda medlemsstaten vidta alla lämpliga åtgärder för att begränsa eller förbjuda tillhandahållandet av AI-systemet med hög risk på marknaden eller säkerställa att det återkallas eller dras tillbaka från marknaden.

2.   Om den bristande överensstämmelse som avses i punkt 1 kvarstår ska den nationella tillsynsmyndigheten i den berörda medlemsstaten vidta lämpliga och proportionerliga åtgärder för att begränsa eller förbjuda tillhandahållandet av AI-systemet med hög risk på marknaden eller säkerställa att det utan dröjsmål återkallas eller dras tillbaka från marknaden. Den nationella tillsynsmyndigheten i den berörda medlemsstaten ska omedelbart underrätta AI-byrån om den bristande efterlevnaden och om de åtgärder som vidtagits.

Ändring 627

Förslag till förordning

Artikel 68 – kapitel 3a (nytt)

Kommissionens förslag

Ändring

 

3a.

Rättsmedel

Ändring 628

Förslag till förordning

Artikel 68a (ny)

Kommissionens förslag

Ändring

 

Artikel 68a

 

Rätt att lämna in klagomål till en nationell tillsynsmyndighet

 

1.     Utan att det påverkar något annat administrativt prövningsförfarande eller rättsmedel, ska varje fysisk person eller grupp av fysiska personer ha rätt att lämna in ett klagomål till en nationell tillsynsmyndighet, särskilt i den medlemsstat där han eller hon har hemvist eller sin arbetsplats eller där den påstådda överträdelsen ägde rum, om de anser att det AI-system som rör honom eller henne strider mot denna förordning.

 

2.     Den nationella tillsynsmyndighet till vilken klagomålet har ingetts ska underrätta den enskilde om hur arbetet med klagomålet fortskrider och vad resultatet blir, inbegripet möjligheten till rättslig prövning enligt artikel 78.

Ändring 629

Förslag till förordning

Artikel 68b (ny)

Kommissionens förslag

Ändring

 

Artikel 68b

 

Rätt till ett effektivt rättsmedel mot ett beslut av en nationell tillsynsmyndighet

 

1.     Utan att det påverkar något annat administrativt prövningsförfarande eller prövningsförfarande utanför domstol ska varje fysisk eller juridisk person ha rätt till ett ändamålsenligt rättsmedel mot ett rättsligt bindande beslut av en nationell tillsynsmyndighet rörande dem.

 

2.     Utan att det påverkar något annat administrativt prövningsförfarande eller prövningsförfarande utanför domstol ska varje fysisk eller juridisk person ha rätt till ett ändamålsenligt rättsmedel om den enligt artikel 59 behöriga nationella tillsynsmyndigheten inte inom tre månader behandlar ett klagomål eller om den nationella tillsynsmyndigheten inte underrättar den registrerade om handläggningen eller resultatet av det klagomål som inlämnats enligt artikel 68a.

 

3.     Talan mot en nationell tillsynsmyndighet ska väckas vid domstolarna i den medlemsstat där den nationella tillsynsmyndigheten har sitt säte.

 

4.     Om talan väcks mot ett beslut som fattats av en nationell tillsynsmyndighet och som föregicks av ett yttrande från eller beslut av kommissionen inom ramen för unionens skyddsförfarande ska tillsynsmyndigheten vidarebefordra detta yttrande eller beslut till domstolen.

Ändring 630

Förslag till förordning

Artikel 68c (ny)

Kommissionens förslag

Ändring

 

Artikel 68c

 

Rätt till förklaring av individuellt beslutsfattande

 

1.     Alla berörda personer som är föremål för ett beslut som fattats av användaren, på grundval av utdata från ett AI-system med hög risk, som får rättslig verkan eller på liknande sätt i betydande grad påverkar honom eller henne på ett sätt som de anser har en negativ inverkan på deras hälsa, säkerhet, grundläggande rättigheter eller socioekonomiska välbefinnande eller någon annan av de rättigheter som följer av de skyldigheter som fastställs i denna förordning, ska ha rätt att från användaren begära en tydlig och meningsfull förklaring i enlighet med artikel 13.1 om AI-systemets roll i beslutsprocessen, de viktigaste parametrarna för det beslut som fattats och tillhörande indata.

 

2.     Punkt 1 ska inte tillämpas på användning av AI-system för vilka undantag från eller begränsningar av skyldigheten enligt punkt 1 följer av unionsrätten eller nationell rätt, i den mån sådana undantag eller begränsningar är förenliga med andemeningen i de grundläggande rättigheterna och friheterna och utgör en nödvändig och proportionerlig åtgärd i ett demokratiskt samhälle.

 

3.     Denna artikel ska tillämpas utan att det påverkar tillämpningen av artiklarna 13, 14, 15 och 22 i förordning 2016/679.

Ändring 631

Förslag till förordning

Artikel 68d (ny)

Kommissionens förslag

Ändring

 

Artikel 68d

 

Ändring av direktiv (EU) 2020/1828

 

I bilaga I till Europaparlamentets och rådets direktiv (EU) 2020/1828  (1a) ska följande punkt läggas till:

 

”67 a

Europaparlamentets och rådets förordning xxxx/xxxx [om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unionslagstiftningsakter (EUT L …)]”.

Ändring 632

Förslag till förordning

Artikel 68e (ny)

Kommissionens förslag

Ändring

 

Artikel 68 e

Rapportering av överträdelser och skydd av personer som rapporterar överträdelser

Europaparlamentets och rådets direktiv (EU) 2019/1937 ska tillämpas på rapportering av överträdelser av denna förordning och skydd för personer som rapporterar om sådana överträdelser.

Ändring 633

Förslag till förordning

Artikel 69 – punkt 1

Kommissionens förslag

Ändring

1.   Kommissionen och medlemsstaterna ska uppmuntra och underlätta utarbetandet av uppförandekoder som syftar till att främja frivillig tillämpning av kraven i avdelning III kapitel 2 på AI-system som inte är system med hög risk, på grundval av tekniska specifikationer och lösningar som är lämpliga för att säkerställa överensstämmelse med sådana krav mot bakgrund av systemens avsedda ändamål.

1.   Kommissionen, AI-byrån och medlemsstaterna ska uppmuntra och underlätta utarbetandet av uppförandekoder , inbegripet om de utarbetas för att visa hur AI-system respekterar de principer som anges i artikel 4a och därmed kan anses tillförlitliga, som syftar till att främja frivillig tillämpning av kraven i avdelning III kapitel 2 på AI-system som inte är system med hög risk, på grundval av tekniska specifikationer och lösningar som är lämpliga för att säkerställa överensstämmelse med sådana krav mot bakgrund av systemens ändamål.

Ändring 634

Förslag till förordning

Artikel 69 – punkt 2

Kommissionens förslag

Ändring

2.    Kommissionen och nämnden ska uppmuntra och underlätta utarbetandet av uppförandekoder som syftar till att främja frivillig tillämpning på AI-system av krav som rör exempelvis miljömässig hållbarhet , tillgänglighet för personer med funktionsnedsättning, berörda parters deltagande i utformningen och utvecklingen av AI-systemen och mångfalden i utvecklingsteam på grundval av tydliga mål och centrala resultatindikatorer för att mäta uppnåendet av dessa mål .

2.    Uppförandekoder som syftar till att främja frivillig överensstämmelse med de principer som ligger till grund för tillförlitliga AI-system ska i synnerhet

 

(a)

eftersträva att personalen och andra personer som arbetar med drift och användning av AI-system har tillräckliga AI-kunskaper för att kunna följa sådana principer,

 

(b)

bedöma i vilken utsträckning deras AI-system kan påverka utsatta personer eller grupper av personer, inbegripet barn, äldre, migranter och personer med funktionsnedsättning, eller huruvida åtgärder skulle kunna vidtas för att öka tillgängligheten eller på annat sätt stödja dessa personer eller grupper av personer,

 

(c)

överväga hur användningen av deras AI-system kan påverka eller bidra till mångfald, en jämn könsfördelning och jämlikhet,

 

(d)

beakta huruvida deras AI-system kan användas på ett sätt som, direkt eller indirekt, som följdverkan eller på ett betydande sätt, kan förstärka befintliga snedvridningar eller ojämlikheter,

 

(e)

reflektera över behovet och relevansen av att ha olika utvecklingsteam på plats för att säkerställa en inkluderande utformning av deras system,

 

(f)

noggrant överväga huruvida deras system kan ha en negativ inverkan på samhället, särskilt när det gäller politiska institutioner och demokratiska processer,

 

(g)

utvärdera hur AI-system kan bidra till miljömässig hållbarhet , i synnerhet till unionens åtaganden enligt den europeiska gröna given och den europeiska förklaringen om digitala rättigheter och principer .

Ändring 635

Förslag till förordning

Artikel 69 – punkt 3

Kommissionens förslag

Ändring

3.   Uppförandekoder kan utarbetas av enskilda leverantörer av AI-system eller av organisationer som företräder dem eller av både och, inbegripet genom en involvering av användare och eventuella berörda parter och dessas representativa organisationer. Uppförandekoder kan omfatta ett eller flera AI-system med beaktande av likheten mellan de berörda systemens avsedda ändamål.

3.   Uppförandekoder kan utarbetas av enskilda leverantörer av AI-system eller av organisationer som företräder dem eller av både och, inbegripet genom en involvering av användare och eventuella berörda parter , inbegripet forskare, och dessas representativa organisationer , särskilt fackföreningar, och konsumentorganisationer . Uppförandekoder kan omfatta ett eller flera AI-system med beaktande av likheten mellan de berörda systemens avsedda ändamål. Leverantörer som antar uppförandekoder ska utse minst en fysisk person som ansvarar för den interna övervakningen.

Ändring 636

Förslag till förordning

Artikel 69 – punkt 4

Kommissionens förslag

Ändring

4.   Kommissionen och nämnden ska ta hänsyn till småskaliga leverantörers och nystartade företags särskilda intressen och behov när de uppmuntrar och underlättar utarbetandet av uppförandekoder.

4.   Kommissionen och AI-byrån ska ta hänsyn till små och medelstora företags och nystartade företags särskilda intressen och behov när de uppmuntrar och underlättar utarbetandet av uppförandekoder.

Ändring 637

Förslag till förordning

Artikel 70 – punkt 1 – inledningen

Kommissionens förslag

Ändring

1.   De nationella behöriga myndigheter och anmälda organ som deltar i tillämpningen av denna förordning ska respektera konfidentialiteten för den information och de data som de erhåller när de utför sina uppgifter och sin verksamhet på ett sådant sätt att de särskilt skyddar följande:

1.    Kommissionen, de nationella behöriga myndigheter och anmälda organ , AI-byrån och alla andra fysiska och juridiska personer som deltar i tillämpningen av denna förordning ska respektera konfidentialiteten för den information och de data som de erhåller när de utför sina uppgifter och sin verksamhet på ett sådant sätt att de särskilt skyddar följande:

Ändring 638

Förslag till förordning

Artikel 70 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

Immateriella rättigheter och en fysisk eller juridisk persons konfidentiella affärsinformation eller företagshemligheter, inklusive källkod, utom i de fall som avses i artikel 5 i direktiv 2016/943 om skydd mot att icke röjd know-how och företagsinformation (företagshemligheter) olagligen anskaffas, utnyttjas och röjs.

(a)

Immateriella rättigheter och en fysisk eller juridisk persons konfidentiella affärsinformation eller företagshemligheter i enlighet med bestämmelserna i direktiven 2004/48/EC och 2016/943/EC , inklusive källkod, utom i de fall som avses i artikel 5 i direktiv 2016/943 om skydd mot att icke röjd know-how och företagsinformation (företagshemligheter) olagligen anskaffas, utnyttjas och röjs.

Ändring 639

Förslag till förordning

Artikel 70 – punkt 1 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

Offentliga och nationella säkerhetsintressen.

Ändring 640

Förslag till förordning

Artikel 70 – punkt 1a (ny)

Kommissionens förslag

Ändring

 

1a.     De myndigheter som deltar i tillämpningen av denna förordning i enlighet med punkt 1 ska minimera den mängd uppgifter som begärs för utlämnande till de uppgifter som är absolut nödvändiga för den upplevda risken och bedömningen av den risken. De ska radera uppgifterna så snart de inte längre behövs för det ändamål de begärdes. De ska införa lämpliga och ändamålsenliga cybersäkerhetsåtgärder samt tekniska och organisatoriska åtgärder för att skydda säkerheten och konfidentialiteten för den information och de uppgifter som de erhåller när de utför sina uppgifter och sin verksamhet.

Ändring 641

Förslag till förordning

Artikel 70 – punkt 2 – stycke 1

Kommissionens förslag

Ändring

2.   Utan att det påverkar tillämpningen av punkt 1 ska konfidentiell information som utbyts mellan de nationella behöriga myndigheterna och mellan nationella behöriga myndigheter och kommissionen inte röjas utan föregående samråd med den nationella behöriga myndigheten som informationen härrör från och användaren när sådana AI-system med hög risk som avses i punkterna 1, 6 och 7 i bilaga III används av brottsbekämpande myndigheter eller immigrations- eller asylmyndigheter, om ett sådant röjande skulle äventyra allmänna och nationella säkerhetsintressen .

2.    Utan att det påverkar tillämpningen av punkterna 1 och 1a ska konfidentiell information som utbyts mellan de nationella behöriga myndigheterna och mellan nationella behöriga myndigheter och kommissionen inte röjas utan föregående samråd med den nationella behöriga myndigheten som informationen härrör från och användaren när sådana AI-system med hög risk som avses i punkterna 1, 6 och 7 i bilaga III används av brottsbekämpande myndigheter eller immigrations- eller asylmyndigheter, om ett sådant röjande skulle äventyra den allmänna eller nationella säkerheten.

Ändring 642

Förslag till förordning

Artikel 70 – punkt 3

Kommissionens förslag

Ändring

3.   Punkterna 1 och 2 påverkar inte kommissionens, medlemsstaternas och de anmälda organens rättigheter och skyldigheter när det gäller att utbyta information och utfärda varningar och inte heller de berörda personernas straffrättsliga skyldighet att lämna information enligt medlemsstaternas rättsordningar.

3.   Punkterna 1 , 1a och 2 påverkar inte kommissionens, medlemsstaternas och de anmälda organens rättigheter och skyldigheter när det gäller att utbyta information och utfärda varningar och inte heller de berörda personernas straffrättsliga skyldighet att lämna information enligt medlemsstaternas rättsordningar.

Ändring 643

Förslag till förordning

Artikel 70 – punkt 4

Kommissionens förslag

Ändring

4.   Kommissionen och medlemsstaterna får vid behov utbyta konfidentiell information med de tillsynsmyndigheter i tredjeländer med vilka de har slutit bilaterala eller multilaterala avtal om konfidentialitet som garanterar en tillräcklig nivå av konfidentialitet.

4.   Kommissionen och medlemsstaterna får , om det är absolut nödvändigt och om det är förenligt med relevanta bestämmelser i internationella avtal och handelsavtal, utbyta konfidentiell information med de tillsynsmyndigheter i tredjeländer med vilka de har slutit bilaterala eller multilaterala avtal om konfidentialitet som garanterar en tillräcklig nivå av konfidentialitet.

Ändring 644

Förslag till förordning

Artikel 71 – rubriken

Kommissionens förslag

Ändring

Sanktioner och avgifter

Sanktioner

Ändring 645

Förslag till förordning

Artikel 71 – punkt 1

Kommissionens förslag

Ändring

1.   Medlemsstaterna ska i enlighet med de villkor som fastställs i denna förordning fastställa regler om sanktioner, inbegripet administrativa sanktionsavgifter, som ska tillämpas vid överträdelser av bestämmelserna i denna förordning och vidta alla nödvändiga åtgärder för att se till att de tillämpas korrekt och effektivt. Sanktionerna ska vara effektiva, proportionella och avskräckande. De ska särskilt ta hänsyn till småskaliga leverantörers och nystartade företags intressen och deras ekonomiska bärkraft.

1.   Medlemsstaterna ska i enlighet med de villkor som fastställs i denna förordning fastställa regler om sanktioner, som ska tillämpas vid en operatörs överträdelser av bestämmelserna i denna förordning och vidta alla nödvändiga åtgärder för att se till att de tillämpas korrekt och effektivt och att de är förenliga med de riktlinjer som kommissionen och AI-byrån utfärdat enligt vad som anges i artikel 82b . Sanktionerna ska vara effektiva, proportionella och avskräckande. De ska ta hänsyn till små och medelstora företags och nystartade företags intressen och deras ekonomiska bärkraft.

Ändring 646

Förslag till förordning

Artikel 71 – punkt 2

Kommissionens förslag

Ändring

2.   Medlemsstaterna ska till kommissionen anmäla dessa regler och åtgärder samt utan dröjsmål eventuella ändringar som berör dem.

2.   Medlemsstaterna ska till kommissionen och byrån anmäla dessa regler och åtgärder senast den … [12 månader efter dagen för denna förordnings ikraftträdande] samt utan dröjsmål eventuella ändringar som berör dem.

Ändring 647

Förslag till förordning

Artikel 71 – punkt 3 – inledningen

Kommissionens förslag

Ändring

3.    Följande överträdelser ska bli föremål för administrativa sanktionsavgifter på upp till 30 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 6  % av dess totala globala årsomsättning för det föregående räkenskapsåret, beroende på vilket som är högst:

3.    Bristande efterlevnad av förbudet mot de tillämpningar av artificiell intelligens som avses i artikel 5 ska bli föremål för administrativa sanktionsavgifter på upp till 40 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 7  % av dess totala globala årsomsättning för det föregående räkenskapsåret, beroende på vilket som är högst:

Ändring 648

Förslag till förordning

Artikel 71 – punkt 3 – led a

Kommissionens förslag

Ändring

(a)

Bristande efterlevnad av det förbud mot tillämpningar av artificiell intelligens som avses i artikel 5.

utgår

Ändring 649

Förslag till förordning

Artikel 71 – punkt 3 – led b

Kommissionens förslag

Ändring

(b)

AI-systemets bristande efterlevnad av kraven i artikel 10.

utgår

Ändring 650

Förslag till förordning

Artikel 71 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     AI-systemets bristande efterlevnad av de krav som fastställs i artikel 10 och 13 ska bli föremål för administrativa sanktionsavgifter på upp till 20 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 4 % av dess totala globala årsomsättning för det föregående räkenskapsåret, beroende på vilket som är högst.

Ändring 651

Förslag till förordning

Artikel 71 – punkt 4

Kommissionens förslag

Ändring

4.   AI-systemets bristande efterlevnad av andra krav eller skyldigheter enligt denna förordning än de som fastställs i artiklarna 5 och 10 ska medföra administrativa sanktionsavgifter på upp till 20 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 4 % av dess totala globala årsomsättning under det föregående räkenskapsåret, beroende på vilket som är högst.

4.   AI-systemets eller grundmodellens bristande efterlevnad av andra krav eller skyldigheter enligt denna förordning än de som fastställs i artiklarna 5 , 10 och 13 ska medföra administrativa sanktionsavgifter på upp till 10 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 2 % av dess totala globala årsomsättning under det föregående räkenskapsåret, beroende på vilket som är högst.

Ändring 652

Förslag till förordning

Artikel 71 – punkt 5

Kommissionens förslag

Ändring

5.   Tillhandahållande av oriktig, ofullständig eller vilseledande information till anmälda organ och nationella behöriga myndigheter som svar på en begäran ska medföra administrativa sanktionsavgifter på upp till 10 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 2  % av dess totala globala årsomsättning för det föregående räkenskapsåret, beroende på vilket som är högst.

5.   Tillhandahållande av oriktig, ofullständig eller vilseledande information till anmälda organ och nationella behöriga myndigheter som svar på en begäran ska medföra administrativa sanktionsavgifter på upp till 5 000 000  EUR eller, om överträdelsen begås av ett företag, upp till 1  % av dess totala globala årsomsättning för det föregående räkenskapsåret, beroende på vilket som är högst.

Ändring 653

Förslag till förordning

Artikel 71 – punkt 6 – inledningen

Kommissionens förslag

Ändring

6.    Vid beslut om storleken på den administrativa sanktionsavgiften i varje enskilt fall ska alla relevanta omständigheter i den specifika situationen beaktas och vederbörlig hänsyn ska tas till

6.    Böter kan åläggas utöver eller i stället för icke-monetära åtgärder såsom förelägganden eller varningar. Vid beslut om storleken på den administrativa sanktionsavgiften i varje enskilt fall ska alla relevanta omständigheter i den specifika situationen beaktas och vederbörlig hänsyn ska tas till

Ändring 654

Förslag till förordning

Artikel 71 – punkt 6 – led a

Kommissionens förslag

Ändring

(a)

överträdelsens art, svårighetsgrad och varaktighet samt dess konsekvenser,

(a)

överträdelsens art, svårighetsgrad och varaktighet samt dess konsekvenser med beaktande av det berörda AI-systemets syfte samt, när så är lämpligt, antalet berörda personer och omfattningen av den skada som de har lidit ,

Ändring 655

Förslag till förordning

Artikel 71 – punkt 6 – led b

Kommissionens förslag

Ändring

(b)

huruvida administrativa sanktionsavgifter redan har tillämpats av andra marknadskontrollmyndigheter på samma operatör för samma överträdelse,

(b)

huruvida administrativa sanktionsavgifter redan har tillämpats av andra nationella tillsynsmyndigheter i en eller flera medlemsstater på samma operatör för samma överträdelse,

Ändring 656

Förslag till förordning

Artikel 71 – punkt 6 – led c

Kommissionens förslag

Ändring

(c)

storleken på och marknadsandelen för den operatör som begått överträdelsen.

(c)

storleken på och årsomsättningen för den operatör som begått överträdelsen.

Ändring 657

Förslag till förordning

Artikel 71 – punkt 6 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

alla åtgärder som vidtagits av operatören för att minska den skada som de berörda personerna lidit,

Ändring 658

Förslag till förordning

Artikel 71 – punkt 6 – led cb (nytt)

Kommissionens förslag

Ändring

 

(cb)

om överträdelsen skett med uppsåt eller genom oaktsamhet,

Ändring 659

Förslag till förordning

Artikel 71 – punkt 6 – led cc (nytt)

Kommissionens förslag

Ändring

 

(cc)

graden av samarbete med nationella behöriga myndigheter för att komma till rätta med överträdelsen och minska dess potentiella negativa effekter,

Ändring 660

Förslag till förordning

Artikel 71 – punkt 6 – led cd (nytt)

Kommissionens förslag

Ändring

 

(cd)

operatörens grad av ansvar med beaktande av de tekniska och organisatoriska åtgärder som genomförts av denne,

Ändring 661

Förslag till förordning

Artikel 71 – punkt 6 – led ce (nytt)

Kommissionens förslag

Ändring

 

(ce)

det sätt på vilket överträdelsen kom till den nationella behöriga myndighetens kännedom, särskilt huruvida, och i sådana fall i vilken mån, operatören anmälde överträdelsen,

Ändring 662

Förslag till förordning

Artikel 71 – punkt 6 – led cf (nytt)

Kommissionens förslag

Ändring

 

(cf)

efterlevnad av godkända uppförandekoder eller godkända certifieringsmekanismer,

Ändring 663

Förslag till förordning

Artikel 71 – punkt 6 – led cg (nytt)

Kommissionens förslag

Ändring

 

(cg)

huruvida operatören gjort sig skyldig till tidigare överträdelser som är relevanta,

Ändring 664

Förslag till förordning

Artikel 71 – punkt 6 – led ch (nytt)

Kommissionens förslag

Ändring

 

(ch)

eventuell annan försvårande eller förmildrande omständighet som är tillämplig på ärendets omständigheter.

Ändring 665

Förslag till förordning

Artikel 71 – punkt 7

Kommissionens förslag

Ändring

7.   Varje medlemsstat ska fastställa regler för huruvida och i vilken utsträckning administrativa sanktionsavgifter kan påföras offentliga myndigheter och organ som är inrättade i medlemsstaten.

7.   Varje medlemsstat ska fastställa regler för administrativa sanktionsavgifter som ska påföras offentliga myndigheter och organ som är inrättade i medlemsstaten.

Ändring 666

Förslag till förordning

Artikel 71 – punkt 8a (ny)

Kommissionens förslag

Ändring

 

8a.     De sanktioner som avses i denna artikel och de därmed sammanhängande kostnaderna för rättstvister och skadeståndsanspråk får inte bli föremål för avtalsklausuler eller andra former av avtal om bördefördelning mellan leverantörer och distributörer, importörer, användare eller andra tredje parter.

Ändring 667

Förslag till förordning

Artikel 71 – punkt 8b (ny)

Kommissionens förslag

Ändring

 

8b.     Nationella tillsynsmyndigheter ska årligen underrätta AI-byrån om de sanktionsavgifter som de har utfärdat under det året i enlighet med denna artikel.

Ändring 668

Förslag till förordning

Artikel 71 – punkt 8c (ny)

Kommissionens förslag

Ändring

 

8c.     De behöriga myndigheternas utövande av sina befogenheter enligt denna artikel bör omfattas av lämpliga rättssäkerhetsgarantier i enlighet med unionsrätten och nationell rätt, inbegripet rättsmedel och rättssäkerhet.

Ändring 669

Förslag till förordning

Artikel 72 – punkt 1 – led a

Kommissionens förslag

Ändring

(a)

överträdelsens art, svårighetsgrad och varaktighet samt dess konsekvenser,

(a)

överträdelsens art, svårighetsgrad och varaktighet samt dess konsekvenser, som tar hänsyn till det behöriga AI-systemets syfte samt antalet berörda personer och omfattningen av den skada som de har lidit och alla relevanta föregående överträdelser,

Ändring 670

Förslag till förordning

Artikel 72 – punkt 1 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

alla åtgärder som unionens institutioner, byråer eller organ vidtar för att mildra den skada som de berörda personerna lidit,

Ändring 671

Förslag till förordning

Artikel 72 – punkt 1 – led ab (nytt)

Kommissionens förslag

Ändring

 

(ab)

graden av ansvar hos unionens institutioner, byråer eller organ med beaktande av de tekniska och organisatoriska åtgärder som de har genomfört,

Ändring 672

Förslag till förordning

Artikel 72 – punkt 1 – led b

Kommissionens förslag

Ändring

(b)

samarbetet med Europeiska datatillsynsmannen för att åtgärda överträdelsen och minska dess potentiella negativa effekter, inbegripet efterlevnad av någon av de åtgärder som tidigare förordnats av Europeiska datatillsynsmannen mot unionens berörda institution, byrå eller organ med avseende på samma fråga,

(b)

graden av samarbete med Europeiska datatillsynsmannen för att åtgärda överträdelsen och minska dess potentiella negativa effekter, inbegripet efterlevnad av någon av de åtgärder som tidigare förordnats av Europeiska datatillsynsmannen mot unionens berörda institution, byrå eller organ med avseende på samma fråga,

Ändring 673

Förslag till förordning

Artikel 72 – punkt 1 – led ca (nytt)

Kommissionens förslag

Ändring

 

(ca)

det sätt på vilket överträdelsen kom till Europeiska datatillsynsmannens kännedom, särskilt huruvida och i vilken omfattning unionsinstitutionen eller unionsorganet anmälde överträdelsen,

Ändring 674

Förslag till förordning

Artikel 72 – punkt 1 – led cb (nytt)

Kommissionens förslag

Ändring

 

(cb)

organets årliga budget,

Ändring 675

Förslag till förordning

Artikel 72 – punkt 2 – inledningen

Kommissionens förslag

Ändring

2.    Följande överträdelser ska medföra administrativa sanktionsavgifter på upp till 500 000  EUR :

2.    Bristande efterlevnad av förbudet mot de tillämpningar av artificiell intelligens som avses i artikel 5 ska medföra administrativa sanktionsavgifter på upp till 1 500 000  EUR .

Ändring 676

Förslag till förordning

Artikel 72 – punkt 2 – led a

Kommissionens förslag

Ändring

(a)

Bristande efterlevnad av det förbud mot tillämpningar av artificiell intelligens som avses i artikel 5.

utgår

Ändring 677

Förslag till förordning

Artikel 72 – punkt 2b (ny)

Kommissionens förslag

Ändring

 

2a.     AI-systemets bristande efterlevnad av kraven i artikel 10 ska medföra administrativa sanktionsavgifter på upp till 1 000 000  EUR.

Ändring 678

Förslag till förordning

Artikel 72 – punkt 3

Kommissionens förslag

Ändring

3.   AI-systemets bristande efterlevnad av andra krav eller skyldigheter enligt denna förordning än de som fastställs i artiklarna 5 och 10 ska medföra administrativa sanktionsavgifter på upp till 250 000 EUR .

3.   AI-systemets bristande efterlevnad av andra krav eller skyldigheter enligt denna förordning än de som fastställs i artiklarna 5 och 10 ska medföra administrativa sanktionsavgifter på upp till 750 000 EUR .

Ändring 679

Förslag till förordning

Artikel 72 – punkt 6

Kommissionens förslag

Ändring

6.   De medel som samlats in genom åläggande av avgifter i denna artikel ska utgöra intäkter i unionens allmänna budget.

6.   De medel som samlats in genom åläggande av avgifter i denna artikel ska bidra till unionens allmänna budget. Avgifterna får inte påverka den ändamålsenliga funktionen för unionens institution, organ eller byrå.

Ändring 680

Förslag till förordning

Artikel 72 – punkt 6a (ny)

Kommissionens förslag

Ändring

 

6a.     Europeiska datatillsynsmannen ska årligen underrätta AI-byrån om de avgifter som den ålagt i enlighet med denna artikel.

Ändring 681

Förslag till förordning

Artikel 73 – punkt 2

Kommissionens förslag

Ändring

2.   Den delegering av befogenhet som avses i artiklarna 4, 7.1, 11.3, 43.5, 43.6 och 48.5 ska ges till kommissionen tills vidare från och med den [dagen för ikraftträdandet av denna förordning].

2.   Den befogenhet att anta delegerade akter som avses i artiklarna 4, 7.1, 11.3, 43.5, 43.6 och 48.5 ska ges till kommissionen för en period på fem år från och med den [dagen för ikraftträdandet av denna förordning]. Kommissionen ska utarbeta en rapport om delegeringen av befogenhet senast nio månader före utgången av femårsperioden . Delegeringen av befogenhet ska genom tyst medgivande förlängas med perioder av samma längd, såvida inte Europaparlamentet eller rådet motsätter sig en sådan förlängning senast tre månader före utgången av perioden i fråga.

Ändring 682

Förslag till förordning

Artikel 73 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     Innan kommissionen antar en delegerad akt ska den samråda med berörda institutioner, byrån, den rådgivande gruppen och andra berörda parter i enlighet med principerna i det interinstitutionella avtalet av den 13 april 2016 om bättre lagstiftning.

 

När kommissionen beslutar att utarbeta en delegerad akt ska den underrätta Europaparlamentet om detta. Detta innebär inte någon skyldighet för kommissionen att anta akten i fråga.

Ändring 683

Förslag till förordning

Artikel 81a (ny)

Kommissionens förslag

Ändring

 

Artikel 81a

 

Ändring av förordning (EU) 2019/1020

 

Förordning (EU) 2019/1020 ska ändras på följande sätt:

 

I artikel 14.4 ska följande stycke läggas till:

 

”(l)

Befogenhet att i tillämpliga fall genomföra de befogenheter som anges i denna artikel på distans.”

Ändring 684

Förslag till förordning

Artikel 82a (ny)

Kommissionens förslag

Ändring

 

Artikel 82a

Bättre lagstiftning

Med beaktande av kraven i denna förordning i enlighet med ändringarna i artiklarna 75, 76, 77, 78, 79, 80, 81 och 82 ska kommissionen genomföra en analys och samråda med berörda parter för att fastställa eventuella gap och överlappningar mellan befintlig sektorslagstiftning och bestämmelserna i denna förordning.

Ändring 685

Förslag till förordning

Artikel 82b (ny)

Kommissionens förslag

Ändring

 

Artikel 82b

 

Riktlinjer från kommissionen om genomförandet av denna förordning

 

1.     Kommissionen ska i samråd med AI-byrån utarbeta riktlinjer för det praktiska genomförandet av denna förordning, särskilt om

 

(a)

tillämpningen av de krav som avses i artiklarna 8–15 och artikel 28–28b,

 

(b)

de förbjudna tillämpningar som avses i artikel 5,

 

(c)

det praktiska genomförandet av bestämmelserna om väsentliga ändringar,

 

(d)

de praktiska omständigheter där utdata från ett AI-system som avses i bilaga III skulle utgöra en betydande risk för skada på fysiska personers hälsa, säkerhet eller grundläggande rättigheter såsom avses artikel 6.2, inbegripet exempel på AI-system med hög risk som avses i bilaga III,

 

(e)

det praktiska genomförandet av de transparenskrav som fastställs i artikel 52,

 

(f)

utarbetande av de uppförandekoder som avses i artikel 69,

 

(g)

förhållandet mellan denna förordning och annan relevant unionslagstiftning, inbegripet när det gäller konsekvens i kontrollen av efterlevnaden,

 

(h)

det praktiska genomförandet av artikel 12, artikel 28b om grundmodellers miljöpåverkan och bilaga IV 3 b, särskilt mät- och loggningsmetoderna för att möjliggöra beräkningar och rapportering av systemens miljöpåverkan för att uppfylla skyldigheterna i denna förordning, inbegripet koldioxidavtryck och energieffektivitet, med beaktande av tidigare känd teknik och stordriftsfördelarna.

 

När kommissionen utfärdar sådana riktlinjer ska den särskilt uppmärksamma behoven hos små och medelstora företag, inbegripet nystartade företag, lokala myndigheter och sektorer som det är mest sannolikt kommer att beröras av denna förordning.

 

2.     På begäran av medlemsstaterna eller AI-byrån, eller på eget initiativ, ska kommissionen uppdatera redan antagna riktlinjer när det anses nödvändigt.

Ändring 686

Förslag till förordning

Artikel 83 – punkt 1 – stycke 1

Kommissionens förslag

Ändring

1.    Denna förordning ska inte tillämpas på AI-system som är komponenter i de stora it-system som inrättats genom de rättsakter som förtecknas i bilaga IX och som har släppts ut på marknaden eller tagits i bruk före den [12 månader efter den tillämpningsdag för denna förordning som avses i artikel 85.2], såvida inte dessa rättsakter ersätts eller ändras på ett vis som leder till en betydande ändring av det berörda AI-systemets eller de berörda AI-systemens utformning eller avsedda ändamål.

1.    Operatörer av AI-system som är komponenter i de stora it-system som inrättats genom de rättsakter som förtecknas i bilaga IX och som har släppts ut på marknaden eller tagits i bruk före den … [ dagen för denna förordnings ikraftträdande] ska vidta nödvändiga åtgärder för att uppfylla de krav som fastställs i denna förordning senast … [fyra år efter dagen för denna förordnings ikraftträdande].

Ändring 687

Förslag till förordning

Artikel 83 – punkt 1 – stycke 2

Kommissionens förslag

Ändring

De krav som fastställs i denna förordning ska i tillämpliga fall beaktas vid utvärderingen av vart och ett av de stora it-system inrättade genom de rättsakter förtecknade i bilaga IX som ska utföras i enlighet med dessa rättsakter.

De krav som fastställs i denna förordning ska beaktas vid utvärderingen av vart och ett av de stora it-system inrättade genom de rättsakter förtecknade i bilaga IX som ska utföras i enlighet med dessa rättsakter och närhelst dessa rättsakter ersätts eller ändras .

Ändring 688

Förslag till förordning

Artikel 83 – punkt 2

Kommissionens förslag

Ändring

2.   Denna förordning ska tillämpas på AI-system med hög risk, utom de som avses i punkt 1, som har släppts ut på marknaden eller tagits i bruk före den [tillämpningsdagen för denna förordning som avses i artikel 85.2] endast om dessa system från och med den dagen förändras betydligt när det gäller utformning eller avsett ändamål .

2.   Denna förordning ska tillämpas på operatörer av AI-system med hög risk, utom de som avses i punkt 1, som har släppts ut på marknaden eller tagits i bruk före den [tillämpningsdagen för denna förordning som avses i artikel 85.2] endast om dessa system från och med den dagen ändras väsentligt såsom fastställs i artikel 3.23 . När det gäller AI-system med hög risk som är avsedda att användas av myndigheter ska leverantörer och användare av sådana system vidta nödvändiga åtgärder för att uppfylla kraven i denna förordning [två år efter dagen för denna förordnings ikraftträdande].

Ändring 689

Förslag till förordning

Artikel 84 – punkt 1

Kommissionens förslag

Ändring

1.   Kommissionen ska bedöma behovet av att ändra förteckningen i bilaga III en gång per år efter det att denna förordning har trätt i kraft.

1.    Efter samråd med AI-byrån ska kommissionen bedöma behovet av att ändra förteckningen i bilaga III , inbegripet utvidgning av befintliga områdesrubriker eller tillägg av nya områdesrubriker i denna bilaga , förteckningen över förbjudna AI-tillämpningar i artikel 5 och förteckningen över AI-system som kräver ytterligare transparensåtgärder i artikel 52 en gång per år efter det att denna förordning har trätt i kraft och efter en rekommendation från byrån .

 

Kommissionen ska lägga fram resultatet av denna bedömning för Europaparlamentet och rådet.

Ändring 690

Förslag till förordning

Artikel 84 – punkt 2

Kommissionens förslag

Ändring

2.   Kommissionen ska senast den [ tre år efter det tillämpningsdatum för denna förordning som avses i artikel 85.2] och därefter vart fjärde år överlämna en rapport om utvärderingen och översynen av denna förordning till Europaparlamentet och rådet. Rapporten ska offentliggöras.

2.   Kommissionen ska tillsammans med AI-byrån senast den [ två år efter det tillämpningsdatum för denna förordning som avses i artikel 85.2] och därefter vartannat år överlämna en rapport om utvärderingen och översynen av denna förordning till Europaparlamentet och rådet. Rapporten ska offentliggöras.

Ändring 691

Förslag till förordning

Artikel 84 – punkt 3 – led a

Kommissionens förslag

Ändring

(a)

status för de nationella behöriga myndigheternas ekonomiska resurser och personalresurser för att effektivt kunna utföra de uppgifter som de tilldelas enligt denna förordning,

(a)

status för de nationella behöriga myndigheternas ekonomiska och tekniska resurser samt personalresurser för att effektivt kunna utföra de uppgifter som de tilldelas enligt denna förordning,

Ändring 692

Förslag till förordning

Artikel 84 – punkt 3 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

nivån för utvecklingen av harmoniserade standarder och gemensamma specifikationer för artificiell intelligens,

Ändring 693

Förslag till förordning

Artikel 84 – punkt 3 – led bb (nytt)

Kommissionens förslag

Ändring

 

(bb)

nivåerna för investering i forskning, utveckling och tillämpning av AI-system i hela unionen,

Ändring 694

Förslag till förordning

Artikel 84 – punkt 3 – led bc (nytt)

Kommissionens förslag

Ändring

 

(bc)

den aggregerade europeiska AI-sektorns konkurrenskraft jämfört med AI-sektorer i tredjeländer,

Ändring 695

Förslag till förordning

Artikel 84 – punkt 3 – led bd (nytt)

Kommissionens förslag

Ändring

 

(bd)

förordningens inverkan på resurs- och energianvändning samt avfallsproduktion och annan miljöpåverkan,

Ändring 696

Förslag till förordning

Artikel 84 – punkt 3 – led be (nytt)

Kommissionens förslag

Ändring

 

(be)

genomförandet av den samordnade AI-planen med beaktande av de olika framstegen mellan medlemsstaterna och kartläggning av befintliga hinder för innovation inom AI,

Ändring 697

Förslag till förordning

Artikel 84 – punkt 3 – led bf (nytt)

Kommissionens förslag

Ändring

 

(bf)

uppdateringen av de särskilda kraven avseende AI-systemens och grundmodellernas hållbarhet på grundval av rapporterings- och dokumentationskraven i bilaga IV och artikel 28b,

Ändring 698

Förslag till förordning

Artikel 84 – punkt 3 – led bg (nytt)

Kommissionens förslag

Ändring

 

(bg)

den rättsliga ordningen för grundmodeller,

Ändring 699

Förslag till förordning

Artikel 84 – punkt 3 – led bh (nytt)

Kommissionens förslag

Ändring

 

(bh)

förteckningen över oskäliga avtalsvillkor i artikel 28a med beaktande av nya affärsmetoder, om så är lämpligt.

Ändring 700

Förslag till förordning

Artikel 84 – punkt 3a (ny)

Kommissionens förslag

Ändring

 

3a.     Senast… [två år efter den tillämpningsdag för denna förordning som avses i artikel 85.2] ska kommissionen utvärdera AI-byråns funktion, huruvida byrån har fått tillräckliga befogenheter och tillräcklig behörighet för att fullgöra sina uppgifter och huruvida det skulle vara relevant och nödvändigt för ett korrekt genomförande och en korrekt efterlevnad av denna förordning att uppgradera byrån och dess verkställighetsbefogenheter och öka dess resurser. Kommissionen ska överlämna denna utvärderingsrapport till Europaparlamentet och rådet.

Ändring 701

Förslag till förordning

Artikel 84 – punkt 4

Kommissionens förslag

Ändring

4.   Senast den [ tre år efter det tillämpningsdatum för denna förordning som avses i artikel 85.2] och därefter vart fjärde år ska kommissionen utvärdera uppförandekodernas inverkan och effektivitet för att främja tillämpningen av kraven i avdelning III kapitel 2 och eventuellt andra ytterligare krav för AI-system som inte är AI-system med hög risk.

4.   Senast den [ ett år efter det tillämpningsdatum för denna förordning som avses i artikel 85.2] och därefter vartannat år ska kommissionen utvärdera uppförandekodernas inverkan och effektivitet för att främja tillämpningen av kraven i avdelning III kapitel 2 och eventuellt andra ytterligare krav för AI-system som inte är AI-system med hög risk.

Ändring 702

Förslag till förordning

Artikel 84 – punkt 5

Kommissionens förslag

Ändring

5.   Vid tillämpning av punkterna 1–4 ska nämnden , medlemsstaterna och de nationella behöriga myndigheterna vid begäran tillhandahålla information till kommissionen.

5.   Vid tillämpning av punkterna 1–4 ska AI-byrån , medlemsstaterna och de nationella behöriga myndigheterna vid begäran tillhandahålla information till kommissionen utan onödigt dröjsmål .

Ändring 703

Förslag till förordning

Artikel 84 – punkt 6

Kommissionens förslag

Ändring

6.   Kommissionen ska när den utför de utvärderingar och översyner som avses i punkterna 1 till 4 ta hänsyn till ståndpunkter och slutsatser från nämnden , Europaparlamentet, rådet och andra relevanta organ eller källor.

6.   Kommissionen ska när den utför de utvärderingar och översyner som avses i punkterna 1 till 4 ta hänsyn till ståndpunkter och slutsatser från AI-byrån , Europaparlamentet, rådet och andra relevanta organ eller källor och ska samråda med berörda parter . Resultatet av sådana samråd ska bifogas rapporten.

Ändring 704

Förslag till förordning

Artikel 84 – punkt 7

Kommissionens förslag

Ändring

7.   Kommissionen ska om nödvändigt överlämna lämpliga förslag om ändring av denna förordning, med särskild hänsyn till teknikens utveckling och mot bakgrund av tendenserna inom informationssamhället.

7.   Kommissionen ska om nödvändigt överlämna lämpliga förslag om ändring av denna förordning, med särskild hänsyn till teknikens utveckling , AI-systemens inverkan på hälsa och säkerhet, grundläggande rättigheter, miljön, jämlikhet och tillgänglighet för personer med funktionsnedsättning samt demokrati och rättsstatsprincipen och mot bakgrund av tendenserna inom informationssamhället.

Ändring 705

Förslag till förordning

Artikel 84 – punkt 7a (ny)

Kommissionens förslag

Ändring

 

7a.     För att vägleda de utvärderingar och översyner som avses i punkterna 1–4 ska byrån åta sig att ta fram en objektiv och deltagandebaserad metod för utvärdering av risknivån på grundval av de kriterier som anges i de relevanta artiklarna och införandet av nya system i förteckningen i bilaga III, inbegripet utvidgning av befintliga områdesrubriker eller tillägg av nya områdesrubriker i denna bilaga, förteckningen över de förbjudna tillämpningar som fastställs i artikel 5 och förteckningen över AI-system som kräver ytterligare transparensåtgärder i enlighet med artikel 52.

Ändring 706

Förslag till förordning

Artikel 84 – punkt 7b (ny)

Kommissionens förslag

Ändring

 

7 b.     Varje ändring av denna förordning enligt punkt 7 i denna artikel, eller relevanta framtida delegerade akter eller genomförandeakter, som rör den sektorslagstiftning som förtecknas i bilaga II avsnitt B, ska ta hänsyn till särdragen i lagstiftningen inom varje sektor och befintliga styrnings-, bedömnings- och efterlevnadsmekanismer och myndigheter som inrättats i denna.

Ändring 707

Förslag till förordning

Artikel 84 – punkt 7c (ny)

Kommissionens förslag

Ändring

 

7 c.     Senast [fem år från tillämpningsdagen för denna förordning] ska kommissionen göra en bedömning av efterlevnaden av denna förordning och lämna en rapport om detta till Europaparlamentet, rådet samt Europeiska ekonomiska och sociala kommittén med beaktande av de första åren av tillämpningen av förordningen. På grundval av resultaten ska denna rapport vid behov åtföljas av ett förslag till ändring av denna förordning med avseende på efterlevnadsstrukturen och behovet av att en EU-byrå åtgärdar eventuella konstaterade brister.

Ändring 708

Förslag till förordning

Bilaga I

Kommissionens förslag

Ändring

TEKNIKER OCH METODER SOM OMFATTAR ARTIFICIELL INTELLIGENS enligt artikel 3.1

utgår

(a)

Metoder för maskininlärning, inbegripet övervakad, oövervakad och förstärkt inlärning, med hjälp av en mängd olika tillvägagångssätt, inklusive djupinlärning.

 

(b)

Logik- och kunskapsbaserade metoder, inklusive kunskapsrepresentation, induktiv (logisk) programmering, kunskapsbaser, inferens- och deduktionsmotorer, (symboliska) resonemang och expertsystem.

 

(c)

Statistiska metoder, bayesisk beräkning, sök- och optimeringsmetoder.

 

Ändring 709

Förslag till förordning

Bilaga III – inledningen

Kommissionens förslag

Ändring

AI-system med hög risk enligt artikel 6.2 är de AI-system som används inom något av följande områden:

De AI-system som särskilt avses i punkterna 1–8a står för kritiska användningsfall och betraktas vart och ett som AI-system med hög risk enligt artikel 6.2 , förutsatt att de uppfyller kriterierna i den artikeln:

Ändring 710

Förslag till förordning

Bilaga III – led 1 – inledningen

Kommissionens förslag

Ändring

1.

Biometrisk identifiering och kategorisering av fysiska personer:

1.

Biometriska och biometribaserade system:

Ändring 711

Förslag till förordning

Bilaga III – led 1 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas för biometrisk fjärridentifiering av fysiska personer i ”realtid” och i ”efterhand” .

(a)

AI-system som är avsedda att användas för biometrisk identifiering av fysiska personer med undantag för dem som nämns i artikel 5 .

Ändring 712

Förslag till förordning

Bilaga III – led 1 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

AI-system som är avsedda att användas för att dra slutsatser om fysiska personers personliga egenskaper på grundval av biometriska eller biometribaserade uppgifter, inbegripet system för känsloigenkänning med undantag för sådana som nämns i artikel 5.

 

Punkt 1 ska inte omfatta de AI-system som är avsedda att användas för biometrisk verifiering och vars enda syfte är att bekräfta att en viss fysisk person är den person som han eller hon påstår sig vara.

Ändring 713

Förslag till förordning

Bilaga III – led 2 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift av vägtrafik och i samband med försörjning av vatten, gas, värme och el .

(a)

AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift av väg-, järnvägs- och flygtrafik, såvida dessa inte regleras i harmoniseringslagstiftning eller sektorsspecifik lagstiftning .

Ändring 714

Förslag till förordning

Bilaga III – led 2 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

AI-system som är avsedda att användas som säkerhetskomponenter i samband med förvaltning och drift avseende försörjning av vatten, gas, värme, elektricitet och kritisk digital infrastruktur.

Ändring 715

Förslag till förordning

Bilaga III – led 3 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas för att besluta om tillträde till eller anvisa fysiska personer till utbildnings- och yrkesutbildningsinstitutioner.

(a)

AI-system som är avsedda att användas för att besluta om tillträde till eller på ett betydande sätt påverka beslutet om antagning till eller anvisa fysiska personer till utbildnings- och yrkesutbildningsinstitutioner.

Ändring 716

Förslag till förordning

Bilaga III – led 3 – led b

Kommissionens förslag

Ändring

(b)

AI-system som är avsedda att användas för att bedöma studenter vid utbildnings- och yrkesutbildningsinstitutioner och för att bedöma deltagare i samband med prov som normalt krävs för att antas till utbildningsinstitutioner .

(b)

AI-system som är avsedda att användas för att bedöma studenter vid utbildnings- och yrkesutbildningsinstitutioner och för att bedöma deltagare i samband med prov som normalt krävs för att antas till dessa institutioner.

Ändring 717

Förslag till förordning

Bilaga III – led 3 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

AI-system som är avsedda att användas för att bedöma en persons lämpliga utbildningsnivå och som väsentligen påverkar vilken utbildningsnivå som den personen kommer att få eller få tillgång till.

Ändring 718

Förslag till förordning

Bilaga III – led 3 – led bb (nytt)

Kommissionens förslag

Ändring

 

(bb)

AI-system som är avsedda att användas för att övervaka och upptäcka förbjudet beteende bland studenterna under provtillfällen inom utbildnings- och yrkesutbildningsinstitutioner.

Ändring 719

Förslag till förordning

Bilaga III – led 4 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för utannonsering av lediga platser, granskning eller filtrering av ansökningar samt utvärdering av sökande vid intervjuer eller prov.

(a)

AI-system som är avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för publicering av riktade platsannonser, granskning eller filtrering av ansökningar samt utvärdering av sökande vid intervjuer eller prov.

Ändring 720

Förslag till förordning

Bilaga III – led 4 – led b

Kommissionens förslag

Ändring

(b)

AI som är avsedd att användas för att fatta beslut om befordringar och uppsägningar av arbetsrelaterade avtalsförhållanden, för uppgiftsfördelning och för övervakning och utvärdering av anställdas prestationer och beteende inom ramen för sådana förhållanden.

(b)

AI-system som är avsedda att användas för att fatta beslut eller i hög grad påverka beslut som inverkar på inledning, befordringar och uppsägningar av arbetsrelaterade avtalsförhållanden, för uppgiftsfördelning som bygger på individuellt beteende eller personliga särdrag eller egenskaper eller för övervakning och utvärdering av anställdas prestationer och beteende inom ramen för sådana förhållanden.

Ändring 721

Förslag till förordning

Bilaga III – led 5 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas av myndigheter eller för offentliga myndigheters räkning för att utvärdera fysiska personers rätt till förmåner och tjänster i form av offentligt stöd samt för att bevilja, dra ner på, återkalla eller återkräva sådana förmåner och tjänster.

(a)

AI-system som är avsedda att användas av myndigheter eller för offentliga myndigheters räkning för att utvärdera fysiska personers rätt till förmåner och tjänster i form av offentligt stöd , inklusive hälso- och sjukvård och samhällsviktiga tjänster, inbegripet men inte begränsat till bostäder, elektricitet, uppvärmning/kylning och internet, samt för att bevilja, dra ner på, återkalla eller återkräva sådana förmåner och tjänster.

Ändring 722

Förslag till förordning

Bilaga III – led 5 – led b

Kommissionens förslag

Ändring

(b)

AI-system som är avsedda att användas för att utvärdera fysiska personers kreditvärdighet eller fastställa deras kreditbetyg, med undantag för AI-system som tas i bruk av småskaliga leverantörer för deras eget bruk .

(b)

AI-system som är avsedda att användas för att utvärdera fysiska personers kreditvärdighet eller fastställa deras kreditbetyg, med undantag för AI-system som används i syfte att upptäcka ekonomiska bedrägerier .

Ändring 723

Förslag till förordning

Bilaga III – led 5 – led ba (nytt)

Kommissionens förslag

Ändring

 

(ba)

AI-system som är avsedda att användas för att fatta beslut eller på ett betydande sätt påverka beslut om fysiska personers rätt till sjuk- och livförsäkring.

Ändring 724

Förslag till förordning

Bilaga III – led 5 – led c

Kommissionens förslag

Ändring

(c)

AI-system som är avsedda att användas för att sända ut eller för att fastställa prioriteringsordningen för utsändning av larmtjänster, inbegripet brandkår och ambulans.

(c)

AI-system som är avsedda att utvärdera och klassificera nödsamtal från fysiska personer eller användas för att sända ut eller för att fastställa prioriteringsordningen för utsändning av larmtjänster, inbegripet polis och brottsbekämpande myndigheter, brandkår och ambulans , samt av patientsorteringssystem för akutsjukvård .

Ändring 725

Förslag till förordning

Bilaga III – led 6 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas av brottsbekämpande myndigheter för att utföra individuella riskbedömningar av fysiska personer i syfte att bedöma en fysisk persons risk för brott eller återfall eller den risk för potentiella brottsoffer löper.

utgår

Ändring 726

Förslag till förordning

Bilaga III – led 6 – led b

Kommissionens förslag

Ändring

(b)

AI-system som är avsedda att användas av brottsbekämpande myndigheter, såsom lögndetektorer och liknande verktyg, eller för att dra slutsatser om en fysisk persons känslomässiga tillstånd.

(b)

AI-system som är avsedda att användas av brottsbekämpande myndigheter eller på brottsbekämpande myndigheters vägnar eller av unionens byråer, kontor eller organ till stöd för brottsbekämpande myndigheter, såsom lögndetektorer och liknande verktyg , i den mån användningen av dem är tillåten enligt relevant unionsrätt och nationell rätt .

Ändring 727

Förslag till förordning

Bilaga III – led 6 – led c

Kommissionens förslag

Ändring

(c)

AI-system som är avsedda att användas av brottsbekämpande myndigheter för att upptäcka deepfakes enligt artikel 52.3.

utgår

Ändring 728

Förslag till förordning

Bilaga III – led 6 – led d

Kommissionens förslag

Ändring

(d)

AI-system som är avsedda att användas av brottsbekämpande myndigheter för att bedöma hur pass tillförlitlig bevisningen är i samband med utredning eller lagföring av brott.

(d)

AI-system som är avsedda att användas av brottsbekämpande myndigheter , eller på brottsbekämpande myndigheters vägnar, eller av unionens byråer, kontor eller organ till stöd för att bedöma hur pass tillförlitlig bevisningen är i samband med utredning eller lagföring av brott.

Ändring 729

Förslag till förordning

Bilaga III – led 6 – led e

Kommissionens förslag

Ändring

(e)

AI-system som är avsedda att användas av brottsbekämpande myndigheter för att förutsäga att ett faktiskt eller potentiellt brott inträffar eller inträffar på nytt baserat på profilering av fysiska personer i enlighet med artikel 3.4 i direktiv (EU) 2016/680 eller för att bedöma fysiska personers eller gruppers personliga egenskaper eller tidigare brottsliga beteende.

utgår

Ändring 730

Förslag till förordning

Bilaga III – led 6 – led f

Kommissionens förslag

Ändring

(f)

AI-system som är avsedda att användas av brottsbekämpande myndigheter för profilering av fysiska personer enligt artikel 3.4 i direktiv (EU) 2016/680 vid upptäckt, utredning eller lagföring av brott.

(f)

AI-system som är avsedda att användas av brottsbekämpande myndigheter , eller på brottsbekämpande myndigheters vägnar, eller av unionens byråer, kontor eller organ till stöd för brottsbekämpande myndigheter för profilering av fysiska personer enligt artikel 3.4 i direktiv (EU) 2016/680 vid upptäckt, utredning eller lagföring av brott eller när det gäller unionens byråer, kontor eller organ såsom avses i artikel 3.5 i förordning (EU) 2018/1725 .

Ändring 731

Förslag till förordning

Bilaga III – led 6 – led g

Kommissionens förslag

Ändring

(g)

AI-system som är avsedda att användas för brottsanalys av fysiska personer och som gör det möjligt för brottsbekämpande myndigheter att söka i komplexa och orelaterade stora datamängder som finns tillgängliga i olika datakällor eller i olika dataformat för att identifiera okända mönster eller upptäcka dolda kopplingar mellan uppgifterna.

(g)

AI-system som är avsedda att användas av brottsbekämpande myndigheter, eller på brottsbekämpande myndigheters vägnar, eller av unionens byråer, kontor eller organ för brottsanalys av fysiska personer och som gör det möjligt att söka i komplexa och orelaterade stora datamängder som finns tillgängliga i olika datakällor eller i olika dataformat för att identifiera okända mönster eller upptäcka dolda kopplingar mellan uppgifterna.

Ändring 732

Förslag till förordning

Bilaga III – led 7 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att användas av behöriga myndigheter, såsom lögndetektorer och liknande verktyg , eller för att dra slutsatser om en fysisk persons känslomässiga tillstånd .

(a)

AI-system som är avsedda att användas av behöriga myndigheter eller på behöriga myndigheters vägnar eller av unionens byråer, kontor eller organ , såsom lögndetektorer och liknande verktyg , i den mån användningen av dem är tillåten enligt relevant unionsrätt eller nationell rätt .

Ändring 733

Förslag till förordning

Bilaga III – led 7 – led b

Kommissionens förslag

Ändring

(b)

AI-system som är avsedda att användas av behöriga myndigheter för att bedöma en risk, inbegripet en säkerhetsrisk, en risk för irreguljär invandring eller en hälsorisk som utgörs av en fysisk person som avser resa in på eller har rest in på en medlemsstats territorium.

(b)

AI-system som är avsedda att användas av behöriga myndigheter , eller på behöriga myndigheters vägnar, eller av unionens byråer, kontor eller organ för att bedöma en risk, inbegripet en säkerhetsrisk, en risk för irreguljär invandring eller en hälsorisk som utgörs av en fysisk person som avser resa in på eller har rest in på en medlemsstats territorium.

Ändring 734

Förslag till förordning

Bilaga III – led 7 – led c

Kommissionens förslag

Ändring

(c)

AI-system som är avsedda att användas av behöriga myndigheter för att kontrollera äktheten i fysiska personers resehandlingar och styrkande handlingar och för att upptäcka förfalskade handlingar genom granskning av säkerhetsdetaljerna.

(c)

AI-system som är avsedda att användas av behöriga myndigheter , eller på behöriga myndigheters vägnar, eller av unionens byråer, kontor eller organ för att kontrollera äktheten i fysiska personers resehandlingar och styrkande handlingar och för att upptäcka förfalskade handlingar genom granskning av säkerhetsdetaljerna.

Ändring 735

Förslag till förordning

Bilaga III – led 7 – led d

Kommissionens förslag

Ändring

(d)

AI-system som är avsedda att bistå behöriga myndigheter i samband med prövningen av ansökningar om asyl, visering och uppehållstillstånd och därtill hörande klagomål om huruvida de fysiska personer som ansöker om status är berättigade till stöd.

(d)

AI-system som är avsedda att bistå behöriga myndigheter , eller på behöriga myndigheters vägnar, eller av unionens byråer, kontor eller organ i samband med prövningen och bedömningen av bevisens sanningsenlighet när det gäller ansökningar om asyl, visering och uppehållstillstånd och därtill hörande klagomål om huruvida de fysiska personer som ansöker om status är berättigade till stöd.

Ändring 736

Förslag till förordning

Bilaga III – led 7 – led da (nytt)

Kommissionens förslag

Ändring

 

(da)

AI-system som är avsedda att användas av, eller på uppdrag av, behöriga myndigheter eller unionens byråer, kontor eller organ inom migration, asyl och gränskontroll för att övervaka eller behandla uppgifter i samband med gränsförvaltningsverksamhet i syfte att upptäcka, känna igen eller identifiera fysiska personer.

Ändring 737

Förslag till förordning

Bilaga III – led 7 – led db (nytt)

Kommissionens förslag

Ändring

 

(db)

AI-system som är avsedda att användas av, eller på uppdrag av, behöriga myndigheter eller av unionens byråer, kontor eller organ inom migration, asyl och gränskontroll för att prognostisera eller förutsäga trender i fråga om migration, förflyttning och gränspassage.

Ändring 738

Förslag till förordning

Bilaga III – led 8 – led a

Kommissionens förslag

Ändring

(a)

AI-system som är avsedda att hjälpa en rättslig myndighet att undersöka och tolka fakta och lagstiftning och att tillämpa lagen på konkreta fakta.

(a)

AI-system som är avsedda att användas av en rättslig myndighet eller ett administrativt organ eller på deras vägnar är avsedda att hjälpa en rättslig myndighet eller ett administrativt organ att undersöka och tolka fakta och lagstiftning och att tillämpa lagen på konkreta fakta eller som är avsedda att användas på ett likande sätt i alternativa tvistlösningar .

Ändring 739

Förslag till förordning

Bilaga III – led 8 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

AI-system som är avsedda att användas för att påverka resultatet av ett val eller en folkomröstning eller fysiska personers röstningsbeteende när dessa utövar sin rätt att rösta i val eller folkomröstningar. Detta omfattar inte AI-system vars utdata fysiska personer inte är direkt exponerade för, såsom verktyg som används för att organisera, optimera och strukturera politiska kampanjer ur administrativ och logistisk synvinkel.

Ändring 740

Förslag till förordning

Bilaga III – led 8 – led ab (nytt)

Kommissionens förslag

Ändring

 

(ab)

AI-system som är avsedda att användas av sociala medieplattformar som har betecknats som mycket stora onlineplattformar i den mening som avses i artikel 33 i förordning (EU) 2022/2065, i sina rekommendationssystem för att rekommendera mottagaren av tjänstens användargenererade innehåll som finns tillgängligt på plattformen.

Ändring 741

Förslag till förordning

Bilaga IV – led 1 – led a

Kommissionens förslag

Ändring

(a)

det avsedda syftet, den eller de personer som utvecklar systemet, datum för och version av systemet,

(a)

det avsedda syftet, namnet på leverantören och version av systemet, som återspeglar dess samband med tidigare och, i tillämpliga fall, nyare versioner till följd av revideringar ,

Ändring 742

Förslag till förordning

Bilaga IV – led 1 – led aa (nytt)

Kommissionens förslag

Ändring

 

(aa)

vilken typ av uppgifter som kan eller är avsedd att behandlas av systemet och, när det gäller personuppgifter, de kategorier av fysiska personer och grupper som kan beröras eller är avsedda att beröras,

Ändring 743

Förslag till förordning

Bilaga IV – led 1 – led b

Kommissionens förslag

Ändring

(b)

hur AI-systemet interagerar eller kan användas för att interagera med maskinvara eller programvara som inte ingår i själva AI-systemet, i tillämpliga fall,

(b)

hur AI-systemet kan interagera eller kan användas för att interagera med maskinvara eller programvara, inbegripet andra AI-system som inte ingår i själva AI-systemet, i tillämpliga fall,

Ändring 744

Förslag till förordning

Bilaga IV – led 1 – led c

Kommissionens förslag

Ändring

(c)

versioner av relevant programvara eller inbyggd programvara och eventuella krav med koppling till uppdateringen av versioner,

(c)

versioner av relevant programvara eller inbyggd programvara och , om så är lämpligt, upplysningar till användaren om eventuella krav med koppling till uppdateringen av versioner,

Ändring 745

Förslag till förordning

Bilaga IV – led 1 – led d

Kommissionens förslag

Ändring

(d)

en beskrivning av alla format i vilka AI-systemet släpps ut på marknaden eller tas i bruk,

(d)

en beskrivning av de olika konfigurationer och varianter av AI-systemet som är avsedda att släppas ut på marknaden eller tas i bruk,

Ändring 746

Förslag till förordning

Bilaga IV – led 1 – led fa (nytt)

Kommissionens förslag

Ändring

 

(fa)

beskrivning av användarens gränssnitt,

Ändring 747

Förslag till förordning

Bilaga IV – led 1 – led g

Kommissionens förslag

Ändring

(g)

bruksanvisning för användaren och, i tillämpliga fall, installationsinstruktioner.

(g)

bruksanvisning för användaren i enlighet med artikel 13.2 och 13.3 samt 14.4 e och, i tillämpliga fall, installationsinstruktioner.

Ändring 748

Förslag till förordning

Bilaga IV – led 1 – led ga (nytt)

Kommissionens förslag

Ändring

 

(ga)

en detaljerad och lättbegriplig beskrivning av systemets viktigaste optimeringsmål,

Ändring 749

Förslag till förordning

Bilaga IV – led 1 – led gb (nytt)

Kommissionens förslag

Ändring

 

(gb)

en detaljerad och lättbegriplig beskrivning av systemets förväntade utdata och förväntade utdatakvalitet,

Ändring 750

Förslag till förordning

Bilaga IV – led 1 – led gc (nytt)

Kommissionens förslag

Ändring

 

(gc)

detaljerade och lättbegripliga instruktioner för tolkning av systemets utdata,

Ändring 751

Förslag till förordning

Bilaga IV – led 1 – led gd (nytt)

Kommissionens förslag

Ändring

 

(gd)

exempel på scenarier som systemet inte bör användas för.

Ändring 752

Förslag till förordning

Bilaga IV – led 2 – led b

Kommissionens förslag

Ändring

(b)

systemets konstruktionsspecifikationer , dvs. AI-systemets och algoritmernas allmänna logik , de viktigaste konstruktionsvalen, bl.a. den logiska grunden och de antaganden som gjorts, även med avseende på de personer eller grupper av personer som systemet är avsett att användas för; de viktigaste klassificeringsvalen; vad systemet har utformats för att optimera och de olika parametrarnas relevans; de beslut om eventuella avvägningar mellan de tekniska lösningarna som valts för att uppfylla kraven i avdelning III kapitel 2,

(b)

en beskrivning av arkitekturen, konstruktionsspecifikationerna, algoritmerna och datastrukturerna, inbegripet en uppdelning av dess komponenter och gränssnitt, hur de förhåller sig till varandra och hur de tillhandahåller den övergripande behandlingen eller logiken i AI-systemet; de viktigaste konstruktionsvalen, bl.a. den logiska grunden och de antaganden som gjorts, även med avseende på de personer eller grupper av personer som systemet är avsett att användas för; de viktigaste klassificeringsvalen; vad systemet har utformats för att optimera och de olika parametrarnas relevans; de beslut om eventuella avvägningar mellan de tekniska lösningarna som valts för att uppfylla kraven i avdelning III kapitel 2,

Ändring 753

Förslag till förordning

Bilaga IV – led 2 – led c

Kommissionens förslag

Ändring

(c)

en beskrivning av systemarkitekturen som förklarar hur programvarukomponenter bygger på eller matas in i varandra och integreras i den övergripande behandlingen, de dataresurser som används för att utveckla, träna, testa och validera AI-systemet,

(c)

utgår

Ändring 754

Förslag till förordning

Bilaga IV – led 2 – led e

Kommissionens förslag

Ändring

(e)

en bedömning av de åtgärder för mänsklig tillsyn som krävs i enlighet med artikel 14, inbegripet en bedömning av de tekniska åtgärder som krävs för att underlätta användarnas tolkning av AI-systemens resultat, i enlighet med artikel 13.3 d,

(e)

en bedömning av de åtgärder för mänsklig tillsyn som krävs i enlighet med artikel 14, inbegripet en bedömning av de tekniska åtgärder som krävs för att underlätta användarnas tolkning av AI-systemens resultat, i enlighet med artikel 13.3 d,

Ändring 755

Förslag till förordning

Bilaga IV – led 2 – led g

Kommissionens förslag

Ändring

(g)

de validerings- och testförfaranden som används, inklusive information om de validerings- och testdata som har använts och deras huvudsakliga egenskaper; mått som används för att mäta noggrannhet, robusthet, cybersäkerhet och överensstämmelse med andra relevanta krav som anges i avdelning III kapitel 2 samt potentiellt diskriminerande effekter; testloggar och alla testrapporter, daterade och undertecknade av de ansvariga personerna, även med avseende på de förutbestämda ändringar som avses i led f.

(g)

de validerings- och testförfaranden som används, inklusive information om de validerings- och testdata som har använts och deras huvudsakliga egenskaper; Mått som används för att mäta noggrannhet, robusthet och överensstämmelse med andra relevanta krav som anges i avdelning III kapitel 2 samt potentiellt diskriminerande effekter; testloggar och alla testrapporter, daterade och undertecknade av de ansvariga personerna, även med avseende på de förutbestämda ändringar som avses i led f.

Ändring 756

Förslag till förordning

Bilaga IV – led 2 – led ga (nytt)

Kommissionens förslag

Ändring

 

(ga)

de cybersäkerhetsåtgärder som vidtagits,

Ändring 757

Förslag till förordning

Bilaga IV – led 3

Kommissionens förslag

Ändring

3.

Detaljerade uppgifter om övervakning, drift och kontroll av AI-systemet, särskilt med avseende på dess kapacitet och prestandabegränsningar, inbegripet graden av noggrannhet för specifika personer eller grupper av personer som systemet är avsett att användas för och den övergripande förväntade noggrannhetsnivån i förhållande till det avsedda ändamålet; förutsebara oavsiktliga resultat och källor till risker för hälsa och säkerhet, grundläggande rättigheter och diskriminering med tanke på AI-systemets avsedda syfte; de åtgärder för mänsklig tillsyn som krävs i enlighet med artikel 14, inbegripet de tekniska åtgärder som har vidtagits för att underlätta användarnas tolkning av AI-systemens resultat; specifikationer av indata, beroende på vad som är lämpligt.

3.

Detaljerade uppgifter om övervakning, drift och kontroll av AI-systemet, särskilt med avseende på dess kapacitet och prestandabegränsningar, inbegripet graden av noggrannhet för specifika personer eller grupper av personer som systemet är avsett att användas för och den övergripande förväntade noggrannhetsnivån i förhållande till det avsedda ändamålet; förutsebara oavsiktliga resultat och källor till risker för hälsa och säkerhet, grundläggande rättigheter och diskriminering med tanke på AI-systemets avsedda syfte; de åtgärder för mänsklig tillsyn som krävs i enlighet med artikel 14, inbegripet de tekniska åtgärder som har vidtagits för att underlätta användarnas tolkning av AI-systemens resultat; specifikationer av indata, beroende på vad som är lämpligt.

Ändring 758

Förslag till förordning

Bilaga IV – led 3a (nytt)

Kommissionens förslag

Ändring

 

3a.

En beskrivning av lämpligheten hos resultatmåtten för det specifika AI-systemet.

Ändring 759

Förslag till förordning

Bilaga IV – led 3b (nytt)

Kommissionens förslag

Ändring

 

3b.

Information om AI-systemets energiförbrukning under utvecklingsfasen och den förväntade energiförbrukningen under användning, om så är lämpligt, med beaktande av relevant unionsrätt och nationell rätt.

Ändring 760

Förslag till förordning

Bilaga IV – led 5

Kommissionens förslag

Ändring

5.

En beskrivning av eventuella ändringar som görs av systemet under dess livscykel.

5.

En beskrivning av de relevanta ändringar som leverantörer gör av systemet under dess livscykel .

Ändring 761

Förslag till förordning

Bilaga IV – led 6

Kommissionens förslag

Ändring

6.

En förteckning över de harmoniserade standarder som helt eller delvis tillämpas och som det hänvisas till i Europeiska unionens officiella tidning; om inga sådana harmoniserade standarder har tillämpats, en utförlig beskrivning av de lösningar som har antagits för att uppfylla kraven i avdelning III kapitel 2, inklusive en förteckning över andra relevanta standarder och tekniska specifikationer som har tillämpats.

6.

En förteckning över de harmoniserade standarder som helt eller delvis tillämpas och som det hänvisas till i Europeiska unionens officiella tidning; om inga sådana harmoniserade standarder har tillämpats, en utförlig beskrivning av de lösningar som har antagits för att uppfylla kraven i avdelning III kapitel 2, inklusive en förteckning över andra relevanta standarder eller gemensamma specifikationer som har tillämpats.

Ändring 762

Förslag till förordning

Bilaga V – led 4a (nytt)

Kommissionens förslag

Ändring

 

4a.

För AI-system som inbegriper behandling av personuppgifter, en förklaring om att AI-systemen i fråga uppfyller kraven i förordningarna (EU) 2016/679 och (EU) 2018/1725 och direktiv (EU) 2016/680.

Ändring 763

Förslag till förordning

Bilaga V – led 7

Kommissionens förslag

Ändring

7.

Ort och datum för utfärdande av försäkran, namn på och befattning för den person som undertecknade den, uppgift om på vems vägnar personen undertecknade försäkran samt namnteckning.

7.

Ort och datum för utfärdande av försäkran , underskrift , namn på och befattning för den person som undertecknade den, uppgift om på vems vägnar personen undertecknade försäkran samt namnteckning.

Ändring 764

Förslag till förordning

Bilaga VII – led 4.5

Kommissionens förslag

Ändring

4.5.

Om det är nödvändigt för att bedöma om AI-systemet med hög risk uppfyller kraven i avdelning III kapitel 2 och på motiverad begäran ska det anmälda organet också beviljas tillgång till AI-systemets källkod .

4.5.

Om det är nödvändigt för att bedöma om AI-systemet med hög risk uppfyller kraven i avdelning III kapitel 2 ska det anmälda organet, efter det att alla andra rimliga sätt att kontrollera överensstämmelse har uttömts och har visat sig vara sig vara otillräckliga, och på motiverad begäran också beviljas tillgång till AI-systemets träningsmodeller och intränade modeller, inbegripet dess relevanta parametrar . Sådan åtkomst ska omfattas av befintlig unionslagstiftning om skyddet av immateriella rättigheter och företagshemligheter. De ska vidta tekniska och organisatoriska åtgärder för att säkerställa skyddet av immateriella rättigheter och företagshemligheter.

Ändring 765

Förslag till förordning

Bilaga VIII – stycke 1

Kommissionens förslag

Ändring

Följande uppgifter ska lämnas och därefter hållas uppdaterade för de AI-system med hög risk som ska registreras i enlighet med artikel 51.

Avsnitt A – Följande uppgifter ska lämnas och därefter hållas uppdaterade för de AI-system med hög risk som ska registreras i enlighet med artikel 51.1 .

Ändring 766

Förslag till förordning

Bilaga VIII – led 4a (nytt)

Kommissionens förslag

Ändring

 

4a.

Grundmodellens handelsnamn och eventuella ytterligare entydiga hänvisningar som gör identifikation och spårbarhet möjlig.

Ändring 767

Förslag till förordning

Bilaga VIII – led 5

Kommissionens förslag

Ändring

5.

Beskrivning av AI-systemets avsedda syfte.

5.

En enkel och begriplig beskrivning av

 

a.

det avsedda ändamålet med AI-systemet,

 

b.

de komponenter och funktioner som stöds av AI,

 

c.

en grundläggande förklaring av AI-systemets logik.

Ändring 768

Förslag till förordning

Bilaga VIII – led 5a (nytt)

Kommissionens förslag

Ändring

 

5a.

I tillämpliga fall, kategorierna och typen av de uppgifter som sannolikt eller rimligen kommer att behandlas av AI-systemet.

Ändring 769

Förslag till förordning

Bilaga VIII – led 11

Kommissionens förslag

Ändring

11.

Elektroniska bruksanvisningar. Dessa uppgifter ska inte lämnas för AI-system med hög risk inom områdena brottsbekämpning och migration, asyl och gränskontrollförvaltning enligt punkterna 1, 6 och 7 i bilaga III.

utgår

Ändring 770

Förslag till förordning

Bilaga VIII – avsnitt B (nytt)

Kommissionens förslag

Ändring

 

Avsnitt B – Följande uppgifter ska lämnas och därefter hållas uppdaterade för de AI-system med hög risk som ska registreras i enlighet med artikel 51.1a a och 51.1b.

 

1.

Användarens namn, adress och kontaktuppgifter.

 

2.

Namn, adress och kontaktuppgifter för den person som lämnar uppgifter på användarens vägnar.

 

3.

Handelsnamn för AI-systemet och eventuella ytterligare entydiga hänvisningar som gör det möjligt att identifiera och spåra det AI-system som används.

 

4.

a. En enkel och begriplig beskrivning av AI-systemets avsedda användning, inbegripet de specifika resultat som eftersträvas genom användningen av systemet samt det geografiska och tidsmässiga tillämpningsområdet.

 

b.

I tillämpliga fall, kategorierna och typen av de uppgifter som kommer att behandlas av AI-systemet.

 

c.

Arrangemang för mänsklig tillsyn och förvaltning.

 

d.

I tillämpliga fall, de organ eller fysiska personer som ansvarar för beslut som fattas eller stöds av AI-systemet.

 

5.

En sammanfattning av resultaten av den konsekvensbedömning avseende de grundläggande rättigheterna som genomförts i enlighet med artikel 29a.

 

6.

Webbadressen för införandet av AI-systemet i EU-databasen av dess leverantör.

 

7.

En sammanfattning av den konsekvensbedömning avseende dataskydd som genomförts i enlighet med artikel 35 i förordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680, såsom anges i artikel 29.6 i denna förordning, om så är lämpligt.

Ändring 771

Förslag till förordning

Bilaga VIII – avsnitt C (nytt)

Kommissionens förslag

Ändring

 

Avsnitt C – Följande uppgifter ska lämnas och därefter hållas uppdaterade för de grundmodeller som ska registreras i enlighet med artikel 28 be.

 

1.

Leverantörens namn, adress och kontaktuppgifter.

 

2.

Om uppgifterna lämnas av en annan person för leverantörens räkning, dennes namn, adress och kontaktuppgifter.

 

3.

Ombudets namn, adress och kontaktuppgifter, i förekommande fall.

 

4.

Handelsnamn och eventuella ytterligare entydiga hänvisningar som gör det möjligt att identifiera grundmodellen.

 

5.

Beskrivning av de datakällor som används vid utvecklingen av den grundläggande modellen.

 

6.

Beskrivning av grundmodellens kapacitet och begränsningar, inbegripet de rimligen förutsebara riskerna och de åtgärder som har vidtagits för att minska dem samt kvarstående icke-minskade risker med en förklaring till varför de inte kan minskas.

 

7.

Beskrivning av de utbildningsresurser som används av grundmodellen, inbegripet den datorkapacitet som krävs, utbildningstid och annan relevant information om storlek och kraft för modell 8. Beskrivning av modellens resultat, inbegripet offentliga riktmärken eller branschriktmärkena avseende teknikens ståndpunkt.

 

8.

Beskrivning av resultaten av relevant intern och extern provning och optimering av modellen.

 

9.

Medlemsstater där grundmodellen släpps ut eller har släppts ut på marknaden, tagits i bruk eller gjorts tillgänglig i unionen.

 

10.

Webbadress för ytterligare information (valfritt).

(1)  Ärendet återförvisades för interinstitutionella förhandlingar till det ansvariga utskottet, i enlighet med artikel 59.4 fjärde stycket i arbetsordningen (A9-0188/2023).

(33)  Europeiska rådet, extra möte i Europeiska rådet (den 1 och 2 oktober 2020) – Slutsatser, EUCO 13/20, 2020, s. 6.

(34)  Europaparlamentets resolution av den 20 oktober 2020 med rekommendationer till kommissionen om en ram för etiska aspekter av artificiell intelligens, robotteknik och tillhörande teknik (2020/2012(INL)).

(33)  Europeiska rådet, extra möte i Europeiska rådet (den 1 och 2 oktober 2020) – Slutsatser, EUCO 13/20, 2020, s. 6.

(34)  Europaparlamentets resolution av den 20 oktober 2020 med rekommendationer till kommissionen om en ram för etiska aspekter av artificiell intelligens, robotteknik och tillhörande teknik (2020/2012(INL)).

(35)  Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1).

(36)   Europaparlamentets och rådets förordning (EU) 2018/1725 av den 23 oktober 2018 om skydd för fysiska personer med avseende på behandling av personuppgifter som utförs av unionens institutioner, organ och byråer och om det fria flödet av sådana uppgifter samt om upphävande av förordning (EG) nr 45/2001 och beslut nr 1247/2002/EG (EUT L 295, 21.11.2018, s. 39).

(37)   37 Europaparlamentets och rådets direktiv (EU) 2016/680 av den 27 april 2016 om skydd för fysiska personer med avseende på behöriga myndigheters behandling av personuppgifter för att förebygga, förhindra, utreda, avslöja eller lagföra brott eller verkställa straffrättsliga påföljder, och det fria flödet av sådana uppgifter och om upphävande av rådets rambeslut 2008/977/RIF (direktivet om brottsbekämpning) (EUT L 119, 4.5.2016, s. 89).

(35)  Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1).

(38)   Rådets rambeslut 2002/584/RIF av den 13 juni 2002 om en europeisk arresteringsorder och överlämnande mellan medlemsstaterna (EGT L 190, 18.7.2002, s. 1).

(39)  Europaparlamentets och rådets förordning (EG) nr 300/2008 av den 11 mars 2008 om gemensamma skyddsregler för den civila luftfarten och om upphävande av förordning (EG) nr 2320/2002 (EUT L 97, 9.4.2008, s. 72).

(40)  Europaparlamentets och rådets förordning (EU) nr 167/2013 av den 5 februari 2013 om godkännande och marknadstillsyn av jordbruks- och skogsbruksfordon (EUT L 60, 2.3.2013, s. 1).

(41)  Europaparlamentets och rådets förordning (EU) nr 168/2013 av den 15 januari 2013 om godkännande av och marknadstillsyn för två- och trehjuliga fordon och fyrhjulingar (EUT L 60, 2.3.2013, s. 52).

(42)  Europaparlamentets och rådets direktiv 2014/90/EU av den 23 juli 2014 om marin utrustning och om upphävande av rådets direktiv 96/98/EG (EUT L 257, 28.8.2014, s. 146).

(43)  Europaparlamentets och rådets direktiv (EU) 2016/797 av den 11 maj 2016 om driftskompatibiliteten hos järnvägssystemet inom Europeiska unionen (EUT L 138, 26.5.2016, s. 44).

(44)  Europaparlamentets och rådets förordning (EU) 2018/858 av den 30 maj 2018 om godkännande av och marknadskontroll över motorfordon och släpfordon till dessa fordon samt av system, komponenter och separata tekniska enheter som är avsedda för sådana fordon, om ändring av förordningarna (EG) nr 715/2007 och (EG) nr 595/2009 samt om upphävande av direktiv 2007/46/EG (EUT L 151, 14.6.2018, s. 1).

(45)  Europaparlamentets och rådets förordning (EU) 2018/1139 av den 4 juli 2018 om fastställande av gemensamma bestämmelser på det civila luftfartsområdet och inrättande av Europeiska unionens byrå för luftfartssäkerhet, och om ändring av Europaparlamentets och rådets förordningar (EG) nr 2111/2005, (EG) nr 1008/2008, (EU) nr 996/2010, (EU) nr 376/2014 och direktiv 2014/30/EU och 2014/53/EU, samt om upphävande av Europaparlamentets och rådets förordningar (EG) nr 552/2004 och (EG) nr 216/2008 och rådets förordning (EEG) nr 3922/91, (EUT L 212, 22.8.2018, s. 1).

(46)  Europaparlamentets och rådets förordning (EU) 2019/2144 av den 27 november 2019 om krav för typgodkännande av motorfordon och deras släpvagnar samt de system, komponenter och separata tekniska enheter som är avsedda för sådana fordon, med avseende på deras allmänna säkerhet och skydd för personer i fordonet och oskyddade trafikanter, om ändring av Europaparlamentets och rådets förordning (EU) 2018/858 och om upphävande av Europaparlamentets och rådets förordningar (EG) nr 78/2009, (EG) nr 79/2009 och (EG) nr 661/2009 samt kommissionens förordningar (EG) nr 631/2009, (EU) nr 406/2010, (EU) nr 672/2010, (EU) nr 1003/2010, (EU) nr 1005/2010, (EU) nr 1008/2010, (EU) nr 1009/2010, (EU) nr 19/2011, (EU) nr 109/2011, (EU) nr 458/2011, (EU) nr 65/2012, (EU) nr 130/2012, (EU) nr 347/2012, (EU) nr 351/2012, (EU) nr 1230/2012 och (EU) 2015/166 (EUT L 325, 16.12.2019, s. 1).

(39)  Europaparlamentets och rådets förordning (EG) nr 300/2008 av den 11 mars 2008 om gemensamma skyddsregler för den civila luftfarten och om upphävande av förordning (EG) nr 2320/2002 (EUT L 97, 9.4.2008, s. 72).

(40)  Europaparlamentets och rådets förordning (EU) nr 167/2013 av den 5 februari 2013 om godkännande och marknadstillsyn av jordbruks- och skogsbruksfordon (EUT L 60, 2.3.2013, s. 1).

(41)  Europaparlamentets och rådets förordning (EU) nr 168/2013 av den 15 januari 2013 om godkännande av och marknadstillsyn för två- och trehjuliga fordon och fyrhjulingar (EUT L 60, 2.3.2013, s. 52).

(42)  Europaparlamentets och rådets direktiv 2014/90/EU av den 23 juli 2014 om marin utrustning och om upphävande av rådets direktiv 96/98/EG (EUT L 257, 28.8.2014, s. 146).

(43)  Europaparlamentets och rådets direktiv (EU) 2016/797 av den 11 maj 2016 om driftskompatibiliteten hos järnvägssystemet inom Europeiska unionen (EUT L 138, 26.5.2016, s. 44).

(44)  Europaparlamentets och rådets förordning (EU) 2018/858 av den 30 maj 2018 om godkännande av och marknadskontroll över motorfordon och släpfordon till dessa fordon samt av system, komponenter och separata tekniska enheter som är avsedda för sådana fordon, om ändring av förordningarna (EG) nr 715/2007 och (EG) nr 595/2009 samt om upphävande av direktiv 2007/46/EG (EUT L 151, 14.6.2018, s. 1).

(45)  Europaparlamentets och rådets förordning (EU) 2018/1139 av den 4 juli 2018 om fastställande av gemensamma bestämmelser på det civila luftfartsområdet och inrättande av Europeiska unionens byrå för luftfartssäkerhet, och om ändring av Europaparlamentets och rådets förordningar (EG) nr 2111/2005, (EG) nr 1008/2008, (EU) nr 996/2010, (EU) nr 376/2014 och direktiv 2014/30/EU och 2014/53/EU, samt om upphävande av Europaparlamentets och rådets förordningar (EG) nr 552/2004 och (EG) nr 216/2008 och rådets förordning (EEG) nr 3922/91, (EUT L 212, 22.8.2018, s. 1).

(46)  Europaparlamentets och rådets förordning (EU) 2019/2144 av den 27 november 2019 om krav för typgodkännande av motorfordon och deras släpvagnar samt de system, komponenter och separata tekniska enheter som är avsedda för sådana fordon, med avseende på deras allmänna säkerhet och skydd för personer i fordonet och oskyddade trafikanter, om ändring av Europaparlamentets och rådets förordning (EU) 2018/858 och om upphävande av Europaparlamentets och rådets förordningar (EG) nr 78/2009, (EG) nr 79/2009 och (EG) nr 661/2009 samt kommissionens förordningar (EG) nr 631/2009, (EU) nr 406/2010, (EU) nr 672/2010, (EU) nr 1003/2010, (EU) nr 1005/2010, (EU) nr 1008/2010, (EU) nr 1009/2010, (EU) nr 19/2011, (EU) nr 109/2011, (EU) nr 458/2011, (EU) nr 65/2012, (EU) nr 130/2012, (EU) nr 347/2012, (EU) nr 351/2012, (EU) nr 1230/2012 och (EU) 2015/166 (EUT L 325, 16.12.2019, s. 1).

(47)  Europaparlamentets och rådets förordning (EU) 2017/745 av den 5 april 2017 om medicintekniska produkter, om ändring av direktiv 2001/83/EG, förordning (EG) nr 178/2002 och förordning (EG) nr 1223/2009 och om upphävande av rådets direktiv 90/385/EEG och 93/42/EEG (EUT L 117, 5.5.2017, s. 1).

(48)  Europaparlamentets och rådets förordning (EU) 2017/746 av den 5 april 2017 om medicintekniska produkter för in vitro-diagnostik och om upphävande av direktiv 98/79/EG och kommissionens beslut 2010/227/EU (EUT L 117, 5.5.2017, s. 176).

(47)  Europaparlamentets och rådets förordning (EU) 2017/745 av den 5 april 2017 om medicintekniska produkter, om ändring av direktiv 2001/83/EG, förordning (EG) nr 178/2002 och förordning (EG) nr 1223/2009 och om upphävande av rådets direktiv 90/385/EEG och 93/42/EEG (EUT L 117, 5.5.2017, s. 1).

(48)  Europaparlamentets och rådets förordning (EU) 2017/746 av den 5 april 2017 om medicintekniska produkter för in vitro-diagnostik och om upphävande av direktiv 98/79/EG och kommissionens beslut 2010/227/EU (EUT L 117, 5.5.2017, s. 176).

(49)  Europaparlamentets och rådets direktiv 2013/32/EU av den 26 juni 2013 om gemensamma förfaranden för att bevilja och återkalla internationellt skydd (EUT L 180, 29.6.2013, s. 60).

(50)  Europaparlamentets och rådets förordning (EG) nr 810/2009 av den 13 juli 2009 om införande av en gemenskapskodex om viseringar (viseringskodex) (EUT L 243, 15.9.2009, s. 1).

(49)  Europaparlamentets och rådets direktiv 2013/32/EU av den 26 juni 2013 om gemensamma förfaranden för att bevilja och återkalla internationellt skydd (EUT L 180, 29.6.2013, s. 60).

(50)  Europaparlamentets och rådets förordning (EG) nr 810/2009 av den 13 juli 2009 om införande av en gemenskapskodex om viseringar (viseringskodex) (EUT L 243, 15.9.2009, s. 1).

(54)  Europaparlamentets och rådets förordning (EU) nr 1025/2012 av den 25 oktober 2012 om europeisk standardisering och om ändring av rådets direktiv 89/686/EEG och 93/15/EEG samt av Europaparlamentets och rådets direktiv 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG och 2009/105/EG samt om upphävande av rådets beslut 87/95/EEG och Europaparlamentets och rådets beslut nr 1673/2006/EG (EUT L 316, 14.11.2012, s. 12).

(54)  Europaparlamentets och rådets förordning (EU) nr 1025/2012 av den 25 oktober 2012 om europeisk standardisering och om ändring av rådets direktiv 89/686/EEG och 93/15/EEG samt av Europaparlamentets och rådets direktiv 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG och 2009/105/EG samt om upphävande av rådets beslut 87/95/EEG och Europaparlamentets och rådets beslut nr 1673/2006/EG (EUT L 316, 14.11.2012, s. 12).

(55)  Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1).

(55)  Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1).

(56)  Europaparlamentets och rådets direktiv 2013/36/EU av den 26 juni 2013 om behörighet att utöva verksamhet i kreditinstitut och om tillsyn av kreditinstitut och värdepappersföretag, om ändring av direktiv 2002/87/EG och om upphävande av direktiv 2006/48/EG och 2006/49/EG (EUT L 176, 27.6.2013, s. 338).

(56)  Europaparlamentets och rådets direktiv 2013/36/EU av den 26 juni 2013 om behörighet att utöva verksamhet i kreditinstitut och om tillsyn av kreditinstitut och värdepappersföretag, om ändring av direktiv 2002/87/EG och om upphävande av direktiv 2006/48/EG och 2006/49/EG (EUT L 176, 27.6.2013, s. 338).

(57)  Europaparlamentets och rådets direktiv 2001/95/EG av den 3 december 2001 om allmän produktsäkerhet (EGT L 11, 15.1.2002, s. 4).

(57)  Europaparlamentets och rådets direktiv 2001/95/EG av den 3 december 2001 om allmän produktsäkerhet (EGT L 11, 15.1.2002, s. 4).

(58)   EUT L 123, 12.5.2016, s. 1.

(58)   EUT L 123, 12.5.2016, s. 1.

(61)   Kommissionens rekommendation av den 6 maj 2003 om definitionen av mikroföretag samt små och medelstora företag (EUT L 124, 20.5.2003, s. 36).

(62)   Rådets rambeslut 2002/584/RIF av den 13 juni 2002 om en europeisk arresteringsorder och överlämnande mellan medlemsstaterna (EGT L 190, 18.7.2002, s. 1).

(1a)   Europaparlamentets och rådets direktiv (EU) 2020/1828 av den 25 november 2020 om grupptalan för att skydda konsumenters kollektiva intressen och om upphävande av direktiv 2009/22/EG (EUT L 409, 4.12.2020, s. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-1061 (electronic edition)


Top