EUR-Lex L'accès au droit de l'Union européenne

Retour vers la page d'accueil d'EUR-Lex

Ce document est extrait du site web EUR-Lex

Document 52023AP0236

Amendementen van het Europees Parlement aangenomen op 14 juni 2023 op het voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD))

PB C, C/2024/506, 23.1.2024, ELI: http://data.europa.eu/eli/C/2024/506/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

ELI: http://data.europa.eu/eli/C/2024/506/oj

European flag

Publicatieblad
van de Europese Unie

NL

Serie C


C/2024/506

23.1.2024

P9_TA(2023)0236

De wet op de artificiële intelligentie

Amendementen van het Europees Parlement aangenomen op 14 juni 2023 op het voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD)) (1)

(Gewone wetgevingsprocedure: eerste lezing)

(C/2024/506)

Amendement 1

Voorstel voor een verordening

Visum 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Gezien het advies van de Europese Centrale Bank,

Amendement 2

Voorstel voor een verordening

Visum 4 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Gezien het gezamenlijke advies van het Europees Comité voor gegevensbescherming en de Europese Toezichthouder voor gegevensbescherming,

Amendement 3

Voorstel voor een verordening

Overweging 1

Door de Commissie voorgestelde tekst

Amendement

(1)

Deze verordening heeft ten doel de werking van de interne markt te verbeteren door een uniform rechtskader vast te stellen, met name voor de ontwikkeling, het in de handel brengen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie. Deze verordening streeft een aantal dwingende redenen van algemeen belang na , zoals een hoog niveau van bescherming van de gezondheid, de veiligheid en de grondrechten , en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan.

(1)

Deze verordening heeft ten doel de introductie van mensgerichte en betrouwbare artificiële intelligentie te bevorderen en te zorgen voor een hoge mate van bescherming tegen de schadelijke effecten van artificiële-intelligentiesystemen (AI-systemen) op het vlak van gezondheid, veiligheid, grondrechten, democratie en de rechtsstaat en het milieu in de Unie, en voorts innovatie te ondersteunen en de werking van de interne markt te verbeteren. In deze verordening wordt een uniform rechtskader vastgesteld , met name voor de ontwikkeling, het in de handel brengen , het in gebruik stellen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie, en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan. Bepaalde AI-systemen kunnen ook gevolgen hebben voor de democratie, de rechtsstaat en het milieu. Deze punten van zorg worden specifiek behandeld in de kritieke sectoren en gebruiksgevallen die zijn opgenomen in de bijlagen bij deze verordening.

Amendement 4

Voorstel voor een verordening

Overweging 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(1 bis)

Deze verordening moet de waarden van de Unie in stand houden door de verdeling van de voordelen van artificiële intelligentie over de samenleving mogelijk te maken, personen, bedrijven, de democratie en de rechtstaat en het milieu te beschermen tegen risico’s, innovatie en werkgelegenheid te stimuleren en de Unie tot pionier op dit terrein te maken.

Amendement 5

Voorstel voor een verordening

Overweging 2

Door de Commissie voorgestelde tekst

Amendement

(2)

Artificiële-intelligentiesystemen (AI-systemen) kunnen makkelijk worden ingezet in meerdere sectoren van de economie en de samenleving, ook grensoverschrijdend, en in de gehele Unie circuleren. Bepaalde lidstaten hebben reeds overwogen om nationale regels vast te stellen om ervoor te zorgen dat artificiële intelligentie veilig is en wordt ontwikkeld en gebruikt met inachtneming van de verplichtingen inzake de grondrechten. Onderling afwijkende nationale regels kunnen leiden tot versnippering van de interne markt en aantasting van de rechtszekerheid voor marktdeelnemers die AI-systemen ontwikkelen of gebruiken. Daarom moet in de hele Unie een consistent en hoog beschermingsniveau worden gewaarborgd, terwijl verschillen die het vrije verkeer van AI-systemen en aanverwante producten en diensten op de interne markt belemmeren, moeten worden voorkomen door uniforme verplichtingen voor marktdeelnemers vast te stellen en op de hele interne markt een eenvormige eerbiediging van dwingende redenen van algemeen belang en van de rechten van personen te waarborgen op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU). Voor zover deze verordening specifieke regels bevat inzake de bescherming van natuurlijke personen met betrekking tot de verwerking van persoonsgegevens, met beperkingen op het gebruik van AI-systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, is het passend om deze verordening, voor zover het die specifieke regels betreft, te baseren op artikel 16 van het VWEU. In het licht van deze specifieke regels en het gebruik van artikel 16 VWEU is het aangewezen het Europees Comité voor gegevensbescherming te raadplegen.

(2)

AI-systemen kunnen makkelijk worden ingezet in meerdere sectoren van de economie en de samenleving, ook grensoverschrijdend, en in de gehele Unie circuleren. Bepaalde lidstaten hebben reeds overwogen om nationale regels vast te stellen om ervoor te zorgen dat artificiële intelligentie betrouwbaar en veilig is en wordt ontwikkeld en gebruikt met inachtneming van de verplichtingen inzake de grondrechten. Onderling afwijkende nationale regels kunnen leiden tot versnippering van de interne markt en aantasting van de rechtszekerheid voor marktdeelnemers die AI-systemen ontwikkelen of gebruiken. Daarom moet in de hele Unie een consistent en hoog beschermingsniveau worden gewaarborgd zodat AI betrouwbaar is , terwijl verschillen die het vrije verkeer , de innovatie, de inzet en de ingebruikneming van AI-systemen en aanverwante producten en diensten op de interne markt belemmeren, moeten worden voorkomen door uniforme verplichtingen voor marktdeelnemers vast te stellen en op de hele interne markt een eenvormige eerbiediging van dwingende redenen van algemeen belang en van de rechten van personen te waarborgen op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU).

Amendement 6

Voorstel voor een verordening

Overweging 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 bis)

Aangezien artificiële intelligentie vaak afhankelijk is van de verwerking van grote hoeveelheden gegevens, waarbij veel AI-systemen en -applicaties afhankelijk zijn van de verwerking van persoonsgegevens, is het aangewezen deze verordening te baseren op artikel 16 van het VWEU, waarin het recht van natuurlijke personen op de bescherming van persoonsgegevens is vastgelegd en waarin wordt voorzien in de vaststelling van regels inzake de bescherming van het individu met betrekking tot de verwerking van persoonsgegevens.

Amendement 7

Voorstel voor een verordening

Overweging 2 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 ter)

Het grondrecht van de bescherming van persoonsgegevens wordt in het bijzonder gewaarborgd door de Verordeningen (EU) 2016/679 en (EU) 2018/1725, en door Richtlijn 2016/680. Richtlijn 2002/58/EG beschermt daarnaast de persoonlijke levenssfeer en het vertrouwelijke karakter van communicatie, en bevat voorschriften voor de opslag van persoons- en niet-persoonsgebonden gegevens in eindapparatuur, respectievelijk de toegang daartoe. Deze rechtshandelingen vormen de grondslag voor duurzame en verantwoorde gegevensverwerking, waaronder in gevallen waarin datareeksen zowel persoons- als niet-persoonsgebonden gegevens bevatten. Deze verordening laat de toepassing van de bestaande Uniewetgeving betreffende de verwerking van persoonsgegevens, met inbegrip van de taken en bevoegdheden van de onafhankelijke toezichthoudende autoriteiten die met het toezicht op de naleving van die instrumenten belast zijn, onverlet. Deze verordening laat de grondrechten inzake de persoonlijke levenssfeer en de bescherming van persoonsgegevens als bedoeld in de Uniewetgeving betreffende gegevensbescherming en privacy, en zoals vastgelegd in het Handvest van de grondrechten van de Europese Unie (het “Handvest”), onverlet.

Amendement 8

Voorstel voor een verordening

Overweging 2 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 quater)

AI-systemen in de Unie zijn onderworpen aan relevante wetgeving inzake productveiligheid die een kader biedt ter bescherming van consumenten tegen gevaarlijke producten in het algemeen, en die wetgeving moet van toepassing blijven. Deze verordening doet evenmin afbreuk aan de regels inzake consumentenbescherming en productveiligheid die in andere rechtshandelingen van de Unie zijn vastgelegd, waaronder Verordening (EU) 2017/2394, Verordening (EU) 2019/1020, Richtlijn 2001/95/EG inzake algemene productveiligheid en Richtlijn 2013/11/EU.

Amendement 9

Voorstel voor een verordening

Overweging 2 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 quinquies)

Overeenkomstig artikel 114, lid 2, VWEU mag deze verordening de rechten en belangen van werknemers niet ondermijnen, maar vormt zij hierop een aanvulling. Deze verordening mag derhalve geen afbreuk doen aan het Unierecht inzake sociaal beleid en het nationale arbeidsrecht en de nationale arbeidspraktijken, dat wil zeggen alle wettelijke en contractuele bepalingen betreffende arbeidsvoorwaarden, arbeidsomstandigheden, met inbegrip van de gezondheid en veiligheid op het werk, en de betrekkingen tussen werkgevers en werknemers, met inbegrip van voorlichting, raadpleging en inspraak. Deze verordening mag geen afbreuk doen aan de uitoefening van de in de lidstaten en op het niveau van de Unie erkende grondrechten, met inbegrip van het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de specifieke stelsels van arbeidsverhoudingen in de lidstaten andere acties te voeren overeenkomstig het nationaal recht en/of de nationale praktijk. Zij mag evenmin afbreuk doen aan overlegpraktijken, het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, en om collectieve actie te voeren overeenkomstig het nationale recht en/of de nationale praktijk. Deze verordening mag de Commissie in geen geval beletten specifieke wetgeving voor te stellen inzake de rechten en vrijheden van werknemers die gevolgen ondervinden van AI-systemen.

Amendement 10

Voorstel voor een verordening

Overweging 2 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 sexies)

Deze verordening mag geen afbreuk doen aan de in Richtlijn … [2021/0414(COD)] vastgestelde bepalingen ter verbetering van de arbeidsvoorwaarden voor platformwerk.

Amendement 11

Voorstel voor een verordening

Overweging 2 septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(2 septies)

Deze verordening moet bijdragen tot de ondersteuning van onderzoek en innovatie, mag onderzoeks- en ontwikkelingsactiviteiten niet ondermijnen en moet de vrijheid van wetenschappelijk onderzoek eerbiedigen. AI-systemen die specifiek zijn ontwikkeld met onderzoek en ontwikkeling voor de wetenschap als enig doel, moeten daarom van het toepassingsgebied worden uitgesloten en er moet voor worden gezorgd dat de verordening geen andere gevolgen heeft voor wetenschappelijke onderzoeks- en ontwikkelingsactiviteiten op het vlak van AI-systemen. Bij alle onderzoeks- en ontwikkelingsactiviteiten moeten onder alle omstandigheden het Handvest, het recht van de Unie en het nationale recht in acht worden genomen.

Amendement 12

Voorstel voor een verordening

Overweging 3

Door de Commissie voorgestelde tekst

Amendement

(3)

Artificiële intelligentie is een snel evoluerende verzameling van technologieën die kan bijdragen aan een brede waaier van economische en maatschappelijke voordelen in alle industrieën en sociale activiteiten. Artificiële intelligentie kan bedrijven, dankzij verbeterde voorspellingen, geoptimaliseerde verrichtingen en toewijzing van middelen en gepersonaliseerde digitale oplossingen voor individuen en organisaties een belangrijk concurrentievoordeel opleveren en helpen om gunstige sociale en ecologische resultaten te behalen, bijvoorbeeld in de gezondheidszorg, de landbouw, onderwijs en opleiding, infrastructuurbeheer, energie, vervoer en logistiek, openbare diensten, veiligheid, justitie, efficiënt gebruik van hulpbronnen en energie, en klimaatmitigatie en -adaptatie.

(3)

Artificiële intelligentie is een snel evoluerende verzameling van technologieën die reeds bijdraagt aan een brede waaier van economische , ecologische en maatschappelijke voordelen in alle industrieën en sociale activiteiten , indien deze worden ontwikkeld met inachtneming van relevante algemene beginselen in overeenstemming met het Handvest en de waarden waarop de Unie is gegrondvest . Artificiële intelligentie kan bedrijven, dankzij verbeterde voorspellingen, geoptimaliseerde verrichtingen en toewijzing van middelen en gepersonaliseerde digitale oplossingen voor individuen en organisaties een belangrijk concurrentievoordeel opleveren en helpen om gunstige sociale en ecologische resultaten te behalen, bijvoorbeeld in de gezondheidszorg, de landbouw, voedselveiligheid, onderwijs en opleiding, media, sport, cultuur, infrastructuurbeheer, energie, vervoer en logistiek , crisisbeheer , openbare diensten, veiligheid, justitie, efficiënt gebruik van hulpbronnen en energie, milieumonitoring, behoud en herstel van biodiversiteit en ecosystemen en klimaatmitigatie en -adaptatie.

Amendement 13

Voorstel voor een verordening

Overweging 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(3 bis)

In het kader van de streefdoelen inzake koolstofneutraliteit moeten Europese ondernemingen inspanningen leveren om alle beschikbare technologische ontwikkelingen te benutten die kunnen helpen om die doelen te halen. Artificiële intelligentie is een technologie met het potentieel om te worden gebruikt bij de verwerking van de alsmaar groeiende hoeveelheid gegevens die voortkomen uit industriële, milieu-, gezondheids- en andere processen. Om investeringen in AI-gebaseerde instrumenten voor analyse en optimalisering te bevorderen, moet deze verordening voorzien in voorspelbare en evenredige omstandigheden voor industriële oplossingen met een laag risico.

Amendement 14

Voorstel voor een verordening

Overweging 4

Door de Commissie voorgestelde tekst

Amendement

(4)

Tegelijkertijd kan artificiële intelligentie, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, risico’s opleveren en schade toebrengen aan de openbare belangen en rechten die door de Uniewetgeving worden beschermd. Deze schade kan materieel of immaterieel zijn.

(4)

Tegelijkertijd kan artificiële intelligentie, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, alsook van de mate van technologische ontwikkeling, risico’s opleveren en schade toebrengen aan openbare of particuliere belangen en grondrechten van natuurlijke personen die door de Uniewetgeving worden beschermd. Deze schade kan materieel of immaterieel zijn , met inbegrip van lichamelijke, psychische, maatschappelijke of economische schade .

Amendement 15

Voorstel voor een verordening

Overweging 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(4 bis)

Gezien het feit dat artificiële intelligentie van grote invloed op de samenleving kan zijn en aangezien het dus nodig is dat men vertrouwen heeft in artificiële intelligentie, is het essentieel dat artificiële intelligentie en het regelgevingskader voor artificiële intelligentie worden ontwikkeld met inachtneming van de waarden van de Unie zoals vastgelegd in artikel 2 VEU, de grondrechten en vrijheden zoals vastgelegd in de Verdragen, het Handvest, en het internationaal recht inzake mensenrechten. Voorop staat dat artificiële intelligentie een mensgerichte technologie moet zijn. Artificiële intelligentie mag de menselijke autonomie niet verdringen en niet leiden tot een afname van individuele vrijheid, en moet in eerste instantie de behoeften van de maatschappij en het algemeen belang dienen. Er moeten garanties worden geboden betreffende de ontwikkeling en het gebruik van ethisch verankerde artificiële intelligentie die de waarden van de Unie en het Handvest respecteert.

Amendement 16

Voorstel voor een verordening

Overweging 5

Door de Commissie voorgestelde tekst

Amendement

(5)

Om de ontwikkeling, het gebruik en de introductie van artificiële intelligentie op de interne markt te bevorderen is daarom een rechtskader van de Unie nodig met geharmoniseerde regels inzake artificiële intelligentie, dat tegelijkertijd de openbare belangen in hoge mate beschermt, bijvoorbeeld op het gebied van gezondheid en veiligheid en de bescherming van de grondrechten, zoals die worden erkend en beschermd door de Uniewetgeving. Om dat doel te bereiken, moeten regels worden vastgesteld voor het in de handel brengen en de inbedrijfstelling van bepaalde AI-systemen, zodat de goede werking van de interne markt wordt gewaarborgd en deze systemen kunnen genieten van het beginsel van vrij verkeer van goederen en diensten. Door die regels vast te stellen, steunt deze verordening de doelstelling van de Unie om wereldwijd een voortrekkersrol te spelen bij de ontwikkeling van veilige, betrouwbare en ethische artificiële intelligentie, zoals verklaard door de Europese Raad (33), en de bescherming van ethische beginselen te waarborgen, zoals specifiek gevraagd door het Europees Parlement (34).

(5)

Om de ontwikkeling, het gebruik en de introductie van artificiële intelligentie op de interne markt te bevorderen is daarom een rechtskader van de Unie nodig met geharmoniseerde regels inzake artificiële intelligentie, dat tegelijkertijd de openbare belangen in hoge mate beschermt, bijvoorbeeld op het gebied van gezondheid en veiligheid, bescherming van de grondrechten, de democratie en de rechtstaat en het milieu, zoals die worden erkend en beschermd door de Uniewetgeving. Om dat doel te bereiken, moeten regels worden vastgesteld voor het in de handel brengen, de inbedrijfstelling en het gebruik van bepaalde AI-systemen, zodat de goede werking van de interne markt wordt gewaarborgd en deze systemen kunnen genieten van het beginsel van vrij verkeer van goederen en diensten. Deze regels moeten duidelijk en robuust zijn voor wat betreft de bescherming van de grondrechten, en daarnaast pro-innovatie zijn en een Europees ecosysteem mogelijk maken van publieke en particuliere actoren die AI-systemen creëren die in overeenstemming zijn met de waarden van de Unie. Door die regels alsook maatregelen ter ondersteuning van innovatie met bijzondere nadruk op kmo’s en start-ups vast te stellen, steunt deze verordening de doelstelling van de Unie om in Europa ontwikkelde AI te bevorderen, om wereldwijd een voortrekkersrol te spelen bij de ontwikkeling van veilige, betrouwbare en ethische artificiële intelligentie, zoals verklaard door de Europese Raad (33), en de bescherming van ethische beginselen te waarborgen, zoals specifiek gevraagd door het Europees Parlement (34).

Amendement 17

Voorstel voor een verordening

Overweging 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(5 bis)

Voorts moet de Unie, om de ontwikkeling van AI-systemen te bevorderen die de waarden van de Unie in acht nemen, de voornaamste onvervulde behoeften en obstakels die het potentieel van de digitale transformatie in de weg staan aanpakken, waaronder het tekort aan werknemers met digitale vaardigheden, punten van zorg wat betreft cyberbeveiliging, onvoldoende (toegang tot) investeringen en de bestaande en potentiële kloof tussen grote ondernemingen, kmo’s en startende ondernemingen. Er moet met name op worden toegezien dat alle regio’s van de Unie de vruchten plukken van AI en innovatie in nieuwe technologieën en dat voldoende investeringen en middelen worden verstrekt, met name aan de regio’s die een achterstand hebben op het vlak van bepaalde digitale indicatoren.

Amendement 18

Voorstel voor een verordening

Overweging 6

Door de Commissie voorgestelde tekst

Amendement

(6)

Het begrip “AI-systeem” moet duidelijk worden gedefinieerd om rechtszekerheid te garanderen en tegelijkertijd de nodige flexibiliteit te bieden om op toekomstige technologische ontwikkelingen te kunnen inspelen. De definitie moet gebaseerd zijn op de belangrijkste functionele kenmerken van de software , met name het vermogen om, voor een bepaalde reeks door de mens gedefinieerde doelstellingen, een output te genereren zoals inhoud , voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee het systeem in wisselwerking staat, zowel in een fysieke als een digitale dimensie. AI-systemen kunnen zodanig worden ontworpen dat zij in verschillende mate autonoom kunnen functioneren en als zelfstandig onderdeel of als component van een product kunnen worden gebruikt, ongeacht of het systeem fysiek in het product is geïntegreerd (ingebed) dan wel ten dienste staat van de functionaliteit van het product zonder daarin te zijn geïntegreerd (niet-ingebed). De definitie van AI-systeem moet worden aangevuld met een lijst van specifieke technieken en benaderingen voor de ontwikkeling ervan , die in het licht van de technologische en marktontwikkelingen moet worden bijgewerkt door middel van gedelegeerde handelingen van de Commissie tot wijziging van die lijst .

(6)

Het begrip “AI-systeem” in deze verordening moet duidelijk worden gedefinieerd en nauw aansluiten op het werk van internationale organisaties die zich bezighouden met artificiële intelligentie, om rechtszekerheid , harmonisatie en brede acceptatie te garanderen en tegelijkertijd de nodige flexibiliteit te bieden om op de snelle technologische ontwikkelingen in dit veld te kunnen inspelen. Bovendien moet de definitie gebaseerd zijn op centrale kenmerken van artificiële intelligentie , zoals het vermogen om te leren , redeneren en modelleren, zodat het onderscheid tussen artificiële intelligentie en eenvoudiger softwaresystemen of programmeermethodes helder is. AI-systemen worden zodanig ontworpen dat zij in verschillende mate autonoom kunnen functioneren , wat betekent dat zij ten minste een zekere mate van onafhankelijkheid van menselijke controle bezitten en zonder menselijke tussenkomst kunnen functioneren. De term “machinaal” verwijst naar het feit dat AI-systemen op machines draaien. De verwijzing naar expliciete of impliciete doelstellingen onderstreept dat AI-systemen kunnen functioneren volgens expliciete, door de mens gedefinieerde doelstellingen, of volgens impliciete doelstellingen. De mogelijkheid bestaat dat de doelstellingen van het AI-systeem verschillen van het beoogde doel van het AI-systeem in een specifieke context. Met de verwijzing naar voorspellingen wordt onder meer inhoud bedoeld, die in deze verordening wordt beschouwd als een vorm van voorspelling in de zin van een van de mogelijke outputs van een AI-systeem. Voor de toepassing van deze verordening moeten omgevingen worden opgevat als de contexten waarin de AI-systemen functioneren , terwijl door het AI-systeem gegenereerde outputs, in de zin van voorspellingen, aanbevelingen of besluiten, beantwoorden aan de doelstellingen van het systeem, op basis van input uit die omgeving. Die output is weer van invloed op bovengenoemde omgeving, alleen al doordat nieuwe informatie aan die omgeving wordt toegevoegd.

Amendement 19

Voorstel voor een verordening

Overweging 6 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(6 bis)

AI-systemen beschikken vaak over de mogelijkheid tot machinaal leren, hetgeen deze systemen in staat stelt zich autonoom aan nieuwe taken aan te passen en deze uit te voeren. Machinaal leren verwijst naar het rekenkundige proces waarbij de parameters van een model op basis van gegevens worden geoptimaliseerd; een wiskundige constructie die een output genereert op basis van inputgegevens. Voorbeelden van benaderingen voor machinaal leren zijn gecontroleerd, ongecontroleerd en versterkend leren, waarbij gebruik wordt gemaakt van diverse methoden, waaronder deep learning met behulp van neurale netwerken. Deze verordening is gericht op het aanpakken van nieuwe potentiële risico’s die kunnen ontstaan doordat controle wordt overgedragen aan AI-systemen, met name aan AI-systemen die na hun ingebruikname kunnen evolueren. De functie en output van veel van deze AI-systemen zijn gebaseerd op abstracte wiskundige relaties die voor mensen moeilijk zijn te begrijpen, monitoren en terug te herleiden naar specifieke input. Deze complexiteit en ondoorzichtigheid zijn kenmerken (“black box”-elementen) die gevolgen hebben voor de verantwoording en de verklaarbaarheid. Ook het gebruik van vergelijkbare, maar eenvoudiger technieken zoals op kennis gebaseerde benaderingen, Bayesiaanse schatting of beslisbomen kan op juridische vraagstukken stuiten die in deze verordening behandeld moeten worden, met name bij gebruik in combinatie met machinaal leren in de context van hybride systemen.

Amendement 20

Voorstel voor een verordening

Overweging 6 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(6 ter)

AI-systemen kunnen als een zelfstandig softwaresysteem worden gebruikt, in een fysiek product worden geïntegreerd (ingebed), worden gebruikt om ten dienste te staan van de functionaliteit van een fysiek product zonder daarin te zijn geïntegreerd (niet-ingebed) of worden gebruikt als AI-component van een groter systeem. Als dit grotere systeem niet zou functioneren zonder de AI-component in kwestie, moet in het kader van deze verordening het grotere systeem in zijn geheel als één enkel AI-systeem worden beschouwd.

Amendement 21

Voorstel voor een verordening

Overweging 7

Door de Commissie voorgestelde tekst

Amendement

(7)

Het in deze verordening gebruikte begrip “biometrische gegevens” sluit aan bij en moet worden uitgelegd in overeenstemming met het begrip biometrische gegevens zoals gedefinieerd in artikel 4, lid 14, van Verordening (EU) 2016/679 van het Europees Parlement en de Raad (35) , artikel 3, lid 18 , van Verordening (EU) 2018/1725 van het Europees Parlement en de Raad  (36) en artikel 3, lid 13, van Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad  (37) .

(7)

Het in deze verordening gebruikte begrip “biometrische gegevens” sluit aan bij en moet worden uitgelegd in overeenstemming met het begrip biometrische gegevens zoals gedefinieerd in artikel 4, lid 14, van Verordening (EU) 2016/679 van het Europees Parlement en de Raad (35) . Op biometrie gebaseerde gegevens zijn gegevens die het resultaat zijn van specifieke technische verwerking in verband met fysieke, fysiologische of gedragssignalen van een natuurlijke persoon, zoals gezichtsuitdrukkingen, bewegingen, polsfrequentie, stem, toetsaanslagen of gang, die al dan niet de unieke identificatie van een natuurlijke persoon mogelijk maken of bevestigen .

Amendement 22

Voorstel voor een verordening

Overweging 7 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(7 bis)

Het in deze verordening gebruikte begrip “biometrische identificatie” moet worden gedefinieerd als de automatische herkenning van fysieke, fysiologische, gedragsmatige en psychologische menselijke kenmerken zoals het gezicht, oogbewegingen, gezichtsuitdrukkingen, lichaamsvorm, stem, spraak, gang, houding, hartslag, bloeddruk, geur, toetsaanslagen, psychologische reacties (woede, angst, verdriet, enz.) met als doel de identiteit van een persoon vast te stellen door biometrische gegevens van die persoon te vergelijken met opgeslagen biometrische gegevens van personen in een database (één -op-vele-identificatie), ongeacht of die persoon hier al dan niet mee heeft ingestemd.

Amendement 23

Voorstel voor een verordening

Overweging 7 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(7 ter)

Het in deze verordening gebruikte begrip “biometrische categorisering” moet worden gedefinieerd als het indelen van natuurlijke personen in specifieke categorieën, of het afleiden van hun kenmerken en eigenschappen zoals gender, geslacht, leeftijd, haarkleur, oogkleur, tatoeages, etnische of sociale afkomst, gezondheid, mentaal of fysiek vermogen, gedrags- of persoonlijkheidskenmerken, taal, godsdienst of lidmaatschap van een nationale minderheid, seksuele gerichtheid of politieke overtuiging, op basis van hun biometrische of op biometrie gebaseerde gegevens, of wat van dergelijke gegevens kan worden afgeleid.

Amendement 24

Voorstel voor een verordening

Overweging 8

Door de Commissie voorgestelde tekst

Amendement

(8)

Het in deze verordening gebruikte begrip “biometrisch systeem voor identificatie op afstand” moet functioneel worden gedefinieerd als een AI-systeem dat bedoeld is voor de identificatie van natuurlijke personen op afstand door middel van vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens in een referentiedatabank, zonder dat vooraf bekend is of de betrokken persoon aanwezig zal zijn en kan worden geïdentificeerd, ongeacht de gebruikte specifieke technologie, processen of soorten biometrische gegevens. Gezien hun verschillende kenmerken en de verschillende manieren waarop zij worden gebruikt, alsook de verschillende risico’s die ermee gepaard gaan, moet een onderscheid worden gemaakt tussen biometrische systemen voor identificatie op afstand “in real time” en “achteraf”. In het geval van realtimesystemen gebeurt de registratie van de biometrische gegevens, de vergelijking en de identificatie allemaal ogenblikkelijk, bijna ogenblikkelijk of in ieder geval zonder noemenswaardige vertraging. In dit verband mag er geen ruimte zijn om de regels van deze verordening betreffende het realtimegebruik van de AI-systemen in kwestie te omzeilen door kleine vertragingen toe te staan. Bij realtimesystemen wordt gebruik gemaakt van “live”- of “near live”-materiaal, zoals videobeelden, die worden gegenereerd door een camera of een ander toestel met soortgelijke functionaliteit. In het geval van systemen “achteraf” zijn de biometrische gegevens daarentegen reeds vastgelegd en vinden de vergelijking en de identificatie pas met een aanzienlijke vertraging plaats. Het gaat dan om materiaal, zoals foto’s of videobeelden gegenereerd door camera’s van een gesloten televisiecircuit of privétoestellen, dat vóór het gebruik van het systeem is gegenereerd met betrekking tot de betrokken natuurlijke personen.

(8)

Het in deze verordening gebruikte begrip “biometrisch systeem voor identificatie op afstand” moet functioneel worden gedefinieerd als een AI-systeem dat bedoeld is voor de identificatie van natuurlijke personen op afstand door middel van vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens in een referentiedatabank, zonder dat vooraf bekend is of de betrokken persoon aanwezig zal zijn en kan worden geïdentificeerd, ongeacht de gebruikte specifieke technologie, processen of soorten biometrische gegevens , uitgezonderd verificatiesystemen die slechts de biometrische gegevens van een persoon vergelijken met reeds verstrekte biometrische gegevens van die persoon (één-op-één). Gezien hun verschillende kenmerken en de verschillende manieren waarop zij worden gebruikt, alsook de verschillende risico’s die ermee gepaard gaan, moet een onderscheid worden gemaakt tussen biometrische systemen voor identificatie op afstand “in real time” en “achteraf”. In het geval van realtimesystemen gebeurt de registratie van de biometrische gegevens, de vergelijking en de identificatie allemaal ogenblikkelijk, bijna ogenblikkelijk of in ieder geval zonder noemenswaardige vertraging. In dit verband mag er geen ruimte zijn om de regels van deze verordening betreffende het realtimegebruik van de AI-systemen in kwestie te omzeilen door kleine vertragingen toe te staan. Bij realtimesystemen wordt gebruik gemaakt van “live”- of “near live”-materiaal, zoals videobeelden, die worden gegenereerd door een camera of een ander toestel met soortgelijke functionaliteit. In het geval van systemen “achteraf” zijn de biometrische gegevens daarentegen reeds vastgelegd en vinden de vergelijking en de identificatie pas met een aanzienlijke vertraging plaats. Het gaat dan om materiaal, zoals foto’s of videobeelden gegenereerd door camera’s van een gesloten televisiecircuit of privétoestellen, dat vóór het gebruik van het systeem is gegenereerd met betrekking tot de betrokken natuurlijke personen. Aangezien het begrip “biometrische identificatie” onafhankelijk is van de instemming van de persoon, is deze definitie zelfs van toepassing wanneer waarschuwingsberichten zijn geplaatst op de locatie die onder toezicht staat van het biometrische systeem voor identificatie op afstand, en wordt zij niet de facto door inschrijving vooraf opgeheven.

Amendement 25

Voorstel voor een verordening

Overweging 8 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(8 bis)

De identificatie van natuurlijke personen op afstand wordt geacht een onderscheid te maken tussen biometrische systemen voor identificatie op afstand en individuele verificatiesystemen in de onmiddellijke nabijheid met behulp van biometrische identificatiemiddelen, met als enig doel te bevestigen of een specifieke natuurlijke persoon die zich voor identificatie meldt, al dan niet is toegestaan, bijvoorbeeld om toegang te krijgen tot een dienst, een apparaat of een bedrijfsruimte.

Amendement 26

Voorstel voor een verordening

Overweging 9

Door de Commissie voorgestelde tekst

Amendement

(9)

Voor de uitvoering van deze verordening wordt verstaan onder “openbare ruimte” elke fysieke plaats die toegankelijk is voor het publiek, ongeacht of de plaats in kwestie particulier of openbaar bezit is. Het begrip heeft derhalve geen betrekking op plaatsen die privé van aard zijn en normaliter niet vrij toegankelijk zijn voor derden, met inbegrip van de rechtshandhavingsautoriteiten, tenzij die partijen specifiek zijn uitgenodigd of gemachtigd, zoals woningen, privéclubs, kantoren, pakhuizen en fabrieken. Onlineruimten vallen evenmin onder de richtlijn, omdat het geen fysieke ruimten zijn. Louter het feit dat er voor de toegang tot een bepaalde ruimte bepaalde voorwaarden kunnen gelden, zoals een toegangsbewijs of leeftijdsbeperking, betekent echter niet dat de ruimte niet voor het publiek toegankelijk is in de zin van deze verordening. Bijgevolg zijn, naast openbare ruimten zoals straten, relevante delen van overheidsgebouwen en de meeste vervoersinfrastructuur, ook ruimten zoals bioscopen, theaters, winkels en winkelcentra normaliter voor het publiek toegankelijk. Of een bepaalde ruimte toegankelijk is voor het publiek moet echter per geval worden bepaald, rekening houdend met de specifieke kenmerken van de situatie in kwestie.

(9)

Voor de uitvoering van deze verordening wordt verstaan onder “openbare ruimte” elke fysieke plaats die toegankelijk is voor het publiek, ongeacht of de plaats in kwestie particulier of openbaar bezit is en ongeacht de potentieel aanwezige beperkingen op de capaciteit . Het begrip heeft derhalve geen betrekking op plaatsen die privé van aard zijn en normaliter niet vrij toegankelijk zijn voor derden, met inbegrip van de rechtshandhavingsautoriteiten, tenzij die partijen specifiek zijn uitgenodigd of gemachtigd, zoals woningen, privéclubs, kantoren, pakhuizen en fabrieken. Onlineruimten vallen evenmin onder de richtlijn, omdat het geen fysieke ruimten zijn. Louter het feit dat er voor de toegang tot een bepaalde ruimte bepaalde voorwaarden kunnen gelden, zoals een toegangsbewijs of leeftijdsbeperking, betekent echter niet dat de ruimte niet voor het publiek toegankelijk is in de zin van deze verordening. Bijgevolg zijn, naast openbare ruimten zoals straten, relevante delen van overheidsgebouwen en de meeste vervoersinfrastructuur, ook ruimten zoals bioscopen, theaters, sportterreinen, scholen, universiteiten, relevante delen van ziekenhuizen en banken, pretparken, festivals, winkels en winkelcentra normaliter voor het publiek toegankelijk. Of een bepaalde ruimte toegankelijk is voor het publiek moet echter per geval worden bepaald, rekening houdend met de specifieke kenmerken van de situatie in kwestie.

Amendement 27

Voorstel voor een verordening

Overweging 9 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(9 bis)

Het is belangrijk op te merken dat AI-systemen er zoveel mogelijk naar moeten streven te voldoen aan de algemene beginselen die een kader op hoog niveau vormen ter bevordering van een coherente, mensgerichte benadering van ethische en betrouwbare AI, in overeenstemming met het Handvest van de grondrechten van de Europese Unie en de waarden waarop de Unie is gegrondvest, waaronder de bescherming van de grondrechten, invloed en toezicht door mensen, technische robuustheid en veiligheid, privacy en databeheer, transparantie, non-discriminatie en billijkheid en maatschappelijk en ecologisch welzijn.

Amendement 28

Voorstel voor een verordening

Overweging 9 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(9 ter)

“AI-geletterdheid” heeft betrekking op vaardigheden, kennis en begrip die aanbieders, gebruikers en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen met kennis van zaken AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken, hetgeen de democratische controle op AI ten goede zal komen. AI-geletterdheid mag niet beperkt blijven tot leren over hulpmiddelen en technologieën, maar moet er ook op gericht zijn aanbieders en gebruikers toe te rusten met het begrippenkader en de vaardigheden die vereist zijn met het oog op de naleving en handhaving van deze verordening. De Commissie, de lidstaten en de aanbieders en gebruikers van AI-systemen moeten daarom in samenwerking met alle relevante belanghebbenden de ontwikkeling van een toereikend niveau van AI-geletterdheid in alle sectoren van de samenleving bevorderen — voor mensen van alle leeftijden, dus ook voor vrouwen en meisjes — en de vooruitgang op dat gebied nauwlettend in het oog houden.

Amendement 29

Voorstel voor een verordening

Overweging 10

Door de Commissie voorgestelde tekst

Amendement

(10)

Om een gelijk speelveld en een doeltreffende bescherming van de rechten en vrijheden van personen in heel de Unie te garanderen, moeten de bij deze verordening vastgestelde regels zonder discriminatie van toepassing zijn op aanbieders van AI-systemen, ongeacht of zij in de Unie of in een derde land gevestigd zijn, en op in de Unie gevestigde gebruikers van AI-systemen.

(10)

Om een gelijk speelveld en een doeltreffende bescherming van de rechten en vrijheden van personen in heel de Unie en op internationaal niveau te garanderen, moeten de bij deze verordening vastgestelde regels zonder discriminatie van toepassing zijn op aanbieders van AI-systemen, ongeacht of zij in de Unie of in een derde land gevestigd zijn, en op in de Unie gevestigde exploitanten van AI-systemen. Om ervoor te zorgen dat de Unie trouw is aan haar fundamentele waarden, moeten AI-systemen die bedoeld zijn om te worden gebruikt voor praktijken die bij deze verordening onaanvaardbaar worden geacht, ook buiten de Unie onaanvaardbaar worden geacht vanwege hun bijzonder schadelijke effect op de in het Handvest verankerde grondrechten. Daarom is het passend de uitvoer van dergelijke AI-systemen naar derde landen door aanbieders die in de Unie zijn gevestigd, te verbieden.

Amendement 30

Voorstel voor een verordening

Overweging 11

Door de Commissie voorgestelde tekst

Amendement

(11)

Gezien hun digitale aard moeten bepaalde AI-systemen onder het toepassingsgebied van deze verordening vallen, zelfs wanneer zij niet in de Unie in de handel worden gebracht, in bedrijf worden gesteld of worden gebruikt. Dit is bijvoorbeeld het geval voor een in de Unie gevestigde marktdeelnemer die aan een buiten de Unie gevestigde marktdeelnemer bepaalde diensten uitbesteedt in verband met een activiteit die moet worden verricht door een AI-systeem dat als een AI-systeem met een hoog risico zou kunnen worden aangemerkt en waarvan de gevolgen merkbaar zouden zijn voor in de Unie gevestigde natuurlijke personen. In die omstandigheden zou het AI-systeem dat door de marktdeelnemer buiten de Unie wordt gebruikt, data kunnen verwerken die rechtmatig in de Unie zijn verzameld en vanuit de Unie zijn doorgegeven, en vervolgens de aanbestedende marktdeelnemer in de Unie kunnen voorzien van de output van dat AI-systeem die het resultaat is van die verwerking, zonder dat genoemd AI-systeem in de Unie in de handel wordt gebracht, in bedrijf wordt gesteld of wordt gebruikt. Om te voorkomen dat deze verordening wordt omzeild en om natuurlijke personen die zich in de Unie bevinden doeltreffend te beschermen, moet deze verordening ook van toepassing zijn op aanbieders en gebruikers van AI-systemen die in een derde land zijn gevestigd, voor zover de door die systemen geproduceerde output in de Unie wordt gebruikt. Om rekening te houden met bestaande regelingen en bijzondere behoeften inzake samenwerking met buitenlandse partners waarmee informatie en bewijsmateriaal wordt uitgewisseld, zal deze verordening evenwel niet van toepassing zijn op overheidsinstanties van een derde land en internationale organisaties wanneer zij optreden in het kader van internationale overeenkomsten die op nationaal of Europees niveau zijn gesloten met het oog op de rechtshandhaving en justitiële samenwerking met de Unie of haar lidstaten. Dergelijke overeenkomsten zijn bilateraal gesloten tussen lidstaten en derde landen of tussen de Europese Unie, Europol en andere EU-agentschappen enerzijds en derde landen en internationale organisaties anderzijds.

(11)

Gezien hun digitale aard moeten bepaalde AI-systemen onder het toepassingsgebied van deze verordening vallen, zelfs wanneer zij niet in de Unie in de handel worden gebracht, in bedrijf worden gesteld of worden gebruikt. Dit is bijvoorbeeld het geval voor een in de Unie gevestigde marktdeelnemer die aan een buiten de Unie gevestigde marktdeelnemer bepaalde diensten uitbesteedt in verband met een activiteit die moet worden verricht door een AI-systeem dat als een AI-systeem met een hoog risico zou kunnen worden aangemerkt en waarvan de gevolgen merkbaar zouden zijn voor in de Unie gevestigde natuurlijke personen. In die omstandigheden zou het AI-systeem dat door de marktdeelnemer buiten de Unie wordt gebruikt, data kunnen verwerken die rechtmatig in de Unie zijn verzameld en vanuit de Unie zijn doorgegeven, en vervolgens de aanbestedende marktdeelnemer in de Unie kunnen voorzien van de output van dat AI-systeem die het resultaat is van die verwerking, zonder dat genoemd AI-systeem in de Unie in de handel wordt gebracht, in bedrijf wordt gesteld of wordt gebruikt. Om te voorkomen dat deze verordening wordt omzeild en om natuurlijke personen die zich in de Unie bevinden doeltreffend te beschermen, moet deze verordening ook van toepassing zijn op aanbieders en exploitanten van AI-systemen die in een derde land zijn gevestigd, voor zover de door die systemen geproduceerde output bestemd is om in de Unie te worden gebruikt. Om rekening te houden met bestaande regelingen en bijzondere behoeften inzake samenwerking met buitenlandse partners waarmee informatie en bewijsmateriaal wordt uitgewisseld, zal deze verordening evenwel niet van toepassing zijn op overheidsinstanties van een derde land en internationale organisaties wanneer zij optreden in het kader van internationale overeenkomsten die op nationaal of Europees niveau zijn gesloten met het oog op de rechtshandhaving en justitiële samenwerking met de Unie of haar lidstaten. Dergelijke overeenkomsten zijn bilateraal gesloten tussen lidstaten en derde landen of tussen de Europese Unie, Europol en andere EU-agentschappen enerzijds en derde landen en internationale organisaties anderzijds. Deze uitzondering moet echter beperkt blijven tot betrouwbare landen en internationale organisaties met waarden die gelijk zijn aan die van de Unie.

Amendement 31

Voorstel voor een verordening

Overweging 12

Door de Commissie voorgestelde tekst

Amendement

(12)

Deze verordening moet ook van toepassing zijn op instellingen, organen en agentschappen van de Unie wanneer zij optreden als aanbieder of gebruiker van een AI-systeem. AI-systemen die uitsluitend voor militaire doeleinden worden ontwikkeld of gebruikt, moeten van het toepassingsgebied van deze verordening worden uitgesloten wanneer dat gebruik onder de exclusieve bevoegdheid valt van het gemeenschappelijk buitenlands en veiligheidsbeleid, zoals geregeld in titel V van het Verdrag betreffende de Europese Unie (VEU). Deze verordening doet geen afbreuk aan de bepalingen betreffende de aansprakelijkheid van aanbieders die als tussenpersoon optreden, vastgesteld in Richtlijn 2000/31/EG van het Europees Parlement en de Raad [zoals gewijzigd bij de wet inzake digitale diensten].

(12)

Deze verordening moet ook van toepassing zijn op instellingen, organen en agentschappen van de Unie wanneer zij optreden als aanbieder of exploitant van een AI-systeem. AI-systemen die uitsluitend voor militaire doeleinden worden ontwikkeld of gebruikt, moeten van het toepassingsgebied van deze verordening worden uitgesloten wanneer dat gebruik onder de exclusieve bevoegdheid valt van het gemeenschappelijk buitenlands en veiligheidsbeleid, zoals geregeld in titel V van het Verdrag betreffende de Europese Unie (VEU). Deze verordening doet geen afbreuk aan de bepalingen betreffende de aansprakelijkheid van aanbieders die als tussenpersoon optreden, vastgesteld in Richtlijn 2000/31/EG van het Europees Parlement en de Raad [zoals gewijzigd bij de wet inzake digitale diensten].

Amendement 32

Voorstel voor een verordening

Overweging 12 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(12 bis)

Software en gegevens die openlijk worden gedeeld en die gebruikers vrij mogen raadplegen, gebruiken, wijzigen en herdistribueren en waarvan zij gewijzigde versies mogen herdistribueren, kunnen bijdragen aan onderzoek en innovatie op de markt. Uit onderzoek van de Commissie blijkt tevens dat vrije en opensourcesoftware 65 à 95 miljard EUR kan bijdragen aan het bbp van de Europese Unie en aanzienlijke groeikansen kan bieden voor de Europese economie. Gebruikers mogen software en gegevens, met inbegrip van modellen, uitvoeren, kopiëren, distribueren, bestuderen, wijzigen en verbeteren in het kader van vrije en opensourcelicenties. Met het oog op het bevorderen van de ontwikkeling en uitrol van AI, met name door kmo’s, start-ups, academisch onderzoekers maar ook door personen, moet deze verordening niet van toepassing zijn op dergelijke vrije en opensource-AI-componenten, behalve voor zover zij in de handel worden gebracht of in gebruik worden gesteld door een aanbieder als onderdeel van een AI-systeem met een hoog risico of van een AI-systeem dat onder titel II of titel IV van deze verordening valt.

Amendement 33

Voorstel voor een verordening

Overweging 12 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(12 ter)

Noch de gezamenlijke ontwikkeling van vrije en opensource-AI-componenten, noch het beschikbaar stellen van dergelijke componenten in open databases moet worden beschouwd als het in de handel brengen of in gebruik stellen van een product. Een handelsactiviteit in de zin van het in de handel brengen kan echter, behalve wanneer de transactie plaatsvindt tussen twee micro-ondernemingen, worden gekenmerkt door het in rekening brengen van een prijs voor een vrije en opensource-AI-component, maar ook door het in rekening brengen van een prijs voor technische ondersteuningsdiensten, het aanbieden van een softwareplatform waarmee de aanbieder andere diensten te gelde maakt, of het gebruik van persoonsgegevens voor andere redenen dan uitsluitend de verbetering van de beveiliging, compatibiliteit of interoperabiliteit van de software.

Amendement 34

Voorstel voor een verordening

Overweging 12 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(12 quater)

De ontwikkelaars van vrije en opensource-AI-componenten mogen uit hoofde van deze verordening niet worden verplicht te voldoen aan vereisten die gericht zijn op de AI-waardeketen en vooral niet op de aanbieder die die vrije en opensource-AI-component heeft gebruikt. Ontwikkelaars van vrije en opensource-AI-componenten moeten echter worden aangemoedigd om algemeen aanvaarde documentatiepraktijken, zoals model- en gegevenskaarten, toe te passen als een manier om de uitwisseling van informatie in de hele AI-waardeketen te versnellen, in het kader van de bevordering van betrouwbare AI-systemen in de Unie.

Amendement 35

Voorstel voor een verordening

Overweging 13

Door de Commissie voorgestelde tekst

Amendement

(13)

Teneinde een consistent en hoog niveau van bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten te garanderen, moeten gemeenschappelijke normen voor alle AI-systemen met een hoog risico worden vastgesteld. Deze normen moeten in overeenstemming zijn met het Handvest van de grondrechten van de Europese Unie (het Handvest) , niet-discriminerend zijn en in overeenstemming zijn met de internationale handelsverbintenissen van de Unie.

(13)

Teneinde een consistent en hoog niveau van bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten alsook democratie en de rechtstaat en het milieu te garanderen, moeten gemeenschappelijke normen voor alle AI-systemen met een hoog risico worden vastgesteld. Deze normen moeten in overeenstemming zijn met het Handvest , de Europese Green Deal, de gemeenschappelijke verklaring over digitale rechten van de Unie en de ethische richtsnoeren voor betrouwbare AI van de deskundigengroep op hoog niveau inzake AI , niet-discriminerend zijn en in overeenstemming zijn met de internationale handelsverbintenissen van de Unie.

Amendement 36

Voorstel voor een verordening

Overweging 14

Door de Commissie voorgestelde tekst

Amendement

(14)

Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, moet een duidelijk omschreven, risicogebaseerde aanpak worden gevolgd. Met die aanpak moet de aard en inhoud van dergelijke regels worden afgestemd op de intensiteit en de omvang van de risico’s die AI-systemen met zich mee kunnen brengen. Daarom is het noodzakelijk om bepaalde praktijken op het gebied van artificiële intelligentie te verbieden, eisen voor AI-systemen met een hoog risico en verplichtingen voor de betrokken marktdeelnemers vast te stellen, en transparantieverplichtingen voor bepaalde AI-systemen in te voeren.

(14)

Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, moet een duidelijk omschreven, risicogebaseerde aanpak worden gevolgd. Met die aanpak moet de aard en inhoud van dergelijke regels worden afgestemd op de intensiteit en de omvang van de risico’s die AI-systemen met zich mee kunnen brengen. Daarom is het noodzakelijk om bepaalde onaanvaardbare praktijken op het gebied van artificiële intelligentie te verbieden, eisen voor AI-systemen met een hoog risico en verplichtingen voor de betrokken marktdeelnemers vast te stellen, en transparantieverplichtingen voor bepaalde AI-systemen in te voeren.

Amendement 37

Voorstel voor een verordening

Overweging 15

Door de Commissie voorgestelde tekst

Amendement

(15)

Afgezien van de vele nuttige toepassingen van artificiële intelligentie, kan de technologie ook worden misbruikt en nieuwe en krachtige instrumenten voor manipulatie, uitbuiting en sociale controle opleveren. Dergelijke praktijken zijn bijzonder schadelijk en moeten worden verboden omdat zij in strijd zijn met de waarden van de Unie, namelijk eerbied voor de menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en met de grondrechten van de Unie, waaronder het recht op non-discriminatie, gegevensbescherming en privacy, en de rechten van het kind.

(15)

Afgezien van de vele nuttige toepassingen van artificiële intelligentie, kan de technologie ook worden misbruikt en nieuwe en krachtige instrumenten voor manipulatie, uitbuiting en sociale controle opleveren. Dergelijke praktijken zijn bijzonder schadelijk en abusief en moeten worden verboden omdat zij in strijd zijn met de waarden van de Unie, namelijk eerbied voor de menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en met de grondrechten van de Unie, waaronder het recht op non-discriminatie, gegevensbescherming en privacy, en de rechten van het kind.

Amendement 38

Voorstel voor een verordening

Overweging 16

Door de Commissie voorgestelde tekst

Amendement

(16)

Het in de handel brengen, in bedrijf stellen of gebruiken van bepaalde AI-systemen die bedoeld zijn om het menselijk gedrag te verstoren, waardoor lichamelijke of psychische schade kan ontstaan, moet worden verboden. Dergelijke AI-systemen maken gebruik van subliminale componenten die personen niet kunnen waarnemen, of buiten kwetsbaarheden van kinderen en mensen die een gevolg zijn van hun leeftijd of hun fysieke of mentale onbekwaamheid, uit. Zij doen dit met de bedoeling het gedrag van een persoon wezenlijk te verstoren en op een manier die deze persoon of een andere persoon schade berokkent of dreigt te berokkenen. De intentie mag niet worden verondersteld indien de verstoring van het menselijk gedrag het gevolg is van factoren buiten het AI-systeem waarover de aanbieder of de gebruiker geen controle heeft. Onderzoek voor legitieme doeleinden met betrekking tot dergelijke AI-systemen mag niet door het verbod worden belemmerd, voor zover dat onderzoek niet neerkomt op het gebruik van het AI-systeem in mens-machinerelaties waardoor natuurlijke personen aan schade worden blootgesteld, en indien dat onderzoek wordt verricht met inachtneming van erkende ethische normen voor wetenschappelijk onderzoek.

(16)

Het in de handel brengen, in bedrijf stellen of gebruiken van bepaalde AI-systemen met de bedoeling of het effect om het menselijk gedrag wezenlijk te verstoren, waardoor lichamelijke of psychische schade kan ontstaan, moet worden verboden. Deze beperking moet worden opgevat als zijnde van toepassing op onder meer neurotechnologieën die worden ondersteund door AI-systemen die worden gebruikt om neurale gegevens die via hersen-computerinterfaces zijn verzameld, te monitoren, te gebruiken of te beïnvloeden, voor zover zij het gedrag van een natuurlijke persoon wezenlijk verstoren op een wijze die die persoon of een andere persoon ernstige schade berokkent of waarschijnlijk zal berokkenen. Dergelijke AI-systemen maken gebruik van subliminale componenten die personen niet kunnen waarnemen, of buiten kwetsbaarheden van individuen en specifieke groepen personen die een gevolg zijn van hun bekende of voorspelde persoonlijkheidskenmerken, leeftijd of hun fysieke of mentale onbekwaamheid, sociale of economische situatie, uit. Zij doen dit met de bedoeling of het effect dat het gedrag van een persoon wezenlijk wordt verstoord en op een manier die deze persoon of een andere persoon , of groepen personen, aanzienlijke schade berokkent of dreigt te berokkenen , met inbegrip van schade die zich na verloop van tijd opbouwt . De intentie om het gedrag te verstoren, mag niet worden verondersteld indien de verstoring het gevolg is van factoren buiten het AI-systeem waarover de aanbieder of de gebruiker geen controle heeft , zoals factoren die redelijkerwijs niet kunnen worden voorzien en beperkt door de aanbieder of de exploitant van het AI-systeem. In ieder geval is het niet vereist dat de aanbieder of de exploitant de intentie heeft de lichamelijke of psychische schade te veroorzaken, zolang deze schade het gevolg is van op AI gebaseerde manipulatieve of uitbuitingspraktijken. Het verbod op dergelijke AI-praktijken vormt een aanvulling op de bepalingen van Richtlijn 2005/29/EG, op grond waarvan oneerlijke handelspraktijken verboden zijn, ongeacht of zij worden uitgevoerd met behulp van AI-systemen of anderszins. In een dergelijke context mogen legale handelspraktijken, bijvoorbeeld op het gebied van reclame, die in overeenstemming zijn met het Unierecht, op zichzelf beschouwd niet als een inbreuk op het verbod worden beschouwd. Onderzoek voor legitieme doeleinden met betrekking tot dergelijke AI-systemen mag niet door het verbod worden belemmerd, voor zover dat onderzoek niet neerkomt op het gebruik van het AI-systeem in mens-machinerelaties waardoor natuurlijke personen aan schade worden blootgesteld, en indien dat onderzoek wordt verricht met inachtneming van erkende ethische normen voor wetenschappelijk onderzoek en op basis van specifieke geïnformeerde toestemming van de personen die aan dergelijke AI-systemen worden blootgesteld of in voorkomend geval van hun wettelijke voogd .

Amendement 39

Voorstel voor een verordening

Overweging 16 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(16 bis)

AI-systemen die natuurlijke personen categoriseren door hen in specifieke categorieën in te delen op basis van bekende of afgeleide gevoelige of beschermde kenmerken, zijn bijzonder ingrijpend, schenden de menselijke waardigheid en houden een groot risico op discriminatie in. Onder die kenmerken moet worden verstaan gender en genderidentiteit, ras, etnische achtergrond, migratie- of burgerschapsstatus, politieke voorkeur, seksuele gerichtheid, geloofsovertuiging, handicap of andere gronden waarop discriminatie verboden is krachtens artikel 21 van het Handvest van de grondrechten van de Europese Unie en krachtens artikel 9 van Verordening (EU) 2016/769. Dergelijke systemen moeten bijgevolg worden verboden.

Amendement 40

Voorstel voor een verordening

Overweging 17

Door de Commissie voorgestelde tekst

Amendement

(17)

AI-systemen die door of in naam van overheidsinstanties worden gebruikt om sociale scoring van natuurlijke personen voor algemene doeleinden uit te voeren, kunnen discriminerende resultaten en de uitsluiting van bepaalde groepen tot gevolg hebben. Deze systemen kunnen een schending inhouden van het recht op waardigheid en non-discriminatie en van waarden als gelijkheid en rechtvaardigheid. Dergelijke AI-systemen beoordelen of classificeren de betrouwbaarheid van natuurlijke personen op basis van hun sociale gedrag in meerdere contexten of op basis van bekende of voorspelde persoonlijke of persoonlijkheidskenmerken. De sociale score die dergelijke AI-systemen opleveren, kan leiden tot een nadelige of ongunstige behandeling van natuurlijke personen of hele groepen in sociale contexten die geen verband houden met de context waarin de data oorspronkelijk zijn gegenereerd of verzameld, of tot een nadelige behandeling die onevenredig of ongerechtvaardigd is in verhouding tot de ernst van het sociale gedrag. Dergelijke AI-systemen moeten bijgevolg worden verboden.

(17)

AI-systemen die worden gebruikt om sociale scoring van natuurlijke personen voor algemene doeleinden uit te voeren, kunnen discriminerende resultaten en de uitsluiting van bepaalde groepen tot gevolg hebben. Deze systemen houden een schending in van het recht op waardigheid en non-discriminatie en van waarden als gelijkheid en rechtvaardigheid. Dergelijke AI-systemen beoordelen of classificeren natuurlijke personen of groepen op basis van meerdere aansluitbare informatiebronnen en tijdstippen, met betrekking tot hun sociale gedrag in meerdere contexten of op basis van bekende , afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken. De sociale score die dergelijke AI-systemen opleveren, kan leiden tot een nadelige of ongunstige behandeling van natuurlijke personen of hele groepen in sociale contexten die geen verband houden met de context waarin de data oorspronkelijk zijn gegenereerd of verzameld, of tot een nadelige behandeling die onevenredig of ongerechtvaardigd is in verhouding tot de ernst van het sociale gedrag. Dergelijke AI-systemen moeten bijgevolg worden verboden.

Amendement 41

Voorstel voor een verordening

Overweging 18

Door de Commissie voorgestelde tekst

Amendement

(18)

Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten met het oog op de rechtshandhaving wordt als bijzonder ingrijpend beschouwd voor de rechten en vrijheden van de betrokkenen, in die mate dat het de persoonlijke levenssfeer van een groot deel van de bevolking kan aantasten, een gevoel van voortdurende bewaking kan oproepen en indirect de uitoefening van de vrijheid van vergadering en andere grondrechten kan ontmoedigen. Bovendien houden het directe karakter van de gevolgen en de beperkte mogelijkheden voor verdere controles of correcties met betrekking tot het gebruik van dergelijke realtimesystemen, verhoogde risico’s in voor de rechten en vrijheden van de personen die betrokken zijn bij de rechtshandhavingsactiviteiten.

(18)

Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten is bijzonder ingrijpend ten aanzien van de rechten en vrijheden van de betrokkenen, en kan uiteindelijk de persoonlijke levenssfeer van een groot deel van de bevolking aantasten, een gevoel van voortdurende bewaking oproepen , partijen die biometrische identificatie toepassen in openbare ruimten een positie van oncontroleerbare macht geven en indirect de uitoefening van de vrijheid van vergadering en andere grondrechten die de kern van de rechtstaat vormen, ontmoedigen. Technische onnauwkeurigheden van AI-systemen voor biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten leiden en een discriminerend effect hebben. Dit is met name relevant wanneer het gaat om leeftijd, etniciteit, geslacht of handicaps. Bovendien houden het directe karakter van de gevolgen en de beperkte mogelijkheden voor verdere controles of correcties met betrekking tot het gebruik van dergelijke realtimesystemen, verhoogde risico’s in voor de rechten en vrijheden van de personen die betrokken zijn bij de rechtshandhavingsactiviteiten. Het gebruik van dergelijke systemen in openbare ruimten moet derhalve worden verboden. Evenzo moeten AI-systemen die worden gebruikt voor de analyse van opgenomen beelden van openbare ruimten via biometrische systemen voor de identificatie op afstand “achteraf” ook worden verboden, tenzij er voorafgaande rechterlijke toestemming is voor gebruik in het kader van rechtshandhaving, wanneer dat strikt noodzakelijk is voor de gerichte zoekopdracht in verband met een specifiek ernstig strafbaar feit dat reeds heeft plaatsgevonden, en alleen na voorafgaande rechterlijke toestemming.

Amendement 42

Voorstel voor een verordening

Overweging 19

Door de Commissie voorgestelde tekst

Amendement

(19)

Het gebruik van dergelijke systemen voor rechtshandhavingsdoeleinden moet derhalve worden verboden, behalve in drie limitatief opgesomde en nauwkeurig omschreven situaties, waarin het gebruik alleen noodzakelijk is om een zwaarwegend algemeen belang te dienen, dat zwaarder weegt dan de risico’s. Die situaties hebben betrekking op de zoektocht naar mogelijke slachtoffers van misdrijven, waaronder vermiste kinderen; bepaalde bedreigingen ten aanzien van het leven of de fysieke veiligheid van natuurlijke personen of van een terroristische aanslag; en de opsporing, lokalisatie, identificatie of vervolging van daders of verdachten van de in Kaderbesluit 2002/584/JBZ van de Raad  (38) bedoelde strafbare feiten indien deze in de betrokken lidstaat strafbaar zijn gesteld met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel met een maximumstraf van minstens drie jaar, en indien zij in het recht van die lidstaat zijn omschreven. Een dergelijke drempel voor de vrijheidsstraf of de tot vrijheidsbeneming strekkende maatregel overeenkomstig het nationale recht helpt er op toe te zien dat het strafbare feit ernstig genoeg is om het gebruik van biometrische systemen voor identificatie op afstand in real time te rechtvaardigen. Bovendien zullen sommige van de 32 in Kaderbesluit 2002/584/JBZ van de Raad genoemde strafbare feiten in de praktijk waarschijnlijk relevanter zijn dan andere, aangezien het gebruik van biometrische identificatie op afstand in real time naar verwachting in zeer uiteenlopende mate noodzakelijk en evenredig zal zijn voor de praktische uitvoering van de opsporing, lokalisatie, identificatie of vervolging van een dader of verdachte van de verschillende opgesomde strafbare feiten, gelet op de te verwachten verschillen in ernst, waarschijnlijkheid en omvang van de schade of de mogelijke negatieve gevolgen.

Schrappen

Amendement 43

Voorstel voor een verordening

Overweging 20

Door de Commissie voorgestelde tekst

Amendement

(20)

Om ervoor te zorgen dat dergelijke systemen op een verantwoorde en evenredige wijze worden gebruikt, is het ook van belang om vast te stellen dat in elk van die drie limitatief opgesomde en nauwkeurig omschreven situaties bepaalde elementen in aanmerking moeten worden genomen, met name wat betreft de aard van de situatie die aan het verzoek ten grondslag ligt en de gevolgen van het gebruik voor de rechten en vrijheden van alle betrokken personen, alsook de waarborgen en voorwaarden waaraan het gebruik is onderworpen. Voorts moet het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving aan passende beperkingen in tijd en ruimte worden onderworpen, met name gelet op het bewijs of de aanwijzingen met betrekking tot de bedreigingen, de slachtoffers of de dader. De referentiedatabank van personen moet geschikt zijn voor elk gebruik in elk van de drie bovenvermelde situaties.

Schrappen

Amendement 44

Voorstel voor een verordening

Overweging 21

Door de Commissie voorgestelde tekst

Amendement

(21)

Voor elk gebruik van een biometrisch systeem voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving moet een uitdrukkelijke en specifieke toestemming van een rechterlijke instantie of van een onafhankelijke administratieve autoriteit van een lidstaat vereist zijn. Die toestemming moet in beginsel vóór het gebruik worden verkregen, behalve in naar behoren gemotiveerde spoedeisende gevallen, dat wil zeggen situaties waarin het wegens de noodzaak om de systemen in kwestie te gebruiken, feitelijk en objectief onmogelijk is om vóór het begin van het gebruik een toestemming te verkrijgen. In dergelijke dringende situaties moet het gebruik worden beperkt tot het absoluut noodzakelijke minimum en onderworpen zijn aan passende waarborgen en voorwaarden, zoals bepaald in de nationale wetgeving en vastgesteld in de context van elk individueel dringend gebruik door de rechtshandhavingsautoriteit zelf. Bovendien moet de rechtshandhavingsautoriteit in dergelijke situaties zo spoedig mogelijk een toestemming trachten te verkrijgen, met vermelding van de redenen waarom zij die niet eerder heeft kunnen vragen.

Schrappen

Amendement 45

Voorstel voor een verordening

Overweging 22

Door de Commissie voorgestelde tekst

Amendement

(22)

Voorts moet binnen het door deze verordening gestelde limitatieve kader worden vastgelegd dat een dergelijk gebruik op het grondgebied van een lidstaat overeenkomstig deze verordening alleen mogelijk is indien en voor zover de betrokken lidstaat heeft besloten om in zijn specifieke regels van nationaal recht uitdrukkelijk te voorzien in de mogelijkheid om een dergelijk gebruik toe te staan. Bijgevolg staat het de lidstaten uit hoofde van deze verordening vrij in het geheel niet in een dergelijke mogelijkheid te voorzien, dan wel slechts in een dergelijke mogelijkheid te voorzien voor een aantal van de in deze verordening genoemde doelstellingen die het toestaan van een dergelijk gebruik rechtvaardigen.

Schrappen

Amendement 46

Voorstel voor een verordening

Overweging 23

Door de Commissie voorgestelde tekst

Amendement

(23)

Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten met het oog op de rechtshandhaving brengt noodzakelijkerwijs de verwerking van biometrische gegevens met zich mee. De regels in deze verordening die, behoudens bepaalde uitzonderingen, een dergelijk gebruik verbieden en die gebaseerd zijn op artikel 16 VWEU, moeten als lex specialis gelden ten aanzien van de regels inzake de verwerking van biometrische gegevens in artikel 10 van Richtlijn (EU) 2016/680, waardoor een dergelijk gebruik en de bijbehorende verwerking van biometrische gegevens limitatief worden geregeld. Daarom mag een dergelijk gebruik en een dergelijke verwerking alleen mogelijk zijn voor zover zij verenigbaar zijn met het door deze verordening vastgestelde kader, zonder dat er buiten dat kader ruimte is voor de bevoegde autoriteiten om, wanneer zij optreden met het oog op de rechtshandhaving, dergelijke systemen te gebruiken en dergelijke data in verband daarmee te verwerken om de in artikel 10 van Richtlijn (EU) 2016/680 genoemde redenen. In die context is deze verordening niet bedoeld om de rechtsgrondslag te bieden voor de verwerking van persoonsgegevens op grond van artikel 8 van Richtlijn 2016/680. Het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten voor andere doeleinden dan rechtshandhaving, ook door bevoegde autoriteiten, mag echter niet worden opgenomen in het specifieke kader voor dergelijk gebruik ten behoeve van de rechtshandhaving dat bij deze verordening wordt vastgesteld. Dergelijk gebruik voor andere doeleinden dan rechtshandhaving is derhalve niet onderworpen aan het vereiste van een toelating uit hoofde van deze verordening en de toepasselijke specifieke regels van nationaal recht die daaraan uitvoering kunnen geven.

Schrappen

Amendement 47

Voorstel voor een verordening

Overweging 24

Door de Commissie voorgestelde tekst

Amendement

(24)

Elke verwerking van biometrische gegevens en andere persoonsgegevens in het kader van het gebruik van AI-systemen voor biometrische identificatie, anders dan in verband met het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving zoals geregeld in deze verordening , ook wanneer die systemen in openbare ruimten door bevoegde autoriteiten worden gebruikt voor andere doeleinden dan de rechtshandhaving , moet blijven voldoen aan alle vereisten die voortvloeien uit artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10, lid 1, van Verordening (EU) 2018/1725 en artikel 10 van Richtlijn (EU) 2016/680, voor zover van toepassing.

(24)

Elke verwerking van biometrische gegevens en andere persoonsgegevens in het kader van het gebruik van AI-systemen voor biometrische identificatie, anders dan in verband met het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten zoals geregeld in deze verordening, moet blijven voldoen aan alle vereisten die voortvloeien uit artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10, lid 1, van Verordening (EU) 2018/1725 en artikel 10 van Richtlijn (EU) 2016/680, voor zover van toepassing.

Amendement 48

Voorstel voor een verordening

Overweging 25

Door de Commissie voorgestelde tekst

Amendement

(25)

Overeenkomstig artikel 6 bis van Protocol nr. 21 betreffende de positie van het Verenigd Koninkrijk en Ierland ten aanzien van de ruimte van vrijheid, veiligheid en recht, dat gehecht is aan het VEU en het VWEU, is Ierland niet gebonden door de in artikel 5, lid 1, punt d), en leden 2 en 3, van deze verordening vastgestelde regels die zijn vastgesteld op basis van artikel 16 VWEU in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel VWEU, wanneer Ierland niet gebonden is door de regels betreffende de vormen van justitiële samenwerking in strafzaken of van politiële samenwerking in het kader waarvan de op grond van artikel 16 VWEU vastgestelde bepalingen moeten worden nageleefd.

(25)

Overeenkomstig artikel 6 bis van Protocol nr. 21 betreffende de positie van het Verenigd Koninkrijk en Ierland ten aanzien van de ruimte van vrijheid, veiligheid en recht, dat gehecht is aan het VEU en het VWEU, is Ierland niet gebonden door de in artikel 5, lid 1, punt d), van deze verordening vastgestelde regels die zijn vastgesteld op basis van artikel 16 VWEU in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel VWEU, wanneer Ierland niet gebonden is door de regels betreffende de vormen van justitiële samenwerking in strafzaken of van politiële samenwerking in het kader waarvan de op grond van artikel 16 VWEU vastgestelde bepalingen moeten worden nageleefd.

Amendement 49

Voorstel voor een verordening

Overweging 26

Door de Commissie voorgestelde tekst

Amendement

(26)

Overeenkomstig de artikelen 2 en 2 bis van Protocol nr. 22 betreffende de positie van Denemarken, dat gehecht is aan het VEU en het VWEU, zijn de regels in artikel 5, lid 1, punt d), en leden 2 en 3, van deze verordening, die zijn vastgesteld op basis van artikel 16 VWEU, in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel van het VWEU niet bindend voor, noch van toepassing in Denemarken.

(26)

Overeenkomstig de artikelen 2 en 2 bis van Protocol nr. 22 betreffende de positie van Denemarken, dat gehecht is aan het VEU en het VWEU, zijn de regels in artikel 5, lid 1, punt d), van deze verordening, die zijn vastgesteld op basis van artikel 16 VWEU, in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel van het VWEU niet bindend voor, noch van toepassing in Denemarken.

Amendement 50

Voorstel voor een verordening

Overweging 26 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(26 bis)

AI-systemen die door of namens rechtshandhavingsinstanties worden gebruikt ten behoeve van voorspellingen, profielen of risicobeoordelingen op basis van profilering van natuurlijke personen of gegevensanalyse op basis van persoonlijkheidskenmerken en kenmerken, waaronder de locatie van de persoon, of eerder crimineel gedrag van natuurlijke personen of groepen personen met het oog op het voorspellen van het plegen of opnieuw plegen van een daadwerkelijk of potentieel strafbaar feit of ander strafbaar sociaal gedrag of administratieve overtreding, met inbegrip van systemen voor het voorspellen van fraude, houden een bijzonder risico op discriminatie van bepaalde personen of groepen personen in, aangezien zij de menselijke waardigheid en het voornaamste rechtsbeginsel van het vermoeden van onschuld schenden. Dergelijke AI-systemen moeten derhalve worden verboden.

Amendement 51

Voorstel voor een verordening

Overweging 26 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(26 ter)

De willekeurige en niet-gerichte extractie van biometrische gegevens van sociale media of beelden van gesloten televisiesystemen om databanken voor gezichtsherkenning op te zetten of uit te breiden, versterkt het gevoel van massasurveillance en kan leiden tot grove schendingen van de grondrechten, waaronder het recht op privacy. Het gebruik van AI-systemen met dit beoogde doel moet derhalve worden verboden.

Amendement 52

Voorstel voor een verordening

Overweging 26 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(26 quater)

Er zijn ernstige zorgen over de wetenschappelijke basis van AI-systemen die gericht zijn op het detecteren van emoties, fysieke of fysiologische kenmerken zoals gezichtsuitdrukkingen, bewegingen, polsfrequentie of stem. Emoties of uitingen van emoties en percepties daarvan variëren aanzienlijk tussen culturen en situaties, en zelfs bij een en dezelfde persoon. De belangrijkste tekortkomingen van dergelijke technologieën zijn de beperkte betrouwbaarheid (categorieën emoties zijn noch betrouwbaar uit te drukken aan de hand van en worden noch ondubbelzinnig geassocieerd met een gemeenschappelijke reeks fysieke of fysiologische bewegingen), het gebrek aan specificiteit (fysieke of fysiologische uitdrukkingen stemmen niet perfect overeen met categorieën emoties) en de beperkte algemeenheid (de effecten van context en cultuur worden onvoldoende in aanmerking genomen). Problemen met betrouwbaarheid en bijgevolg grote risico’s op misbruik kunnen zich met name voordoen bij de invoering van het systeem in situaties in de praktijk op het gebied van rechtshandhaving en grensbeheer, op de werkplek en bij onderwijsinstellingen. Daarom moet het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen die bedoeld zijn om in deze context te worden gebruikt om de emotionele toestand van personen op te sporen, worden verboden.

Amendement 53

Voorstel voor een verordening

Overweging 26 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(26 quinquies)

Deze verordening moet praktijken die verboden zijn uit hoofde van de Uniewetgeving, met inbegrip van de gegevensbeschermingswetgeving, de non-discriminatiewetgeving, de wetgeving inzake consumentenbescherming, en de mededingingswetgeving, onverlet laten.

Amendement 54

Voorstel voor een verordening

Overweging 27

Door de Commissie voorgestelde tekst

Amendement

(27)

AI-systemen met een hoog risico mogen alleen in de Unie in de handel worden gebracht of in bedrijf worden gesteld als zij aan bepaalde dwingende eisen voldoen. Die eisen moeten ervoor zorgen dat AI-systemen met een hoog risico die in de Unie beschikbaar zijn of waarvan de output anderszins in de Unie wordt gebruikt, geen onaanvaardbare risico’s inhouden voor belangrijke publieke belangen in de Unie, zoals die door het recht van de Unie worden erkend en beschermd. AI-systemen die als AI-systemen met een hoog risico zijn aangemerkt, moeten worden beperkt tot systemen die aanzienlijke schadelijke gevolgen hebben voor de gezondheid, de veiligheid en de grondrechten van personen in de Unie, en een dergelijke beperking moet eventuele potentiële beperkingen voor de internationale handel minimaliseren.

(27)

AI-systemen met een hoog risico mogen alleen in de Unie in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt als zij aan bepaalde dwingende eisen voldoen. Die eisen moeten ervoor zorgen dat AI-systemen met een hoog risico die in de Unie beschikbaar zijn of waarvan de output anderszins in de Unie wordt gebruikt, geen onaanvaardbare risico’s inhouden voor belangrijke publieke belangen in de Unie, met inbegrip van de grondrechten, de democratie, de rechtsstaat of het milieu, zoals die door het recht van de Unie worden erkend en beschermd. Om afstemming met sectorale wetgeving te waarborgen en overlappingen te voorkomen, zal in de eisen voor AI-systemen met een hoog risico rekening moeten worden gehouden met sectorale wetgeving tot vaststelling van eisen voor in het toepassingsgebied van deze verordening opgenomen AI-systemen met een hoog risico, zoals Verordening (EU) 2017/745 betreffende medische hulpmiddelen en Verordening (EU) 2017/746 betreffende medische hulpmiddelen voor in-vitrodiagnostiek of Richtlijn 2006/42/EG betreffende machines. AI-systemen die als AI-systemen met een hoog risico zijn aangemerkt, moeten worden beperkt tot systemen die aanzienlijke schadelijke gevolgen hebben voor de gezondheid, de veiligheid en de grondrechten van personen in de Unie, en een dergelijke beperking moet eventuele potentiële beperkingen voor de internationale handel minimaliseren. Gezien het snelle tempo van de technologische ontwikkeling en de mogelijke veranderingen in het gebruik van AI-systemen, moet de lijst van gebieden met een hoog risico en typen gebruiken in bijlage III niettemin permanent worden geëvalueerd door middel van een regelmatige beoordeling.

Amendement 55

Voorstel voor een verordening

Overweging 28

Door de Commissie voorgestelde tekst

Amendement

(28)

AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als onderdelen van producten. In overeenstemming met de doelstellingen in de harmonisatiewetgeving van de Unie om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige en anderszins conforme producten hun weg naar de markt vinden, is het belangrijk dat de veiligheidsrisico’s die een product in zijn geheel kan genereren door zijn digitale componenten, waaronder AI-systemen, naar behoren worden voorkomen en beperkt. Zo moeten robots die alsmaar autonomer worden, of het nu in een productieomgeving is of voor persoonlijke hulp en zorg, in staat zijn op een veilige manier te werken en hun taken uit te voeren in complexe omgevingen. Ook in de gezondheidssector, waar het belang voor leven en gezondheid bijzonder hoog is, moeten de steeds geavanceerdere diagnosesystemen en systemen ter ondersteuning van menselijke beslissingen betrouwbaar en nauwkeurig zijn. De omvang van de door het AI-systeem veroorzaakte nadelige gevolgen voor de grondrechten die door het Handvest worden beschermd, is een bijzonder relevante factor voor de indeling van een AI-systeem als een systeem met een hoog risico. Deze rechten omvatten het recht op menselijke waardigheid, de eerbiediging van het privéleven en van het familie- en gezinsleven, de bescherming van persoonsgegevens, de vrijheid van meningsuiting en van informatie, de vrijheid van vergadering en vereniging, en non-discriminatie, consumentenbescherming, de rechten van werknemers, de rechten van personen met een handicap, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging en het vermoeden van onschuld, en het recht op behoorlijk bestuur. Naast deze rechten moeten ook de specifieke rechten van kinderen worden benadrukt, die zijn vastgelegd in artikel 24 van het EU-Handvest van de grondrechten en in het Verdrag van de Verenigde Naties inzake de rechten van het kind (nader uitgewerkt in algemene opmerking nr. 25 van het VN-Comité voor de rechten van het kind met betrekking tot de digitale omgeving), waarbij telkens wordt geëist dat rekening wordt gehouden met de kwetsbaarheid van kinderen en dat zij de bescherming en zorg krijgen die nodig zijn voor hun welbevinden. Het grondrecht betreffende een hoog niveau van milieubescherming, dat in het Handvest is verankerd en in het beleid van de Unie wordt uitgevoerd, moet ook in aanmerking worden genomen bij de beoordeling van de ernst van de schade die een AI-systeem kan veroorzaken, ook met betrekking tot de gezondheid en de veiligheid van personen.

(28)

AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als veiligheidscomponenten van producten. In overeenstemming met de doelstellingen in de harmonisatiewetgeving van de Unie om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige en anderszins conforme producten hun weg naar de markt vinden, is het belangrijk dat de veiligheidsrisico’s die een product in zijn geheel kan genereren door zijn digitale componenten, waaronder AI-systemen, naar behoren worden voorkomen en beperkt. Zo moeten robots die alsmaar autonomer worden, of het nu in een productieomgeving is of voor persoonlijke hulp en zorg, in staat zijn op een veilige manier te werken en hun taken uit te voeren in complexe omgevingen. Ook in de gezondheidssector, waar het belang voor leven en gezondheid bijzonder hoog is, moeten de steeds geavanceerdere diagnosesystemen en systemen ter ondersteuning van menselijke beslissingen betrouwbaar en nauwkeurig zijn.

Amendement 56

Voorstel voor een verordening

Overweging 28 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(28 bis)

De omvang van de door het AI-systeem veroorzaakte nadelige gevolgen voor de grondrechten die door het Handvest worden beschermd, is bijzonder relevant voor de classificatie van een AI-systeem als een systeem met een hoog risico. Deze rechten omvatten het recht op menselijke waardigheid, de eerbiediging van het privéleven en van het familie- en gezinsleven, de bescherming van persoonsgegevens, de vrijheid van meningsuiting en van informatie, de vrijheid van vergadering en vereniging, en non-discriminatie, het recht op onderwijs, consumentenbescherming, de rechten van werknemers, de rechten van personen met een handicap, gendergelijkheid, intellectuele-eigendomsrechten, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging en het vermoeden van onschuld, en het recht op behoorlijk bestuur. Naast deze rechten moeten ook de specifieke rechten van kinderen worden benadrukt, die zijn vastgelegd in artikel 24 van het EU-Handvest van de grondrechten en in het Verdrag van de Verenigde Naties inzake de rechten van het kind (nader uitgewerkt in algemene opmerking nr. 25 van het VN-Comité voor de rechten van het kind met betrekking tot de digitale omgeving), waarbij telkens wordt geëist dat rekening wordt gehouden met de kwetsbaarheid van kinderen en dat zij de bescherming en zorg krijgen die nodig zijn voor hun welbevinden. Het grondrecht betreffende een hoog niveau van milieubescherming, dat in het Handvest is verankerd en in het beleid van de Unie wordt uitgevoerd, moet ook in aanmerking worden genomen bij de beoordeling van de ernst van de schade die een AI-systeem kan veroorzaken, ook met betrekking tot de gezondheid en de veiligheid van personen of met betrekking tot het milieu.

Amendement 57

Voorstel voor een verordening

Overweging 29

Door de Commissie voorgestelde tekst

Amendement

(29)

Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad (39), Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad (40), Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad (41), Richtlijn 2014/90/EU van het Europees Parlement en de Raad (42), Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad (43), Verordening (EU) 2018/858 van het Europees Parlement en de Raad (44), Verordening (EU) 2018/1139 van het Europees Parlement en de Raad (45), en Verordening (EU) 2019/2144 van het Europees Parlement en de Raad (46), moeten die handelingen worden gewijzigd zodat de Commissie, op basis van de technische en regelgevingskenmerken van elke sector en zonder in te grijpen in de bestaande governance-, conformiteitsbeoordelings- en handhavingsmechanismen en de daarin ingestelde autoriteiten, rekening kan houden met de in deze verordening vastgestelde dwingende voorschriften voor AI-systemen met een hoog risico wanneer zij op basis van die handelingen relevante toekomstige gedelegeerde of uitvoeringshandelingen vaststelt.

(29)

Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad (39), Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad (40), Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad (41), Richtlijn 2014/90/EU van het Europees Parlement en de Raad (42), Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad (43), Verordening (EU) 2018/858 van het Europees Parlement en de Raad (44), Verordening (EU) 2018/1139 van het Europees Parlement en de Raad (45), en Verordening (EU) 2019/2144 van het Europees Parlement en de Raad (46), moeten die handelingen worden gewijzigd zodat de Commissie, op basis van de technische en regelgevingskenmerken van elke sector en zonder in te grijpen in de bestaande governance-, conformiteitsbeoordelings- , markttoezichts- en handhavingsmechanismen en de daarin ingestelde autoriteiten, rekening kan houden met de in deze verordening vastgestelde dwingende voorschriften voor AI-systemen met een hoog risico wanneer zij op basis van die handelingen relevante toekomstige gedelegeerde of uitvoeringshandelingen vaststelt.

Amendement 58

Voorstel voor een verordening

Overweging 30

Door de Commissie voorgestelde tekst

Amendement

(30)

Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde harmonisatiewetgeving van de Unie vallen, is het passend ze in het kader van deze verordening als AI-systemen met een hoog risico in te delen indien het product in kwestie de conformiteitsbeoordelingsprocedure ondergaat bij een derde conformiteitsbeoordelingsinstantie overeenkomstig die relevante harmonisatiewetgeving van de Unie. Het gaat met name om machines, speelgoed, liften, uitrusting en beveiligingssystemen bestemd voor gebruik op plaatsen waar ontploffingsgevaar kan heersen, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen en medische hulpmiddelen voor in-vitrodiagnostiek.

(30)

Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde harmonisatiewetgeving van de Unie vallen, zoals opgenomen in bijlage II, is het passend ze in het kader van deze verordening als AI-systemen met een hoog risico in te delen indien het product in kwestie de conformiteitsbeoordelingsprocedure ondergaat om naleving van essentiële veiligheidseisen te waarborgen bij een derde conformiteitsbeoordelingsinstantie overeenkomstig die relevante harmonisatiewetgeving van de Unie. Het gaat met name om machines, speelgoed, liften, uitrusting en beveiligingssystemen bestemd voor gebruik op plaatsen waar ontploffingsgevaar kan heersen, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen en medische hulpmiddelen voor in-vitrodiagnostiek.

Amendement 59

Voorstel voor een verordening

Overweging 31

Door de Commissie voorgestelde tekst

Amendement

(31)

De indeling van een AI-systeem als een AI-systeem met een hoog risico overeenkomstig deze verordening hoeft niet te betekenen dat het product waarvan het AI-systeem de veiligheidscomponent is, of het AI-systeem zelf als product, als “een systeem met een hoog risico” wordt beschouwd volgens de criteria die zijn vastgesteld in de relevante harmonisatiewetgeving van de Unie die op het product van toepassing is. Dit is met name het geval voor Verordening (EU) 2017/745 van het Europees Parlement en de Raad (47) en Verordening (EU) 2017/746 van het Europees Parlement en de Raad (48), waarin in een conformiteitsbeoordeling door een derde partij is voorzien voor producten met een gemiddeld risico en producten met een hoog risico.

(Niet van toepassing op de Nederlandse versie)

Amendement 60

Voorstel voor een verordening

Overweging 32

Door de Commissie voorgestelde tekst

Amendement

(32)

Autonome AI-systemen, d.w.z. andere AI-systemen met een hoog risico dan die welke veiligheidscomponenten van producten zijn of die zelf producten zijn, moeten als AI-systemen met een hoog risico worden aangemerkt indien zij, gelet op het beoogde doel, een hoog risico inhouden op schade aan de gezondheid en de veiligheid of aan de grondrechten van personen, rekening houdend met zowel de ernst van de mogelijke schade als de waarschijnlijkheid dat deze zich voordoet , en indien zij worden gebruikt op een aantal in de verordening beschreven , specifieke en vooraf bepaalde gebieden . Dergelijk systemen worden geïdentificeerd op basis van dezelfde methode en criteria die ook voor eventuele toekomstige wijzigingen van de lijst van AI-systemen met een hoog risico worden gehanteerd.

(32)

Autonome AI-systemen, d.w.z. andere AI-systemen met een hoog risico dan die welke veiligheidscomponenten van producten zijn of die zelf producten zijn, en die opgenomen zijn in een van de gebieden en typen gebruik in bijlage III, moeten als AI-systemen met een hoog risico worden aangemerkt indien zij, gelet op het beoogde doel, een significant risico inhouden op schade aan de gezondheid en de veiligheid of aan de grondrechten van personen en , wanneer het AI-systeem wordt gebruikt als veiligheidscomponent van een kritieke infrastructuur, aan het milieu. Een dergelijk significant risico op schade moet worden vastgesteld door beoordeling van enerzijds het effect van een dergelijk risico met betrekking tot het geheel van de ernst, intensiteit, waarschijnlijkheid en duur hiervan, en anderzijds de mogelijke gevolgen van het risico voor een individu , meerdere personen of een bepaalde groep personen. Een dergelijke combinatie kan bijvoorbeeld leiden tot een grote ernst, maar een geringe waarschijnlijkheid dat een natuurlijke persoon wordt getroffen , of een grote waarschijnlijkheid dat een groep personen over een lange periode met een geringe intensiteit wordt getroffen, afhankelijk van de context . Dergelijk systemen worden geïdentificeerd op basis van dezelfde methode en criteria die ook voor eventuele toekomstige wijzigingen van de lijst van AI-systemen met een hoog risico worden gehanteerd.

Amendement 61

Voorstel voor een verordening

Overweging 32 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(32 bis)

Aanbieders van AI-systemen die onder een van de in bijlage III vermelde gebieden en typen gebruik vallen en die van mening zijn dat hun systeem geen significant risico vormt op schade voor de gezondheid, de veiligheid, de grondrechten of het milieu, moeten de nationale toezichthoudende autoriteiten daarvan in kennis stellen door een met redenen omklede kennisgeving in te dienen. Deze kennisgeving kan de vorm aannemen van een samenvatting van één bladzijde van de relevante informatie over het desbetreffende AI-systeem, met inbegrip van het beoogde doel ervan en de reden waarom het geen significant risico op schade voor de gezondheid, de veiligheid, de grondrechten of het milieu zou opleveren. De Commissie moet criteria specificeren aan de hand waarvan ondernemingen kunnen beoordelen of hun systeem dergelijke risico’s met zich meebrengt, en een gebruiksvriendelijk en gestandaardiseerd model voor de kennisgeving ontwikkelen. Aanbieders moeten de kennisgeving zo vroeg mogelijk indienen en in elk geval voorafgaand aan het in de handel brengen of in gebruik stellen van het AI-systeem, idealiter in de ontwikkelingsfase, en zij moeten de vrijheid hebben om het systeem op elk moment na de kennisgeving in de handel te brengen. Indien de autoriteit echter van oordeel is dat het desbetreffende AI-systeem verkeerd is geclassificeerd, moet zij binnen een termijn van drie maanden bezwaar maken tegen de kennisgeving. Het bezwaar moet worden onderbouwd en er moet naar behoren in worden toegelicht waarom het AI-systeem verkeerd is geclassificeerd. De aanbieder moet het recht behouden om in beroep te gaan door verdere argumenten aan te voeren. Indien na de termijn van drie maanden geen bezwaar tegen de kennisgeving is gemaakt, kunnen de nationale toezichthoudende autoriteiten nog steeds ingrijpen als het AI-systeem op nationaal niveau een risico vormt, zoals voor elk ander AI-systeem op de markt. De nationale toezichthoudende autoriteiten moeten bij het AI-bureau jaarverslagen indienen waarin de ontvangen kennisgevingen en de genomen besluiten worden beschreven.

Amendement 62

Voorstel voor een verordening

Overweging 33

Door de Commissie voorgestelde tekst

Amendement

(33)

Technische onnauwkeurigheden van AI-systemen voor de biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten leiden en discriminerende effecten met zich meebrengen. Dit is met name relevant wanneer het gaat om leeftijd, etniciteit, geslacht of handicaps. Daarom moeten biometrische systemen voor identificatie op afstand “in realtime” en “achteraf” als systemen met een hoog risico worden aangemerkt. Gezien de risico’s die zij inhouden, moeten voor beide soorten systemen voor biometrische identificatie op afstand specifieke eisen inzake menselijk toezicht en het bijhouden van logbestanden gelden.

Schrappen

Amendement 63

Voorstel voor een verordening

Overweging 33 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(33 bis)

Aangezien biometrische gegevens een bijzondere categorie gevoelige persoonsgegevens vormen overeenkomstig Verordening (EU) 2016/679, is het passend verschillende kritieke typen gebruik van biometrische en op biometrie gebaseerde systemen als zeer risicovol te classificeren. AI-systemen die zijn bedoeld om te worden gebruikt voor biometrische identificatie van natuurlijke personen en AI-systemen die zijn bedoeld om conclusies te trekken over de persoonlijke kenmerken van natuurlijke personen op basis van biometrische of op biometrie gebaseerde gegevens, met inbegrip van systemen voor het herkennen van emoties, met uitzondering van die welke krachtens deze verordening verboden zijn, moeten daarom als AI-systemen met een hoog risico worden geclassificeerd. Hiervan moeten AI-systemen worden uitgesloten die zijn bedoeld om te worden gebruikt voor biometrische verificatie met inbegrip van authenticatie die uitsluitend tot doel hebben te bevestigen dat een specifieke natuurlijke persoon daadwerkelijk de persoon is die hij of zij beweert te zijn, en die worden gebruikt om de identiteit van een natuurlijke persoon te bevestigen met als enig doel toegang te hebben tot een dienst, een apparaat of een locatie (één-op-éénverificatie). Biometrische en op biometrie gebaseerde systemen waarin het Unierecht voorziet om maatregelen op het gebied van cyberbeveiliging en de bescherming van persoonsgegevens mogelijk te maken, mogen niet worden beschouwd als systemen die een significant risico inhouden op schade aan de gezondheid, de veiligheid en de grondrechten.

Amendement 64

Voorstel voor een verordening

Overweging 34

Door de Commissie voorgestelde tekst

Amendement

(34)

Met betrekking tot het beheer en de exploitatie van kritieke infrastructuur is het passend om AI-systemen die moeten worden gebruikt als veiligheidscomponenten in het beheer en de exploitatie van het wegverkeer en de water-, gas-, verwarmings- en elektriciteitsvoorziening als systemen met een hoog risico te classificeren, aangezien het falen of gebrekkig functioneren hiervan een grootschalig risico kan opleveren voor het leven en de gezondheid van personen en normale sociale en economische activiteiten aanzienlijk kan verstoren.

(34)

Met betrekking tot het beheer en de exploitatie van kritieke infrastructuur is het passend om AI-systemen die moeten worden gebruikt als veiligheidscomponenten in het beheer en de exploitatie van de water-, gas-, verwarmings- en elektriciteitsvoorziening en kritieke digitale infrastructuur als systemen met een hoog risico te classificeren, aangezien het falen of gebrekkig functioneren hiervan gevolgen kan hebben voor de beveiliging en integriteit van dergelijke kritieke infrastructuur of een grootschalig risico kan opleveren voor het leven en de gezondheid van personen en normale sociale en economische activiteiten aanzienlijk kan verstoren. Veiligheidscomponenten van kritieke infrastructuur, met inbegrip van kritieke digitale infrastructuur, zijn systemen die worden gebruikt om de fysieke integriteit van kritieke infrastructuur of de gezondheid en veiligheid van personen en eigendommen rechtstreeks te beschermen. Het falen of slecht functioneren van dergelijke componenten kan direct leiden tot risico’s voor de fysieke integriteit van kritieke infrastructuur en dus tot risico’s voor de gezondheid en veiligheid van personen en eigendommen. Componenten die uitsluitend voor cyberbeveiligingsdoeleinden zijn bestemd, mogen niet als veiligheidscomponenten worden aangemerkt. Voorbeelden van dergelijke veiligheidscomponenten zijn systemen voor de monitoring van de waterdruk of brandalarminstallaties in datacentra voor cloud computing.

Amendement 65

Voorstel voor een verordening

Overweging 35

Door de Commissie voorgestelde tekst

Amendement

(35)

AI-systemen die in het onderwijs of voor beroepsopleidingen worden gebruikt, in het bijzonder voor het verlenen van toegang of het toewijzen van personen aan instellingen voor onderwijs of beroepsopleidingen of voor het evalueren van personen aan de hand van tests of als voorwaarde voor hun onderwijs, moeten als systemen met een hoog risico worden beschouwd, aangezien zij bepalend kunnen zijn voor het onderwijs en de carrière van personen en derhalve voor hun vermogen om in hun levensonderhoud te voorzien. Wanneer dergelijke systemen op ondeugdelijke wijze zijn ontworpen en worden gebruikt, kunnen zij in strijd zijn met het recht op onderwijs en opleiding, alsook met het recht niet te worden gediscrimineerd, en kunnen historische patronen van discriminatie in stand worden gehouden.

(35)

De invoering van AI-systemen in het onderwijs is belangrijk om bij te dragen tot de modernisering van volledige onderwijsstelsels, om de kwaliteit van het onderwijs zowel offline als online te verbeteren en om de ontwikkeling van digitaal onderwijs te versnellen en het daarmee ook voor een breder publiek beschikbaar te maken. AI-systemen die in het onderwijs of voor beroepsopleidingen worden gebruikt, in het bijzonder voor het verlenen van toegang of het uitoefenen van wezenlijke invloed op besluiten over het toelaten of het toewijzen van personen aan instellingen voor onderwijs of beroepsopleidingen of voor het evalueren van personen aan de hand van tests of als voorwaarde voor hun onderwijs of voor de beoordeling van het passende onderwijsniveau voor een persoon en het uitoefenen van wezenlijke invloed op het onderwijsniveau waar die persoon de beschikking over zal hebben of toegang tot kan krijgen of voor het monitoren en opsporen van ongeoorloofd gedrag van studenten tijdens tests , moeten als systemen met een hoog risico worden beschouwd, aangezien zij bepalend kunnen zijn voor het onderwijs en de carrière van personen en derhalve voor hun vermogen om in hun levensonderhoud te voorzien. Wanneer dergelijke systemen op ondeugdelijke wijze zijn ontworpen en worden gebruikt, kunnen zij bijzonder ingrijpend zijn en in strijd zijn met het recht op onderwijs en opleiding, alsook met het recht niet te worden gediscrimineerd, en kunnen historische patronen van discriminatie in stand worden gehouden , bijvoorbeeld ten nadele van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid .

Amendement 66

Voorstel voor een verordening

Overweging 36

Door de Commissie voorgestelde tekst

Amendement

(36)

AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de aanwerving en selectie van personen, voor het nemen van besluiten over de promotie en het ontslag en voor de toewijzing van taken, de monitoring of de evaluatie van personen in werkgerelateerde contractuele betrekkingen, moeten ook als systemen met een hoog risico worden geclassificeerd, aangezien deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen. Relevante werkgerelateerde contractuele betrekkingen moeten werknemers en personen omvatten die via platforms diensten verlenen, zoals bedoeld in het werkprogramma van de Commissie voor 2021. Deze personen worden in beginsel niet beschouwd als gebruikers in de zin van deze verordening. Dergelijke systemen kunnen er in het aanwervingsproces en bij de evaluatie, de promotie of het behoud van personen in werkgerelateerde contractuele betrekkingen toe leiden dat historische patronen van discriminatie blijven bestaan, bijvoorbeeld van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid. AI-systemen die worden gebruikt om de prestaties en het gedrag van deze personen te monitoren, kunnen ook gevolgen hebben voor hun rechten op gegevensbescherming en privacy.

(36)

AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de aanwerving en selectie van personen, voor het nemen van besluiten of het uitoefenen van wezenlijke invloed op de aanstelling, de promotie en het ontslag en voor de gepersonaliseerde toewijzing van taken op basis van individueel gedrag, persoonlijke of biometrische gegevens , de monitoring of de evaluatie van personen in werkgerelateerde contractuele betrekkingen, moeten ook als systemen met een hoog risico worden geclassificeerd, aangezien deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen en de rechten van werknemers . Relevante werkgerelateerde contractuele betrekkingen moeten op zinvolle wijze werknemers en personen omvatten die via platforms diensten verlenen, zoals bedoeld in het werkprogramma van de Commissie voor 2021. Dergelijke systemen kunnen er in het aanwervingsproces en bij de evaluatie, de promotie of het behoud van personen in werkgerelateerde contractuele betrekkingen toe leiden dat historische patronen van discriminatie blijven bestaan, bijvoorbeeld van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid. AI-systemen die worden gebruikt om de prestaties en het gedrag van deze personen te monitoren, kunnen ook de essentie ondermijnen van hun grondrechten op gegevensbescherming en privacy. Deze verordening is van toepassing onverminderd de bevoegdheden van de Unie en de lidstaten om te voorzien in meer specifieke regels voor het gebruik van AI-systemen in het kader van de arbeidsverhouding.

Amendement 67

Voorstel voor een verordening

Overweging 37

Door de Commissie voorgestelde tekst

Amendement

(37)

Een ander gebied waarop het gebruik van AI-systemen bijzondere aandacht verdient, is de toegang tot en het gebruik van bepaalde essentiële particuliere en openbare diensten en uitkeringen die noodzakelijk zijn voor de volledige deelname van personen aan de samenleving of voor het verbeteren van de levensstandaard. In het bijzonder moeten AI-systemen die worden gebruikt om de kredietscore of de kredietwaardigheid van natuurlijke personen te evalueren, worden geclassificeerd als AI-systemen met een hoog risico, aangezien zij bepalend zijn voor de toegang van deze personen tot financiële middelen of essentiële diensten zoals huisvesting, elektriciteit en telecommunicatiediensten. AI-systemen die voor dit doel worden gebruikt, kunnen leiden tot de discriminatie van personen of groepen en historische patronen van discriminatie in stand houden, bijvoorbeeld op basis van raciale of etnische afkomst, handicap, leeftijd of seksuele gerichtheid, of leiden tot nieuwe soorten discriminerende effecten. Gezien de zeer beperkte omvang van de gevolgen en de op de markt beschikbare alternatieven, is het passend om AI-systemen voor de beoordeling van de kredietwaardigheid en kredietscore uit te sluiten wanneer zij door kleine aanbieders voor eigen gebruik in gebruik worden gesteld . Natuurlijke personen die openbare uitkeringen en diensten van overheidsinstanties aanvragen of ontvangen, zijn normaal gesproken afhankelijk van deze uitkeringen en diensten en verkeren in een kwetsbare positie ten opzichte van de verantwoordelijke instanties. Wanneer AI-systemen worden gebruikt om te bepalen of dergelijke uitkeringen en diensten moeten worden geweigerd, beperkt, ingetrokken of teruggevorderd door de instanties, kunnen zij aanzienlijke effecten hebben op het levensonderhoud van personen en in strijd zijn met hun grondrechten, zoals het recht op sociale bescherming, non-discriminatie, menselijke waardigheid of een doeltreffende voorziening in rechte. Deze systemen moeten daarom als systemen met een hoog risico worden geclassificeerd. De verordening mag echter niet leiden tot een belemmering van de ontwikkeling en het gebruik van innovatieve benaderingen bij de overheid, die zou profiteren van een breder gebruik van conforme en veilige AI-systemen, mits deze systemen geen hoog risico met zich meebrengen voor rechtspersonen en natuurlijke personen. Tot slot moeten AI-systemen die worden gebruikt om hulpdiensten uit te sturen of hierbij voorrang te verlenen, ook worden geclassificeerd als systemen met een hoog risico, omdat zij besluiten nemen wanneer het leven en de gezondheid van personen en hun eigendom zich in zeer kritieke situaties bevinden.

(37)

Een ander gebied waarop het gebruik van AI-systemen bijzondere aandacht verdient, is de toegang tot en het gebruik van bepaalde essentiële particuliere en openbare diensten , waaronder de gezondheidszorg en essentiële diensten, met inbegrip van, maar niet beperkt tot huisvesting, elektriciteit, verwarming/koeling en internet, en uitkeringen die noodzakelijk zijn voor de volledige deelname van personen aan de samenleving of voor het verbeteren van de levensstandaard. In het bijzonder moeten AI-systemen die worden gebruikt om de kredietscore of de kredietwaardigheid van natuurlijke personen te evalueren, worden geclassificeerd als AI-systemen met een hoog risico, aangezien zij bepalend zijn voor de toegang van deze personen tot financiële middelen of essentiële diensten zoals huisvesting, elektriciteit en telecommunicatiediensten. AI-systemen die voor dit doel worden gebruikt, kunnen leiden tot de discriminatie van personen of groepen en historische patronen van discriminatie in stand houden, bijvoorbeeld op basis van raciale of etnische afkomst, gender, handicap, leeftijd of seksuele gerichtheid, of leiden tot nieuwe soorten discriminerende effecten. AI-systemen waarin het Unierecht voorziet om fraude bij het aanbieden van financiële diensten op te sporen, mogen echter niet worden beschouwd als AI-systemen met een hoog risico uit hoofde van deze verordening. Natuurlijke personen die openbare uitkeringen en diensten van overheidsinstanties aanvragen of ontvangen, waaronder gezondheidszorg en essentiële diensten, met inbegrip van, maar niet beperkt tot huisvesting, elektriciteit, verwarming/koeling en internet, zijn normaal gesproken afhankelijk van deze uitkeringen en diensten en verkeren in een kwetsbare positie ten opzichte van de verantwoordelijke instanties. Wanneer AI-systemen worden gebruikt om te bepalen of dergelijke uitkeringen en diensten moeten worden geweigerd, beperkt, ingetrokken of teruggevorderd door de instanties, kunnen zij aanzienlijke effecten hebben op het levensonderhoud van personen en in strijd zijn met hun grondrechten, zoals het recht op sociale bescherming, non-discriminatie, menselijke waardigheid of een doeltreffende voorziening in rechte. Evenzo kunnen AI-systemen die bedoeld zijn om te worden gebruikt om beslissingen te nemen of besluiten wezenlijk te beïnvloeden over de vraag of natuurlijke personen in aanmerking komen voor een ziektekosten- en levensverzekering, aanzienlijke gevolgen hebben voor het levensonderhoud van personen en hun grondrechten schenden, bijvoorbeeld door de toegang tot gezondheidszorg te beperken of door discriminatie op grond van persoonlijke kenmerken te bestendigen. Deze systemen moeten daarom als systemen met een hoog risico worden geclassificeerd. De verordening mag echter niet leiden tot een belemmering van de ontwikkeling en het gebruik van innovatieve benaderingen bij de overheid, die zou profiteren van een breder gebruik van conforme en veilige AI-systemen, mits deze systemen geen hoog risico met zich meebrengen voor rechtspersonen en natuurlijke personen. Tot slot moeten AI-systemen die worden gebruikt voor het evalueren en classificeren van noodoproepen van natuurlijke personen of om hulpdiensten uit te sturen of hierbij voorrang te verlenen, ook worden geclassificeerd als systemen met een hoog risico, omdat zij besluiten nemen wanneer het leven en de gezondheid van personen en hun eigendom zich in zeer kritieke situaties bevinden.

Amendement 68

Voorstel voor een verordening

Overweging 37 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(37 bis)

Gezien de rol en de verantwoordelijkheid van de politiële en justitiële autoriteiten en het effect van de beslissingen die zij nemen met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten en de tenuitvoerlegging van straffen, moet sommige specifieke typen gebruik van AI-toepassingen bij rechtshandhaving als risicovol worden aangemerkt, met name in gevallen waarin het leven of de grondrechten van personen aanzienlijk kunnen worden beïnvloed.

Amendement 69

Voorstel voor een verordening

Overweging 38

Door de Commissie voorgestelde tekst

Amendement

(38)

Maatregelen van rechtshandhavingsinstanties waarbij bepaalde toepassingen van AI-systemen worden gebruikt, worden gekenmerkt door een aanzienlijke mate van machtsverschillen en kunnen leiden tot de controle, de arrestatie of de vrijheidsberoving van natuurlijke personen, alsook tot andere negatieve effecten voor de grondrechten die door het Handvest worden gewaarborgd. Met name wanneer het AI-systeem niet is getraind met kwalitatief hoogwaardige data, niet voldoet aan toereikende voorschriften wat betreft de nauwkeurigheid of robuustheid ervan of niet goed is ontworpen en getest voordat het in de handel is gebracht of anderszins in gebruik is gesteld, kan het personen op discriminerende wijze of anderszins onjuiste of onrechtvaardige wijze aanduiden. Bovendien kan de uitoefening van belangrijke procedurele grondrechten, zoals het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, evenals de rechten van de verdediging en het vermoeden van onschuld, worden belemmerd, met name wanneer dergelijke AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd zijn. Het is daarom passend om een aantal AI-systemen dat bedoeld is voor gebruik in de context van rechtshandhaving, waar nauwkeurigheid, betrouwbaarheid en transparantie bijzonder belangrijk zijn om negatieve effecten te voorkomen, het vertrouwen van het publiek te behouden en de verantwoording en doeltreffende voorziening in rechte te waarborgen, als systemen met een hoog risico te classificeren. Met het oog op de aard van de activiteiten in kwestie en de hieraan gerelateerde risico’s moeten deze AI-systemen met een hoog risico met name AI-systemen omvatten die bedoeld zijn om door rechtshandhavingsinstanties te worden gebruikt voor individuele risicobeoordelingen , leugendetectortests en vergelijkbare instrumenten of om de gemoedstoestand van natuurlijke personen te bepalen, om “deep fakes” op te sporen, om de betrouwbaarheid van bewijs in strafprocedures te evalueren , om het plegen of opnieuw plegen van een daadwerkelijk of potentieel strafbaar feit te voorspellen op basis van de profilering van natuurlijke personen , om persoonlijkheidskenmerken of eerder crimineel gedrag van natuurlijke personen of groepen te beoordelen , voor de profilering in de loop van de opsporing, het onderzoek of de vervolging van strafbare feiten, evenals voor misdaadanalyses met betrekking tot natuurlijke personen. AI-systemen die specifiek bedoeld zijn voor gebruik voor administratieve procedures van belasting- en douaneautoriteiten moeten niet worden aangemerkt als AI-systemen met een hoog risico die worden gebruikt door rechtshandhavingsinstanties met het oog op het voorkomen, opsporen, onderzoeken en vervolgen van strafbare feiten.

(38)

Maatregelen van rechtshandhavingsinstanties waarbij bepaalde toepassingen van AI-systemen worden gebruikt, worden gekenmerkt door een aanzienlijke mate van machtsverschillen en kunnen leiden tot de controle, de arrestatie of de vrijheidsberoving van natuurlijke personen, alsook tot andere negatieve effecten voor de grondrechten die door het Handvest worden gewaarborgd. Met name wanneer het AI-systeem niet is getraind met kwalitatief hoogwaardige data, niet voldoet aan toereikende voorschriften wat betreft de prestaties, de nauwkeurigheid of robuustheid ervan of niet goed is ontworpen en getest voordat het in de handel is gebracht of anderszins in gebruik is gesteld, kan het personen op discriminerende wijze of anderszins onjuiste of onrechtvaardige wijze aanduiden. Bovendien kan de uitoefening van belangrijke procedurele grondrechten, zoals het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, evenals de rechten van de verdediging en het vermoeden van onschuld, worden belemmerd, met name wanneer dergelijke AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd zijn. Het is daarom passend om een aantal AI-systemen dat bedoeld is voor gebruik in de context van rechtshandhaving, waar nauwkeurigheid, betrouwbaarheid en transparantie bijzonder belangrijk zijn om negatieve effecten te voorkomen, het vertrouwen van het publiek te behouden en de verantwoording en doeltreffende voorziening in rechte te waarborgen, als systemen met een hoog risico te classificeren. Met het oog op de aard van de activiteiten in kwestie en de hieraan gerelateerde risico’s moeten deze AI-systemen met een hoog risico met name AI-systemen omvatten die bedoeld zijn om door of namens rechtshandhavingsinstanties of instellingen , organen of instanties van de Unie ter ondersteuning van rechtshandhavingsautoriteiten te worden gebruikt voor leugendetectortests en vergelijkbare instrumenten , voor zover het gebruik daarvan op grond van de toepasselijke Unie- of nationale wetgeving is toegestaan , om de betrouwbaarheid van bewijs in strafprocedures te evalueren , voor de profilering in de loop van de opsporing, het onderzoek of de vervolging van strafbare feiten, evenals voor misdaadanalyses met betrekking tot natuurlijke personen. AI-systemen die specifiek bedoeld zijn voor gebruik voor administratieve procedures van belasting- en douaneautoriteiten moeten niet worden geclassificeerd als AI-systemen met een hoog risico die worden gebruikt door rechtshandhavingsinstanties met het oog op het voorkomen, opsporen, onderzoeken en vervolgen van strafbare feiten. Het gebruik van AI-instrumenten door rechtshandhavings- en justitiële autoriteiten mag geen factor van ongelijkheid, sociale breuken of uitsluiting worden. De gevolgen van het gebruik van AI-instrumenten voor de rechten van verdediging van verdachten mogen niet genegeerd worden, met name het probleem om betekenisvolle informatie over de werking daarvan te verkrijgen, en het daaruit voortvloeiende probleem om de resultaten daarvan voor de rechtbank aan te vechten, met name door personen tegen wie een onderzoek loopt.

Amendement 70

Voorstel voor een verordening

Overweging 39

Door de Commissie voorgestelde tekst

Amendement

(39)

AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door de bevoegde overheidsinstanties die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, of om de gemoedstoestand van natuurlijke personen te bepalen , om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen, om de echtheid te controleren van de relevante documenten van natuurlijke personen. om bevoegde overheidsinstanties bij te staan die aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten behandelen met betrekking tot de doelstelling om vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad (49), Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad (50) en andere relevante wetgeving.

(39)

AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door of namens de bevoegde overheidsinstanties of instellingen, organen of instanties van de Unie die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, voor zover het gebruik daarvan in het kader van Unie- en nationale wetgeving is toegestaan , om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen; om de echtheid te controleren van de relevante documenten van natuurlijke personen; om bevoegde overheidsinstanties bij te staan bij het onderzoek naar en de beoordeling van de waarheidsgetrouwheid van bewijsmateriaal en verklaringen met betrekking tot aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten met betrekking tot de doelstelling om vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen ; voor het monitoren, bewaken of verwerken van persoonsgegevens in het kader van grensbeheeractiviteiten, met het oog op het opsporen, herkennen of identificeren van natuurlijke personen; ten behoeve van prognoses of voorspellingen van trends op het gebied van migratiebewegingen en grensoverschrijdingen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad (49), Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad (50) en andere relevante wetgeving. Het gebruik van AI-systemen bij het beheer van migratie, asiel en grenscontroles mag in geen geval door de lidstaten of de instellingen, organen of instanties van de Unie worden gebruikt als middel om hun internationale verplichtingen uit hoofde van het Verdrag betreffende de status van vluchtelingen van 28 juli 1951, zoals gewijzigd bij het Protocol van 31 januari 1967, te omzeilen, noch om op enigerlei wijze inbreuk te maken op het beginsel van non-refoulement of om veilige en doeltreffende legale wegen naar het grondgebied van de Unie te ontzeggen, met inbegrip van het recht op internationale bescherming.

Amendement 71

Voorstel voor een verordening

Overweging 40

Door de Commissie voorgestelde tekst

Amendement

(40)

Bepaalde AI-systemen die bedoeld zijn voor de rechtsbedeling en democratische processen moeten als systemen met een hoog risico worden geclassificeerd gezien hun mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht. Om de risico’s van potentiële vertekeningen, fouten en ondoorzichtigheid aan te pakken, is het met name passend om AI-systemen die bedoeld zijn voor de ondersteuning van gerechtelijke autoriteiten bij het onderzoeken en uitleggen van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, als systemen met een hoog risico aan te merken. Een dergelijke aanmerking omvat echter geen AI-systemen die bedoeld zijn voor louter ondersteunende administratieve activiteiten die geen gevolgen hebben voor de daadwerkelijke rechtsbedeling in afzonderlijke zaken, zoals de anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of data, de communicatie tussen personeelsleden, administratieve taken of de toewijzing van middelen.

(40)

Bepaalde AI-systemen die bedoeld zijn voor de rechtsbedeling en democratische processen moeten als systemen met een hoog risico worden geclassificeerd gezien hun mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht. Om de risico’s van potentiële vertekeningen, fouten en ondoorzichtigheid aan te pakken, is het met name passend om AI-systemen die bedoeld zijn om te worden gebruikt door of namens een rechterlijke instantie of een administratief orgaan voor de ondersteuning van gerechtelijke autoriteiten of administratieve organen bij het onderzoeken en uitleggen van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, of op vergelijkbare wijze kunnen worden gebruikt in het kader van alternatieve geschillenbeslechting, als systemen met een hoog risico aan te merken. Het gebruik van instrumenten op het gebied van artificiële intelligentie kan ondersteuning bieden, maar mag de beslissingsbevoegdheid van rechters of de onafhankelijkheid van de rechterlijke macht niet doorkruisen, aangezien de uiteindelijke besluitvorming een door de mens aangestuurde activiteit en beslissing moet blijven. Een dergelijke aanmerking omvat echter geen AI-systemen die bedoeld zijn voor louter ondersteunende administratieve activiteiten die geen gevolgen hebben voor de daadwerkelijke rechtsbedeling in afzonderlijke zaken, zoals de anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of data, de communicatie tussen personeelsleden, administratieve taken of de toewijzing van middelen.

Amendement 72

Voorstel voor een verordening

Overweging 40 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(40 bis)

Om de risico’s van ongepaste externe inmenging van buitenaf in het in artikel 39 van het Handvest verankerde stemrecht en van onevenredige gevolgen voor democratische processen, democratie en de rechtsstaat aan te pakken, moeten AI-systemen die bedoeld zijn om de uitslag van een verkiezing of referendum of het stemgedrag van natuurlijke personen wanneer zij hun stem uitbrengen bij verkiezingen of referenda te beïnvloeden, worden aangemerkt als AI-systemen met een hoog risico, met uitzondering van AI-systemen waarvan de output niet rechtstreeks is gericht op natuurlijke personen, zoals instrumenten voor het organiseren, optimaliseren en structureren van politieke campagnes vanuit administratief en logistiek oogpunt.

Amendement 73

Voorstel voor een verordening

Overweging 40 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(40 ter)

Gezien de mate waarin natuurlijke personen gebruikmaken van de diensten die worden aangeboden door socialemediaplatforms die zijn aangemerkt als zeer grote onlineplatforms, kunnen dergelijke onlineplatforms zodanig worden gebruikt dat de onlineveiligheid, de vorming van de publieke opinie en het publieke debat, verkiezingen, democratische processen en maatschappelijke kwesties sterk worden beïnvloed. Het is daarom passend dat AI-systemen die in de aanbevelingssystemen van deze onlineplatforms worden gebruikt, onder deze verordening vallen, om ervoor te zorgen dat de AI-systemen voldoen aan de in deze verordening neergelegde voorschriften, waaronder de technische voorschriften inzake databeheer, technische documentatie, traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid. De naleving van deze verordening moet bovengenoemde zeer grote onlineplatforms in staat stellen te voldoen aan hun bredere verplichtingen inzake risicobeoordeling en -beperking uit hoofde van de artikelen 34 en 35 van Verordening (EU) 2022/2065. De in deze verordening neergelegde verplichtingen doen geen afbreuk aan Verordening (EU) 2022/2065 en moeten de verplichtingen uit hoofde van Verordening (EU) 2022/2065 aanvullen wanneer socialemediaplatforms als zeer grote onlineplatforms zijn aangemerkt. Gezien de Uniebrede impact van socialemediaplatforms die als zeer grote onlineplatforms zijn aangemerkt, moeten de op grond van Verordening (EU) 2022/2065 aangewezen autoriteiten met het oog op de handhaving van deze bepaling optreden als handhavingsautoriteiten.

Amendement 74

Voorstel voor een verordening

Overweging 41

Door de Commissie voorgestelde tekst

Amendement

(41)

Het feit dat een AI-systeem uit hoofde van deze verordening als systeem met een hoog risico is geclassificeerd, mag niet aldus worden uitgelegd dat het gebruik van het systeem noodzakelijkerwijs rechtmatig is op grond van andere handelingen van het Unierecht of op grond van intern recht dat verenigbaar is met het Unierecht, zoals met betrekking tot de bescherming van de persoonsgegevens , het gebruik van leugendetectors en vergelijkbare instrumenten of andere systemen voor het bepalen van de gemoedstoestand van natuurlijke personen . Een dergelijk gebruik mag nog steeds uitsluitend plaatsvinden in overeenstemming met de toepasselijke voorschriften die voortvloeien uit het Handvest en de toepasselijke handelingen van secundair Unierecht en intern recht. Deze verordening mag niet aldus worden uitgelegd dat zij voorziet in de rechtsgrondslag voor de verwerking van persoonsgegevens, met inbegrip van bijzondere categorieën persoonsgegevens, waar van toepassing.

(41)

Het feit dat een AI-systeem uit hoofde van deze verordening als AI-systeem met een hoog risico is geclassificeerd, mag niet aldus worden uitgelegd dat het gebruik van het systeem noodzakelijkerwijs rechtmatig of onrechtmatig is op grond van andere handelingen van het Unierecht of op grond van intern recht dat verenigbaar is met het Unierecht, zoals met betrekking tot de bescherming van de persoonsgegevens. Een dergelijk gebruik mag nog steeds uitsluitend plaatsvinden in overeenstemming met de toepasselijke voorschriften die voortvloeien uit het Handvest en de toepasselijke handelingen van secundair Unierecht en intern recht.

Amendement 75

Voorstel voor een verordening

Overweging 41 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(41 bis)

Er bestaat reeds een aantal juridisch bindende regels op Unie-, nationaal en internationaal niveau dat van toepassing is of betrekking heeft op AI-systemen, waaronder, maar niet beperkt tot, het primair Unierecht (de Verdragen van de Europese Unie en het Handvest van de grondrechten van de Europese Unie), het secundair Unierecht (waaronder de algemene verordening gegevensbescherming, de richtlijn productaansprakelijkheid, de verordening inzake het vrije verkeer van niet-persoonsgebonden gegevens, antidiscriminatierichtlijnen, het consumentenrecht en richtlijnen inzake veiligheid en gezondheid op het werk), de mensenrechtenverdragen van de VN en de verdragen van de Raad van Europa (waaronder het Europees Verdrag tot bescherming van de rechten van de mens), alsook het nationaal recht. Naast horizontaal toepasselijke regels bestaan er ook verschillende domeinspecifieke regels die van toepassing zijn op bepaalde AI-toepassingen (zoals de verordening inzake medische hulpmiddelen in de gezondheidszorg).

Amendement 76

Voorstel voor een verordening

Overweging 42

Door de Commissie voorgestelde tekst

Amendement

(42)

Om de risico’s van AI-systemen met een hoog risico die in de Unie in de handel zijn gebracht of op andere wijze in gebruik zijn gesteld voor gebruikers en betrokken personen te beperken, moeten bepaalde verplichte voorschriften van toepassing zijn, rekening houdend met het beoogde doel van het gebruik van het systeem en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld.

(42)

Om de risico’s van AI-systemen met een hoog risico die in de Unie in de handel zijn gebracht of op andere wijze in gebruik zijn gesteld voor exploitanten en betrokken personen te beperken, moeten bepaalde verplichte voorschriften van toepassing zijn, rekening houdend met het beoogde doel en het redelijkerwijs te voorzien misbruik van het systeem, en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld. Deze voorschriften moeten op doelstellingen gebaseerd zijn, geschikt zijn voor het beoogde doel en redelijk en doeltreffend zijn, zonder onnodige extra regeldruk of kosten voor operators.

Amendement 77

Voorstel voor een verordening

Overweging 43

Door de Commissie voorgestelde tekst

Amendement

(43)

Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruikers , menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten waarvan in het licht van het beoogde doel van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.

(43)

Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit en relevantie van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan exploitanten , menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten , alsmede voor het milieu, de democratie en de rechtsstaat, waarvan in het licht van het beoogde doel of redelijkerwijs te voorzien misbruik van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.

Amendement 78

Voorstel voor een verordening

Overweging 44

Door de Commissie voorgestelde tekst

Amendement

(44)

Kwalitatief hoogwaardige data zijn essentieel voor de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datareeksen voor training, validatie en tests vereisen de uitvoering van passende praktijken voor databeheer. datareeksen voor training, validatie en tests moeten voldoende relevant, representatief , foutloos en volledig zijn met het oog op het beoogde doel van het systeem. De datareeksen moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen waarvoor de AI-systemen met een hoog risico moeten worden gebruikt. Ten aanzien van datareeksen voor training, validatie en tests moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, gedrags- of functionele omgeving of context waarin het AI-systeem moet worden gebruikt. Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vertekening (bias) in AI-systemen, moeten aanbieders ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang, teneinde de monitoring, opsporing en correctie van vertekening in verband met AI-systemen met een hoog risico te waarborgen.

(44)

Toegang tot kwalitatief hoogwaardige data is van wezenlijk belang voor het bieden van structuur en het waarborgen van de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datareeksen voor training, validatie en tests vereisen de uitvoering van passende praktijken voor databeheer. Datareeksen voor training en, in voorkomend geval , voor validatie en tests , met inbegrip van de etikettering ervan, moeten voldoende relevant, representatief en zo volledig mogelijk zijn en moeten naar behoren worden doorgelicht op fouten met het oog op het beoogde doel van het systeem. De datareeksen moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen in verband met wie de AI-systemen met een hoog risico moeten worden gebruikt , met bijzondere aandacht voor het tegengaan van mogelijke vertekeningen in de datareeksen, die zouden kunnen leiden tot risico’s voor de grondrechten of tot discriminerende uitkomsten voor de personen die de gevolgen ondervinden van het AI-systeem met een hoog risico . Vertekeningen kunnen bijvoorbeeld inherent zijn aan de onderliggende datareeksen, met name wanneer historische gegevens worden gebruikt, die worden ingevoerd door de ontwikkelaars van de algoritmen of gegenereerd wanneer de systemen in reële omgevingen worden toegepast. De resultaten die door AI-systemen worden aangeboden, worden beïnvloed door dergelijke inherente vertekeningen, die vaak geleidelijk groter worden en daarmee bestaande discriminatie bestendigen en verergeren, met name voor personen die tot bepaalde kwetsbare of etnische groepen of tot geracialiseerde gemeenschappen behoren. Ten aanzien van datareeksen voor training, validatie en tests moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, contextuele gedrags- of functionele omgeving of context waarin het AI-systeem moet worden gebruikt. Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vertekening (bias) in AI-systemen, moeten aanbieders , bij wijze van uitzondering en na toepassing van alle toepasselijke voorwaarden die in deze verordening, alsmede in Verordening (EU) 2016/679, Richtlijn (EU) 2016/680 en Verordening (EU) 2018/1725 zijn neergelegd, ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang, teneinde de opsporing en correctie van vertekening in verband met AI-systemen met een hoog risico te waarborgen. Negatieve vertekening moet worden opgevat als vertekening die directe of indirecte discriminerende effecten met zich meebrengt voor een natuurlijke persoon. Aan de voorschriften inzake databeheer kan worden voldaan door een beroep te doen op derden die gecertificeerde nalevingsdiensten aanbieden, waaronder verificatie van databeheer, integriteit van datareeksen, en gegevenstraining, -validatie en -tests.

Amendement 79

Voorstel voor een verordening

Overweging 45

Door de Commissie voorgestelde tekst

Amendement

(45)

Voor de ontwikkeling van AI-systemen met een hoog risico moeten bepaalde actoren, zoals aanbieders, aangemelde instanties en andere relevante entiteiten, zoals digitale-innovatiehubs, faciliteiten voor tests en experimenten en onderzoekers, toegang hebben tot kwalitatief hoogwaardige datareeksen op de gebieden waarop zij activiteiten verrichten die verband houden met deze verordening en hiervan gebruik kunnen maken. Door de Commissie vastgestelde gemeenschappelijke Europese gegevensruimten en de vergemakkelijking van de gegevensuitwisseling tussen ondernemingen en de overheid in het algemeen belang zullen erg belangrijk zijn voor een betrouwbare, toerekenbare en niet-discriminerende toegang tot kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen. Op het gebied van gezondheid zal de Europese ruimte voor gezondheidsgegevens bijvoorbeeld de niet-discriminerende toegang tot gezondheidsgegevens en de training van algoritmen voor artificiële intelligentie aan de hand van deze datareeksen vergemakkelijken op een wijze die de privacy waarborgt en die veilig, tijdig, transparant en betrouwbaar is, met een passend institutioneel beheer. Relevante bevoegde autoriteiten, waaronder sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, kunnen ook steun verlenen voor het verstrekken van kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen.

(45)

Voor de ontwikkeling en beoordeling van AI-systemen met een hoog risico moeten bepaalde actoren, zoals aanbieders, aangemelde instanties en andere relevante entiteiten, zoals digitale-innovatiehubs, faciliteiten voor tests en experimenten en onderzoekers, toegang hebben tot kwalitatief hoogwaardige datareeksen op de gebieden waarop zij activiteiten verrichten die verband houden met deze verordening en hiervan gebruik kunnen maken. Door de Commissie vastgestelde gemeenschappelijke Europese gegevensruimten en de vergemakkelijking van de gegevensuitwisseling tussen ondernemingen en de overheid in het algemeen belang zullen erg belangrijk zijn voor een betrouwbare, toerekenbare en niet-discriminerende toegang tot kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen. Op het gebied van gezondheid zal de Europese ruimte voor gezondheidsgegevens bijvoorbeeld de niet-discriminerende toegang tot gezondheidsgegevens en de training van algoritmen voor artificiële intelligentie aan de hand van deze datareeksen vergemakkelijken op een wijze die de privacy waarborgt en die veilig, tijdig, transparant en betrouwbaar is, met een passend institutioneel beheer. Relevante bevoegde autoriteiten, waaronder sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, kunnen ook steun verlenen voor het verstrekken van kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen.

Amendement 80

Voorstel voor een verordening

Overweging 45 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(45 bis)

Het recht op privacy en bescherming van persoonsgegevens moet gedurende de hele levenscyclus van het AI-systeem worden gewaarborgd. In dit verband zijn de beginselen van gegevensminimalisatie en gegevensbescherming door ontwerp en door standaardinstellingen, zoals vastgelegd in de wetgeving van de Unie inzake gegevensbescherming, essentieel in gevallen waarin de verwerking van gegevens een significant risico voor de grondrechten van personen met zich meebrengt. Aanbieders en gebruikers van AI-systemen moeten technische en organisatorische maatregelen nemen die in overeenstemming zijn met de stand van de techniek om deze rechten te beschermen. Deze maatregelen moeten niet alleen anonimisering en versleuteling omvatten, maar ook het gebruik van de steeds breder beschikbaar komende technologie die de toepassing van algoritmen op gegevens mogelijk maakt, alsook de vergaring van waardevolle inzichten zonder de uitwisseling van de ruwe of gestructureerde gegevens zelf tussen partijen of het onnodig kopiëren daarvan.

Amendement 81

Voorstel voor een verordening

Overweging 46

Door de Commissie voorgestelde tekst

Amendement

(46)

Informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische informatie moet actueel worden gehouden.

(46)

Begrijpelijke informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische documentatie moet gedurende de levenscyclus van het AI-systeem op gepaste wijze actueel worden gehouden. AI-systemen kunnen tijdens hun levenscyclus een groot milieueffect sorteren en een hoog energieverbruik hebben. De door aanbieders opgestelde technische documentatie moet informatie bevatten over het energieverbruik van het AI-systeem, met inbegrip van het verbruik tijdens de ontwikkeling ervan en het verwachte verbruik tijdens het gebruik ervan, zodat de gevolgen van AI-systemen voor het milieu beter kunnen worden bevat. In deze informatie moet rekening worden gehouden met de wetgeving van de Unie en de lidstaten ter zake. De gerapporteerde informatie moet begrijpelijk, vergelijkbaar en verifieerbaar zijn. De Commissie moet daartoe richtsnoeren opstellen inzake een geharmoniseerde methode voor de berekening en rapportage van de desbetreffende informatie. Om ervoor te zorgen dat slechts één document kan bestaan, moeten begrippen en definities met betrekking tot de vereiste documentatie en alle vereiste documentatie in de wetgeving van de Unie ter zake zoveel mogelijk op elkaar worden afgestemd.

Amendement 82

Voorstel voor een verordening

Overweging 46 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(46 bis)

In AI-systemen moet rekening worden gehouden met methoden die in overeenstemming zijn met de stand van de techniek, alsmede met de toepasselijke normen op dit vlak, zodat het energieverbruik, het hulpbronnengebruik en de productie van afval kunnen worden verminderd en de energie-efficiëntie alsook de algehele efficiëntie van het systeem kunnen worden verhoogd. De milieuaspecten van AI-systemen die van belang zijn voor de toepassing van deze verordening zijn het energieverbruik van het AI-systeem in de ontwikkelings-, training- en uitrolfase, en de registratie, rapportage en opslag van deze gegevens. Het ontwerp van AI-systemen moet het mogelijk maken het verbruik van energie en hulpbronnen in elke fase van de ontwikkeling, rapportage en uitrol te meten en te registreren. De monitoring en rapportage van de uitstoot van AI-systemen moeten robuust, transparant, consequent en nauwkeurig zijn. De Commissie moet, met het oog op de uniforme toepassing van deze verordening en de totstandbrenging van een stabiel juridisch ecosysteem voor aanbieders en exploitanten in de eengemaakte markt, gemeenschappelijke specificaties ontwikkelen voor de methodologie, om te voldoen aan de rapportage- en documentatievoorschriften inzake het verbruik van energie en hulpbronnen tijdens de ontwikkeling, het trainen en de uitrol van het AI-systeem. Deze gemeenschappelijke specificaties voor de meetmethoden kunnen een referentiescenario bieden, op basis waarvan de Commissie beter kan beslissen of in de toekomst regelgevingsmaatregelen nodig zullen zijn, na de uitvoering van een effectbeoordeling waarin de bestaande wetgeving in acht wordt genomen.

Amendement 83

Voorstel voor een verordening

Overweging 46 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(46 ter)

Om de doelstellingen van deze verordening te verwezenlijken en bij te dragen tot de milieudoelstellingen van de Unie, zonder de goede werking van de interne markt uit het oog te verliezen, kan het nodig zijn om aanbevelingen en richtsnoeren, en uiteindelijk ook duurzaamheidsstreefcijfers, vast te stellen. Daartoe mag de Commissie een methode ontwikkelen om bij te dragen aan de kernprestatie-indicatoren (KPI’s) en een referentie voor de duurzameontwikkelingsdoelstellingen (Sustainable Development Goals — SDG’s). Het doel moet er in de eerste plaats in bestaan eerlijke vergelijking tussen keuzes bij de uitvoering van AI mogelijk te maken die stimulansen bieden ter bevordering van het gebruik van efficiëntere AI-technologieën om problemen op het gebied van energie en hulpbronnen aan te pakken. Deze verordening moet voorzien in de middelen die nodig zijn om een basisverzameling aan te leggen van gerapporteerde gegevens over de uitstoot van de systemen tijdens de ontwikkelings-, training- en uitrolfase.

Amendement 84

Voorstel voor een verordening

Overweging 47 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(47 bis)

Deze voorschriften inzake transparantie en verklaarbaarheid van AI-beslissingen moeten ook de afschrikkende gevolgen helpen vermijden van digitale asymmetrie en zogenoemde “dark patterns”, die gericht zijn op personen en hun geïnformeerde toestemming.

Amendement 85

Voorstel voor een verordening

Overweging 49

Door de Commissie voorgestelde tekst

Amendement

(49)

AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in overeenstemming met de algemeen erkende stand van de techniek. De mate van nauwkeurigheid en de maatstaven voor de nauwkeurigheid moeten aan de gebruikers worden meegedeeld.

(49)

AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in overeenstemming met de algemeen erkende stand van de techniek. De prestatiestatistieken en het verwachte niveau ervan moeten worden gedefinieerd, met als voornaamste doel de risico’s en de negatieve gevolgen van het AI-systeem te beperken. Het verwachte niveau van de prestatiestatistieken moet op een duidelijke, transparante, gemakkelijk begrijpelijke en inzichtelijke manier aan de exploitanten worden meegedeeld. Het opgeven van prestatiestatistieken mag niet worden beschouwd als bewijs van toekomstige niveaus. Er moeten relevante methoden worden gebruikt om ervoor te zorgen dat de niveaus tijdens het gebruik consistent blijven. Er bestaan weliswaar normalisatieorganisaties om normen vast te stellen, maar er is niettemin behoefte aan coördinatie inzake benchmarking om te bepalen hoe deze genormaliseerde voorschriften en kenmerken van AI-systemen moeten worden gemeten. Het Europees Bureau voor artificiële intelligentie (hierna “het AI-bureau”) moet nationale en internationale metrologie- en benchmarkingautoriteiten samenbrengen en niet-bindende richtsnoeren verstrekken inzake de technische aspecten van het meten van het juiste prestatieniveau en de juiste mate van robuustheid.

Amendement 86

Voorstel voor een verordening

Overweging 50

Door de Commissie voorgestelde tekst

Amendement

(50)

De technische robuustheid is een essentieel voorschrift voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen risico’s in verband met de beperkingen van het systeem (bv. fouten, onregelmatigheden, onverwachte situaties) en tegen kwaadwillige acties die de beveiliging van het AI-systeem in gevaar kunnen brengen en kunnen leiden tot schadelijk of anderszins ongewenst gedrag. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd.

(50)

De technische robuustheid is een essentieel voorschrift voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen risico’s in verband met de beperkingen van het systeem (bv. fouten, onregelmatigheden, onverwachte situaties) en tegen kwaadwillige acties die de beveiliging van het AI-systeem in gevaar kunnen brengen en kunnen leiden tot schadelijk of anderszins ongewenst gedrag. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd. Gebruikers van het AI-systeem moeten stappen ondernemen om ervoor te zorgen dat de mogelijke afweging tussen robuustheid en nauwkeurigheid niet leidt tot discriminerende of negatieve resultaten voor subgroepen van minderheden.

Amendement 87

Voorstel voor een verordening

Overweging 51

Door de Commissie voorgestelde tekst

Amendement

(51)

Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals datareeksen voor training (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico derhalve passende maatregelen nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur.

(51)

Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals datareeksen voor training (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen of aanvallen om vertrouwelijke gegevens te bemachtigen ), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico , alsmede de aangemelde instanties, bevoegde nationale autoriteiten en autoriteiten voor markttoezicht, derhalve passende maatregelen nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur. AI-systemen met een hoog risico moeten gedurende de hele levenscyclus van het product, of, indien er geen sprake is van afhankelijkheid van een bepaald product, gedurende een door de producent te vermelden periode, worden ondersteund met beveiligingsoplossingen en -patches.

Amendement 88

Voorstel voor een verordening

Overweging 53 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(53 bis)

Als ondertekenaars van het Verdrag van de Verenigde Naties inzake de rechten van personen met een handicap (UNCRPD) zijn de Unie en de lidstaten wettelijk verplicht personen met een handicap te beschermen tegen discriminatie en hun gelijkheid te bevorderen, ervoor te zorgen dat personen met een handicap op voet van gelijkheid met anderen toegang hebben tot informatie- en communicatietechnologieën en -systemen, en de eerbiediging van de privacy van personen met een handicap te waarborgen. Gezien het toenemende belang en gebruik van AI-systemen moet de toepassing van universele ontwerpbeginselen op alle nieuwe technologieën en diensten zorgen voor volledige, gelijke en onbeperkte toegang voor iedereen die mogelijk gevolgen ondervindt van of gebruikmaakt van AI-technologieën, met inbegrip van personen met een handicap, op een manier waarbij ten volle rekening wordt gehouden met hun inherente waardigheid en diversiteit. Het is daarom van essentieel belang dat aanbieders ervoor zorgen dat zij voldoen aan de toegankelijkheidsvoorschriften, alsook aan Richtlijn (EU) 2016/2102 en Richtlijn (EU) 2019/882. Aanbieders moeten ervoor zorgen dat door ontwerp aan deze voorschriften wordt voldaan. De nodige maatregelen moeten daarom zo goed mogelijk in het ontwerp van AI-systemen met een hoog risico worden geïntegreerd.

Amendement 89

Voorstel voor een verordening

Overweging 54

Door de Commissie voorgestelde tekst

Amendement

(54)

De aanbieder moet een gedegen systeem voor kwaliteitsbeheer vaststellen, zorgen voor het doorlopen van de vereiste conformiteitsbeoordelingsprocedure, de relevante documentatie opstellen en een robuust systeem vaststellen voor monitoring na het in de handel brengen. Overheidsinstanties die AI-systemen met een hoog risico in gebruik stellen voor eigen gebruik mogen de regels voor het systeem voor kwaliteitsbeheer goedkeuren en uitvoeren als onderdeel van het systeem voor kwaliteitsbeheer dat, naargelang het geval, op nationaal of regionaal niveau is goedgekeurd, rekening houdend met de specifieke kenmerken van de sector en de competenties en organisatie van de overheidsinstantie in kwestie.

(54)

De aanbieder moet een gedegen systeem voor kwaliteitsbeheer vaststellen, zorgen voor het doorlopen van de vereiste conformiteitsbeoordelingsprocedure, de relevante documentatie opstellen en een robuust systeem vaststellen voor monitoring na het in de handel brengen. Van aanbieders die reeds beschikken over systemen voor kwaliteitsbeheer die gebaseerd zijn op normen zoals ISO 9001 of andere relevante normen wordt niet verwacht dat zij een volledig tweede systeem voor kwaliteitsbeheer instellen. In plaats daarvan moeten zij hun bestaande systemen afstemmen op bepaalde aspecten die verband houden met de naleving van bepaalde specifieke voorschriften van deze verordening. Dit moet ook terugkomen in nieuwe normalisatieactiviteiten of -richtsnoeren die de Commissie in dit verband vaststelt. Overheidsinstanties die AI-systemen met een hoog risico in gebruik stellen voor eigen gebruik mogen de regels voor het systeem voor kwaliteitsbeheer goedkeuren en uitvoeren als onderdeel van het systeem voor kwaliteitsbeheer dat, naargelang het geval, op nationaal of regionaal niveau is goedgekeurd, rekening houdend met de specifieke kenmerken van de sector en de competenties en organisatie van de overheidsinstantie in kwestie.

Amendement 90

Voorstel voor een verordening

Overweging 56

Door de Commissie voorgestelde tekst

Amendement

(56)

Om de handhaving van deze verordening mogelijk te maken en te zorgen voor een gelijk speelveld voor exploitanten en rekening houdend met de verschillende vormen waarin digitale producten beschikbaar kunnen worden gemaakt, is het van belang dat onder alle omstandigheden wordt gewaarborgd dat een persoon die in de Unie is gevestigd de autoriteiten alle noodzakelijke informatie kan verstrekken over de conformiteit van een AI-systeem. Voordat zij hun AI-systemen beschikbaar maken in de Unie, wijzen aanbieders die buiten de Unie zijn gevestigd in gevallen waarin geen importeur kan worden vastgesteld derhalve per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.

(56)

Om de handhaving van deze verordening mogelijk te maken en te zorgen voor een gelijk speelveld voor operators en rekening houdend met de verschillende vormen waarin digitale producten beschikbaar kunnen worden gemaakt, is het van belang dat onder alle omstandigheden wordt gewaarborgd dat een persoon die in de Unie is gevestigd de autoriteiten alle noodzakelijke informatie kan verstrekken over de conformiteit van een AI-systeem. Voordat zij hun AI-systemen beschikbaar maken in de Unie, wijzen aanbieders die buiten de Unie zijn gevestigd derhalve per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.

Amendement 91

Voorstel voor een verordening

Overweging 58

Door de Commissie voorgestelde tekst

Amendement

(58)

Gezien de aard van AI-systemen en de risico’s voor de veiligheid en de grondrechten die mogelijk gepaard gaan met het gebruik hiervan, onder meer met betrekking tot de noodzaak om een behoorlijke monitoring van de prestaties van een AI-systeem in de praktijk te waarborgen, is het passend om specifieke verantwoordelijkheden voor gebruikers vast te stellen. In het bijzonder moeten gebruikers AI-systemen met een hoog risico gebruiken in overeenstemming met de gebruiksaanwijzingen en moeten, waar passend, bepaalde andere verplichtingen worden vastgesteld met betrekking tot de monitoring van de werking van AI-systemen en met betrekking tot de registratie.

(58)

Gezien de aard van AI-systemen en de risico’s voor de veiligheid en de grondrechten die mogelijk gepaard gaan met het gebruik hiervan, onder meer met betrekking tot de noodzaak om een behoorlijke monitoring van de prestaties van een AI-systeem in de praktijk te waarborgen, is het passend om specifieke verantwoordelijkheden voor exploitanten vast te stellen. In het bijzonder moeten exploitanten AI-systemen met een hoog risico gebruiken in overeenstemming met de gebruiksinstructies en moeten, waar passend, bepaalde andere verplichtingen worden vastgesteld met betrekking tot de monitoring van de werking van AI-systemen en met betrekking tot de registratie.

Amendement 92

Voorstel voor een verordening

Overweging 58 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(58 bis)

Hoewel aan AI-systemen verbonden risico’s kunnen voortvloeien uit de manier waarop dergelijke systemen worden ontworpen, kunnen de risico’s ook voortvloeien uit de manier waarop dergelijke AI-systemen worden gebruikt. Exploitanten van AI-systemen met een hoog risico spelen daarom een cruciale rol bij het waarborgen van de bescherming van de grondrechten, in aanvulling op de verplichtingen van de aanbieder bij de ontwikkeling van het AI-systeem. Exploitanten zijn het best in staat om te begrijpen hoe het AI-systeem met een hoog risico concreet zal worden gebruikt en kunnen derhalve potentiële significante risico’s identificeren die niet in de ontwikkelingsfase waren voorzien, dankzij een preciezere kennis van de gebruikscontext, de mensen of groepen mensen die waarschijnlijk zullen worden geraakt, met inbegrip van gemarginaliseerde en kwetsbare groepen. Exploitanten moeten passende beheersstructuren voor dit specifieke gebruik in kaart brengen, zoals regelingen voor menselijk toezicht, klachtenprocedures en beroepsprocedures, omdat keuzes met betrekking tot de beheersstructuren een cruciale rol kunnen spelen bij de beperking van risico’s voor de grondrechten in gevallen van concreet gebruik. Om op efficiënte wijze te waarborgen dat de grondrechten worden beschermd, moet de exploitant van AI-systemen met een hoog risico daarom een effectbeoordeling op het gebied van de grondrechten uitvoeren voordat de systemen in gebruik worden gesteld. De effectbeoordeling moet vergezeld gaan van een gedetailleerd plan dat een beschrijving omvat van de maatregelen of instrumenten die de risico’s voor de grondrechten moeten helpen beperken die uiterlijk op het moment van ingebruikstelling zijn vastgesteld. Als dit plan niet kan worden vastgesteld, mag de exploitant het systeem niet in gebruik stellen. De exploitant stelt de nationale toezichthoudende autoriteit en, zo veel als mogelijk, de betrokken belanghebbenden en vertegenwoordigers van de personen of groepen die waarschijnlijk de gevolgen zullen ondervinden van het AI-systeem, op de hoogte om informatie ter zake te verzamelen die noodzakelijk wordt geacht voor de uitvoering van de effectbeoordeling. Exploitanten worden ertoe aangespoord een samenvatting van hun effectbeoordeling op het gebied van de grondrechten openbaar te maken op hun website. Deze verplichtingen mogen niet gelden voor kmo’s, waarvoor het vanwege een gebrek aan middelen moeilijker kan zijn om een dergelijke raadpleging uit te voeren. Zij moeten er evenwel naar streven bovengenoemde vertegenwoordigers bij het proces te betrekken wanneer zij hun effectbeoordeling op het gebied van de grondrechten uitvoeren. Voorts moeten exploitanten van AI-systemen met een hoog risico die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, alsmede exploitanten die ondernemingen zijn die op grond van Verordening (EU) 2022/1925 zijn aangewezen als poortwachter, met het oog op de potentiële gevolgen en de noodzaak van democratisch toezicht en democratische controle, het gebruik van AI-systemen met een hoog risico in een openbare databank registreren. Andere exploitanten kunnen zich vrijwillig registreren.

Amendement 93

Voorstel voor een verordening

Overweging 59

Door de Commissie voorgestelde tekst

Amendement

(59)

Het is passend om te bepalen dat de gebruiker van het AI-systeem de natuurlijke of rechtspersoon, de overheidsinstantie, het agentschap of een ander orgaan moet zijn die/dat verantwoordelijk is voor het gebruik van het AI-systeem, tenzij het gebruik plaatsvindt in de loop van een persoonlijke, niet-beroepsactiviteit.

(59)

Het is passend om te bepalen dat de exploitant van het AI-systeem de natuurlijke of rechtspersoon, de overheidsinstantie, het agentschap of een ander orgaan moet zijn die/dat verantwoordelijk is voor het gebruik van het AI-systeem, tenzij het gebruik plaatsvindt in de loop van een persoonlijke, niet-beroepsactiviteit.

Amendement 94

Voorstel voor een verordening

Overweging 60

Door de Commissie voorgestelde tekst

Amendement

(60)

Gezien de complexiteit van de waardeketen voor artificiële intelligentie moeten relevante derde partijen, en met name de partijen die zijn betrokken bij de verkoop en de levering van de software, softwarehulpmiddelen en -onderdelen, vooraf getrainde modellen en data , of aanbieders van netwerkdiensten waar passend samenwerken met aanbieders en gebruikers om hun naleving van de verplichtingen uit hoofde van deze verordening mogelijk te maken en met de bevoegde autoriteiten zoals vastgesteld in het kader van deze verordening.

(60)

Binnen de AI-waardeketen worden vaak door meerdere entiteiten instrumenten en diensten geleverd, alsook onderdelen of processen, die vervolgens door de aanbieder in het AI-systeem worden geïntegreerd, onder meer met betrekking tot de verzameling en de voorverwerking van gegevens, het (opnieuw) trainen, testen en evalueren van modellen, de integratie in software, of andere aspecten van modelontwikkeling. De betrokken entiteiten kunnen hun aanbod direct of indirect commercieel beschikbaar stellen via interfaces, zoals applicatieprogramma-interfaces (API’s), en distribueren in het kader van vrije en open bronlicenties, maar ook steeds vaker door middel van AI-werknemersplatforms, de doorverkoop van getrainde parameters, doe-het-zelf-pakketten voor het bouwen van modellen of het aanbieden van betaalde toegang tot architectuur voor model serving om modellen te ontwikkelen en te trainen. Gezien deze complexiteit van de AI-waardeketen moeten alle relevante derde partijen, en met name de partijen die zijn betrokken bij de ontwikkeling, de verkoop en de commerciële levering van softwarehulpmiddelen, -onderdelen, vooraf getrainde modellen of in het AI-systeem geïntegreerde gegevens , of aanbieders van netwerkdiensten , zonder afbreuk te doen aan hun eigen intellectuele-eigendomsrechten of bedrijfsgeheimen, de vereiste informatie, training of expertise verstrekken en, waar passend, samenwerken met aanbieders om hun controle over alle naleving van de desbetreffende aspecten van het AI-systeem die onder deze verordening vallen, mogelijk te maken . Om kosteneffectief beheer van de AI-waardeketen mogelijk te maken, wordt de mate van controle uitdrukkelijk bekendgemaakt door elke derde partij die instrumenten, diensten, onderdelen of processen levert aan de aanbieder die vervolgens door de aanbieder worden geïntegreerd in het AI-systeem.

Amendement 95

Voorstel voor een verordening

Overweging 60 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 bis)

Wanneer een van de partijen een sterkere onderhandelingspositie heeft, bestaat het risico dat die partij haar positie ten nadele van de andere contractpartij gebruikt bij onderhandelingen over de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of over de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen. Dergelijke contractuele onevenwichtigheden zijn met name schadelijk voor micro-, kleine en middelgrote ondernemingen, alsook voor startende ondernemingen, tenzij deze eigendom zijn van of worden uitbesteed door een onderneming die in staat is de onderaannemer op passende wijze te compenseren, aangezien laatstgenoemde geen reële mogelijkheid heeft om over de voorwaarden van de contractuele overeenkomst te onderhandelen en wellicht geen andere keuze heeft dan de “graag of niet”-contractvoorwaarden te aanvaarden. Oneerlijke contractvoorwaarden die de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen regelen, mogen daarom niet bindend zijn voor dergelijke micro-, kleine en middelgrote ondernemingen en startende ondernemingen wanneer de voorwaarden eenzijdig aan deze ondernemingen zijn opgelegd.

Amendement 96

Voorstel voor een verordening

Overweging 60 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 ter)

In de regels inzake contractvoorwaarden moet rekening worden gehouden met het beginsel van contractvrijheid als essentieel concept in de relaties tussen ondernemingen. Daarom moeten niet alle contractvoorwaarden aan een oneerlijkheidstoets worden onderworpen, maar alleen voorwaarden die eenzijdig aan micro-, kleine en middelgrote ondernemingen en startende ondernemingen worden opgelegd. Het gaat daarbij om situaties waarin een partij een bepaalde contractvoorwaarde voorstelt en de micro-, kleine of middelgrote onderneming of de startende onderneming geen invloed kan uitoefenen op de inhoud van die voorwaarde, ondanks een poging om erover te onderhandelen. Een contractvoorwaarde die door één partij wordt voorgesteld en door de micro-, kleine of middelgrote onderneming of de startende onderneming is aanvaard, of een voorwaarde waarover is onderhandeld en die vervolgens in gewijzigde vorm tussen de contractpartijen is overeengekomen, mag niet als eenzijdig opgelegd worden beschouwd.

Amendement 97

Voorstel voor een verordening

Overweging 60 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 quater)

Voorts moeten de regels inzake oneerlijke contractvoorwaarden alleen van toepassing zijn op de elementen van contracten die betrekking hebben op de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of op de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen. Andere delen van hetzelfde contract die geen verband houden met deze elementen, mogen niet aan de in deze verordening vastgestelde oneerlijkheidstoets worden onderworpen.

Amendement 98

Voorstel voor een verordening

Overweging 60 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 quinquies)

Criteria voor de vaststelling van oneerlijke contractvoorwaarden mogen alleen worden toegepast op buitensporige contractvoorwaarden, waarmee misbruik wordt gemaakt van een sterkere onderhandelingspositie. De overgrote meerderheid van de contractvoorwaarden die vanuit commercieel oogpunt gunstiger zijn voor de ene partij dan voor de andere, waaronder voorwaarden die gebruikelijk zijn in overeenkomsten tussen ondernemingen, zijn een normale uitdrukking van het beginsel van contractvrijheid en blijven van toepassing. Als een contractvoorwaarde niet is opgenomen in de lijst van voorwaarden die altijd als oneerlijk worden beschouwd, is de algemene oneerlijkheidsbepaling van toepassing. In dit verband moeten de als oneerlijk aangemerkte voorwaarden als maatstaf dienen voor de interpretatie van de algemene oneerlijkheidsbepaling.

Amendement 99

Voorstel voor een verordening

Overweging 60 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 sexies)

Basismodellen zijn een recente ontwikkeling, waarbij AI-modellen worden ontwikkeld op basis van algoritmen die zijn ontworpen om de algemeenheid en veelzijdigheid van de output te optimaliseren. Deze modellen worden vaak getraind met een breed scala aan gegevensbronnen en grote hoeveelheden gegevens om een breed scala aan downstreamtaken te verwezenlijken, waaronder taken waarvoor de modellen niet specifiek zijn ontwikkeld en getraind. Het basismodel kan uni- of multimodaal zijn en wordt getraind door middel van verschillende methoden, waaronder gecontroleerd leren en versterkend leren. AI-systemen met een specifiek beoogd doel of AI-systemen voor algemene doeleinden kunnen een uitvoering van een basismodel zijn, wat inhoudt dat elk basismodel in talloze downstream-AI-systemen of AI-systemen voor algemene doeleinden kan worden hergebruikt. Deze modellen zijn van toenemend belang voor veel downstreamtoepassingen en -systemen.

Amendement 100

Voorstel voor een verordening

Overweging 60 septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 septies)

In het geval van basismodellen die als dienst worden verleend, bijvoorbeeld door toegang te verlenen tot een API, moet de samenwerking met downstreamaanbieders doorlopen tot de dienst niet langer wordt verleend en ondersteund, om ervoor te zorgen dat de risico’s op passende wijze kunnen worden beperkt, tenzij de aanbieder van het basismodel zowel het trainingmodel als uitgebreide, passende informatie verstrekt over de datareeksen en het ontwikkelingsproces van het systeem of de dienst, zoals de verlening van toegang tot een API, zodanig beperkt dat de downstreamaanbieder volledig aan deze verordening kan voldoen zonder verdere ondersteuning van de oorspronkelijke aanbieder van het basismodel.

Amendement 101

Voorstel voor een verordening

Overweging 60 octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 octies)

In het licht van de aard en complexiteit van de waardeketen voor AI-systemen is het van essentieel belang de rol te verduidelijken van de actoren die bijdragen tot de ontwikkeling van AI-systemen. Er bestaat aanzienlijke onzekerheid over de manier waarop basismodellen zich zullen ontwikkelen, zowel wat de typologie van modellen als zelfbestuur betreft. Het is daarom van essentieel belang de juridische situatie van aanbieders van basismodellen te verduidelijken. Naast hun complexiteit en onverwachte impact, het gebrek van downstreamaanbieders van AI aan controle over de ontwikkeling van het basismodel en de daaruit voortvloeiende machtsongelijkheid, en met het oog op de waarborging van een eerlijke verdeling van de verantwoordelijkheden in de AI-waardeketen, moeten deze modellen worden onderworpen aan evenredige en specifiekere voorschriften en verplichtingen uit hoofde van deze verordening. Basismodellen moeten door passend ontwerp en door passende tests en analyses potentiële risico’s en gevaren kunnen beoordelen en beperken, maatregelen inzake databeheer kunnen treffen, onder meer voor de beoordeling van vertekeningen, en voldoen aan de technische ontwerpvoorschriften ter waarborging van het juiste prestatieniveau en de juiste mate van voorspelbaarheid, interpreteerbaarheid, corrigeerbaarheid, veiligheid en cyberbeveiliging, alsook aan de milieunormen. Deze verplichtingen moeten vergezeld gaan van normen. Basismodellen moeten bovendien een informatieverplichting hebben en alle vereiste technische documentatie opstellen om potentiële downstreamaanbieders in staat te stellen aan hun verplichtingen uit hoofde van deze verordening te voldoen. Generatieve basismodellen moeten zorgen voor transparantie met betrekking tot het feit dat de inhoud niet wordt gegenereerd door mensen maar door een AI-systeem. Deze specifieke voorschriften en verplichtingen volstaan niet om basismodellen te beschouwen als AI-systemen met een hoog risico. Zij moeten ervoor zorgen dat de doelstellingen van deze verordening om een hoog niveau van bescherming van de grondrechten, gezondheid en veiligheid, het milieu, de democratie en de rechtsstaat te waarborgen, worden verwezenlijkt. Vooraf getrainde modellen die zijn ontwikkeld voor een kleiner, minder algemeen en beperkter aantal toepassingen en niet voor een breder scala aan taken kunnen worden aangepast, zoals eenvoudige AI-systemen voor meerdere doeleinden, mogen voor de toepassing van deze verordening niet als basismodellen worden beschouwd, omdat ze beter te interpreteren zijn en hun gedrag daarmee minder onvoorspelbaar is.

Amendement 102

Voorstel voor een verordening

Overweging 60 nonies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(60 nonies)

Gezien de aard van basismodellen ontbreekt het aan deskundigheid op het gebied van conformiteitsbeoordeling en worden de auditmethoden voor derden nog altijd ontwikkeld. Daarom worden er in de sector zelf nieuwe manieren ontwikkeld om fundamentele modellen te beoordelen die gedeeltelijk aan de auditdoelstelling voldoen (zoals modelbeoordeling, red teaming en verificatie- en validatietechnieken voor machinaal leren). Deze interne beoordelingen voor basismodellen moeten breed toepasbaar zijn (bv. onafhankelijk van distributiekanalen, modaliteit en ontwikkelingsmethoden) om de specifieke risico’s van dergelijke modellen aan te pakken, rekening houdend met de praktijken in de sector die in overeenstemming zijn met de stand van de techniek, en moeten gericht zijn op de totstandbrenging van voldoende technisch inzicht in en controle over het model, het beheer van redelijkerwijs te voorziene risico’s, en uitgebreide analyse en toetsing van het model door middel van passende maatregelen, bijvoorbeeld met de hulp van onafhankelijke beoordelaars. Aangezien basismodellen een nieuwe en snel evoluerende ontwikkeling zijn op het gebied van artificiële intelligentie, is het passend dat de Commissie en het AI-bureau het wetgevings- en beheerskader van deze modellen periodiek monitoren en beoordelen, met name waar het generatieve AI-systemen betreft die op dergelijke modellen gebaseerd zijn, wat belangrijke vragen doet rijzen over de generatie van inhoud die in strijd is met het Unierecht, de regels inzake auteursrecht en mogelijk misbruik. Niettemin moet worden verduidelijkt dat deze verordening geen afbreuk mag doen aan wetgeving van de Unie inzake auteursrecht en aanverwante rechten, waaronder Richtlijn 2001/29/EG, Richtlijn 2004/48/EG en Richtlijn (EU) 2019/790.

Amendement 103

Voorstel voor een verordening

Overweging 61

Door de Commissie voorgestelde tekst

Amendement

(61)

Normalisatie moet een belangrijke rol spelen bij de levering van technische oplossingen aan aanbieders om de naleving van deze verordening te waarborgen. De naleving van geharmoniseerde normen, zoals gedefinieerd in Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad (54), moet een middel zijn voor aanbieders om de overeenstemming met de voorschriften van deze verordening aan te tonen. De Commissie zou echter gemeenschappelijke technische specificaties kunnen vaststellen op gebieden waarop geen geharmoniseerde normen bestaan of waarop deze ontoereikend zijn .

(61)

Normalisatie moet een belangrijke rol spelen bij de levering van technische oplossingen aan aanbieders om de naleving van deze verordening te waarborgen. De naleving van geharmoniseerde normen, zoals gedefinieerd in Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad (54), moet een middel zijn voor aanbieders om de overeenstemming met de voorschriften van deze verordening aan te tonen. Om de doeltreffendheid van normen als beleidsinstrument voor de Unie te garanderen, en gezien het belang van normen voor het waarborgen van conformiteit met de voorschriften van deze verordening en voor het concurrentievermogen van ondernemingen, moet voor een evenwichtige belangenvertegenwoordiging worden gezorgd door alle belanghebbende partijen bij de vaststelling van normen te betrekken . Het normalisatieproces moet transparant zijn wat betreft de rechtspersonen en natuurlijke personen die aan de normalisatieactiviteiten deelnemen.

Amendement 104

Voorstel voor een verordening

Overweging 61 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(61 bis)

Om de naleving te vergemakkelijken, moeten de eerste normalisatieverzoeken uiterlijk twee maanden na de inwerkingtreding van deze verordening door de Commissie worden ingediend. Dit moet de rechtszekerheid verbeteren en daarmee investeringen en innovatie op het gebied van AI stimuleren, alsook het concurrentievermogen en de groei van de markt van de Unie, en het beheer door meerdere belanghebbenden bevorderen die de betrokken Europese belanghebbenden vertegenwoordigen, zoals het AI-bureau, Europese normalisatie-instellingen en -organen of krachtens de sectorale wetgeving van de Unie ingestelde deskundigengroepen, alsook de sector, kmo’s, startende ondernemingen, maatschappelijke organisaties, onderzoekers en sociale partners, en moet uiteindelijk de wereldwijde samenwerking bij de normalisatie op het gebied van AI vergemakkelijken, met inachtneming van de waarden van de Unie. Bij het opstellen van normalisatieverzoeken moet de Commissie het AI-bureau en het adviesforum voor AI raadplegen om de nodige expertise in te winnen.

Amendement 105

Voorstel voor een verordening

Overweging 61 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(61 ter)

Wanneer AI-systemen bedoeld zijn voor gebruik op de werkplek, moeten geharmoniseerde normen beperkt zijn tot technische specificaties en procedures.

Amendement 106

Voorstel voor een verordening

Overweging 61 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(61 quater)

De Commissie moet onder bepaalde voorwaarden gemeenschappelijke specificaties kunnen vaststellen wanneer er geen relevante geharmoniseerde norm bestaat of om specifieke problemen op het gebied van de grondrechten aan te pakken. De Commissie moet gedurende het hele ontwerpproces regelmatig overleg plegen met het AI-bureau en zijn adviesforum, met Europese normalisatie-instellingen en -organen of krachtens de sectorale wetgeving van de Unie ingestelde deskundigengroepen, en met de betrokken belanghebbenden, waaronder de sector, kmo’s, startende ondernemingen, maatschappelijke organisaties, onderzoekers en sociale partners.

Amendement 107

Voorstel voor een verordening

Overweging 61 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(61 quinquies)

De Commissie moet bij de vaststelling van gemeenschappelijke specificaties streven naar afstemming van de regelgeving op het gebied van AI met gelijkgestemde partners, wat van cruciaal belang is voor het stimuleren van innovatie en grensoverschrijdende partnerschappen op het gebied van AI, aangezien coördinatie met gelijkgestemde partners in internationale normalisatie-instellingen van groot belang is.

Amendement 108

Voorstel voor een verordening

Overweging 62

Door de Commissie voorgestelde tekst

Amendement

(62)

Om te zorgen voor een hoog niveau van betrouwbaarheid van AI-systemen met een hoog risico, moeten deze systemen worden onderworpen aan een conformiteitsbeoordeling voordat zij in de handel worden gebracht of in gebruik worden gesteld.

(62)

Om te zorgen voor een hoog niveau van betrouwbaarheid van AI-systemen met een hoog risico, moeten deze systemen worden onderworpen aan een conformiteitsbeoordeling voordat zij in de handel worden gebracht of in gebruik worden gesteld. Om het vertrouwen in de waardeketen te vergroten en bedrijven zekerheid te bieden over de prestaties van hun systemen, kunnen derden die AI-onderdelen leveren vrijwillig een conformiteitsbeoordeling door derden aanvragen.

Amendement 109

Voorstel voor een verordening

Overweging 64

Door de Commissie voorgestelde tekst

Amendement

(64)

Gezien de uitgebreidere ervaring van personen die professionele certificeringen vóór het in de handel brengen uitvoeren op het gebied van productveiligheid en de andere aard van risico’s die hiermee gepaard gaan, is het passend om, in ieder geval in een eerste fase van de toepassing van deze verordening, het toepassingsgebied van conformiteitsbeoordelingen van derden voor AI-systemen met een hoog risico die geen verband houden met producten te beperken. De conformiteitsbeoordeling van dergelijke systemen moet derhalve als algemene regel door de aanbieder onder eigen verantwoordelijkheid worden uitgevoerd, met als enige uitzondering AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie van personen op afstand, ten aanzien waarvan een aangemelde instantie moet worden betrokken bij de conformiteitsbeoordeling, voor zover deze systemen niet verboden zijn.

(64)

Gezien de complexiteit van AI-systemen met een hoog risico en de risico’s die daarmee gepaard gaan, is het van essentieel belang een adequatere capaciteit te ontwikkelen voor de toepassing van conformiteitsbeoordeling door derden voor AI-systemen met een hoog risico. Gezien de huidige ervaring van personen die professionele certificeringen vóór het in de handel brengen uitvoeren op het gebied van productveiligheid en de andere aard van risico’s die hiermee gepaard gaan, is het niettemin passend om, in ieder geval in een eerste fase van de toepassing van deze verordening, het toepassingsgebied van conformiteitsbeoordelingen door derden voor AI-systemen met een hoog risico die geen verband houden met producten te beperken. De conformiteitsbeoordeling van dergelijke systemen moet derhalve als algemene regel door de aanbieder onder eigen verantwoordelijkheid worden uitgevoerd, met als enige uitzondering AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie van personen op afstand of AI-systemen die bedoeld zijn om conclusies te trekken over de persoonlijke kenmerken van natuurlijke personen op basis van biometrische of op biometrie gebaseerde gegevens, waaronder systemen voor het herkennen van emoties , ten aanzien waarvan een aangemelde instantie moet worden betrokken bij de conformiteitsbeoordeling, voor zover deze systemen niet verboden zijn.

Amendement 110

Voorstel voor een verordening

Overweging 65

Door de Commissie voorgestelde tekst

Amendement

(65)

Met het oog op de uitvoering van een conformiteitsbeoordeling door derden voor AI-systemen die moeten worden gebruikt voor de biometrische identificatie van personen op afstand , moeten de nationale bevoegde autoriteiten aangemelde instanties aanwijzen op grond van deze verordening, mits deze instanties voldoen aan een reeks voorschriften, met name met betrekking tot de onafhankelijkheid, competenties en afwezigheid van belangenconflicten.

(65)

Met het oog op de uitvoering van conformiteitsbeoordelingen door derden , wanneer deze vereist zijn , moeten de nationale bevoegde autoriteiten aangemelde instanties aanwijzen op grond van deze verordening, mits deze instanties voldoen aan een reeks voorschriften, met name met betrekking tot de onafhankelijkheid, competenties, afwezigheid van belangenconflicten en minimumvoorschriften inzake cyberbeveiliging . De lidstaten moeten aansporen tot de aanwijzing van voldoende conformiteitsbeoordelingsinstanties, opdat de certificering tijdig kan geschieden. De procedures voor de beoordeling, aanwijzing, aanmelding en monitoring van conformiteitsbeoordelingsinstanties moeten in de lidstaten zo uniform mogelijk worden toegepast om administratieve belemmeringen aan de grens weg te nemen en ervoor te zorgen dat het potentieel van de interne markt wordt verwezenlijkt.

Amendement 111

Voorstel voor een verordening

Overweging 65 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(65 bis)

In overeenstemming met de verbintenissen van de Unie in het kader van de Overeenkomst inzake technische handelsbelemmeringen van de Wereldhandelsorganisatie is het goed om de aanvaarding van testresultaten die geproduceerd zijn door bevoegde conformiteitsbeoordelingsinstanties te maximaliseren, ongeacht het grondgebied waar zij gevestigd zijn, zo nodig om aan te tonen dat zij aan de toepasselijke voorschriften van de verordening voldoen. De Commissie moet actief op zoek gaan naar bruikbare internationale instrumenten die kunnen helpen dit te verwezenlijken, en moet met name streven naar de mogelijke totstandbrenging van overeenkomsten inzake wederzijdse erkenning met landen met een vergelijkbaar niveau van technische ontwikkeling die een vergelijkbare aanpak hanteren met betrekking tot AI en conformiteitsbeoordeling.

Amendement 112

Voorstel voor een verordening

Overweging 66

Door de Commissie voorgestelde tekst

Amendement

(66)

In lijn met het algemeen erkende begrip van ingrijpende wijziging van producten die vallen onder de harmonisatiewetgeving van de Unie, is het passend dat voor een AI-systeem een nieuwe conformiteitsbeoordeling wordt uitgevoerd wanneer zich een verandering voordoet die gevolgen kan hebben voor de overeenstemming van het systeem met deze verordening of wanneer het beoogde doel van het systeem verandert. Daarnaast is het ten aanzien van AI-systemen die blijven “leren” nadat zij in de handel worden gebracht of in gebruik worden gesteld (d.w.z. die automatisch aanpassen hoe taken worden uitgevoerd) noodzakelijk om te voorzien in regels die bepalen dat veranderingen met betrekking tot het algoritme en de prestaties ervan die vooraf door de aanbieder zijn bepaald en die op het moment van de conformiteitsbeoordeling zijn beoordeeld, geen ingrijpende wijziging vormen.

(66)

In lijn met het algemeen erkende begrip van ingrijpende wijziging van producten die vallen onder de harmonisatiewetgeving van de Unie, is het passend dat voor een AI-systeem met een hoog risico een nieuwe conformiteitsbeoordeling wordt uitgevoerd wanneer zich een niet-geplande verandering voordoet die verder gaat dan gecontroleerde of geplande veranderingen door de aanbieder, met inbegrip van permanent leren, en die een nieuw, onaanvaardbaar risico kan doen ontstaan en aanzienlijke gevolgen kan hebben voor de overeenstemming van het AI-systeem met een hoog risico met deze verordening of wanneer het beoogde doel van het systeem verandert. Daarnaast is het ten aanzien van AI-systemen die blijven “leren” nadat zij in de handel worden gebracht of in gebruik worden gesteld (d.w.z. die automatisch aanpassen hoe taken worden uitgevoerd) noodzakelijk om te voorzien in regels die bepalen dat veranderingen met betrekking tot het algoritme en de prestaties ervan die vooraf door de aanbieder zijn bepaald en die op het moment van de conformiteitsbeoordeling zijn beoordeeld, geen ingrijpende wijziging vormen. Hetzelfde moet gelden voor updates van het AI-systeem om veiligheidsredenen in het algemeen en ter bescherming tegen veranderende dreigingen van manipulatie van het systeem, onder voorwaarde dat ze geen ingrijpende wijziging vormen.

Amendement 113

Voorstel voor een verordening

Overweging 67

Door de Commissie voorgestelde tekst

Amendement

(67)

Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.

(67)

Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. Op fysieke AI-systemen met een hoog risico moet een fysieke CE-markering worden aangebracht, die kan worden aangevuld met een digitale CE-markering. Voor uitsluitend digitale AI-systemen met een hoog risico moet een digitale CE-markering worden gebruikt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.

Amendement 114

Voorstel voor een verordening

Overweging 68

Door de Commissie voorgestelde tekst

Amendement

(68)

In bepaalde omstandigheden kan de snelle beschikbaarheid van innovatieve technologieën cruciaal zijn voor de gezondheid en veiligheid van personen en de samenleving in haar geheel. Het is derhalve passend dat de lidstaten om uitzonderlijke redenen in verband met de openbare veiligheid of de bescherming van het leven en de gezondheid van natuurlijke personen en de bescherming van industrieel en commercieel eigendom toestemming kunnen verlenen voor het in de handel brengen of in gebruik stellen van AI-systemen die nog niet aan een conformiteitsbeoordeling zijn onderworpen.

(68)

In bepaalde omstandigheden kan de snelle beschikbaarheid van innovatieve technologieën cruciaal zijn voor de gezondheid en veiligheid van personen , het milieu en de klimaatverandering, en de samenleving in haar geheel. Het is derhalve passend dat de lidstaten om uitzonderlijke redenen in verband met de bescherming van het leven en de gezondheid van natuurlijke personen , de bescherming van het milieu en de bescherming van kritieke infrastructuur toestemming kunnen verlenen voor het in de handel brengen of in gebruik stellen van AI-systemen die nog niet aan een conformiteitsbeoordeling zijn onderworpen.

Amendement 115

Voorstel voor een verordening

Overweging 69

Door de Commissie voorgestelde tekst

Amendement

(69)

Om de werkzaamheden van de Commissie en de lidstaten op het gebied van artificiële intelligentie te vergemakkelijken en om de transparantie ten opzichte van het publiek te vergroten, moeten aanbieders van AI-systemen met een hoog risico die geen verband houden met producten die onder het toepassingsgebied van de desbetreffende bestaande harmonisatiewetgeving van de Unie vallen, worden verplicht hun AI-systemen met een hoog risico te registreren in een EU-databank, die door de Commissie moet worden vastgesteld en beheerd. De Commissie moet de verwerkingsverantwoordelijke van die databank zijn, in overeenstemming met Verordening (EU) 2018/1725 van het Europees Parlement en de Raad (55). Teneinde de volledige functionaliteit van de databank te waarborgen, moet de procedure voor het vaststellen van de databank de uitwerking van functionele specificaties door de Commissie en een onafhankelijk auditverslag omvatten.

(69)

Om de werkzaamheden van de Commissie en de lidstaten op het gebied van artificiële intelligentie te vergemakkelijken en om de transparantie ten opzichte van het publiek te vergroten, moeten aanbieders van AI-systemen met een hoog risico die geen verband houden met producten die onder het toepassingsgebied van de desbetreffende bestaande harmonisatiewetgeving van de Unie vallen, worden verplicht hun AI-systemen en basismodellen met een hoog risico te registreren in een EU-databank, die door de Commissie moet worden vastgesteld en beheerd. Deze databank moet vrij en openbaar toegankelijk zijn en moet gemakkelijk begrijpelijk en machineleesbaar zijn. De databank moet bovendien gebruiksvriendelijk en gemakkelijk te navigeren zijn, en moet zoekfuncties hebben die het grote publiek ten minste in staat stellen de databank te doorzoeken op specifieke systemen met een hoog risico, locaties, risicocategorieën uit bijlage IV en trefwoorden. Ook exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn of exploitanten die namens hen optreden en exploitanten die ondernemingen zijn die op grond van Verordening (EU) 2022/1925 zijn aangewezen als poortwachter, moeten zich in de EU-databank registreren voordat zij een AI-systeem met een hoog risico voor het eerst in gebruik stellen of gebruiken, en na elke ingrijpende wijziging. Andere exploitanten moeten het recht hebben dit vrijwillig te doen. Ook alle ingrijpende wijzigingen van AI-systemen met een hoog risico moeten in de EU-databank worden geregistreerd. De Commissie moet de verwerkingsverantwoordelijke van die databank zijn, in overeenstemming met Verordening (EU) 2018/1725 van het Europees Parlement en de Raad (55). Teneinde de volledige functionaliteit van de databank te waarborgen, moet de procedure voor het vaststellen van de databank de uitwerking van functionele specificaties door de Commissie en een onafhankelijk auditverslag omvatten. De Commissie moet bij de uitvoering van haar taken als verwerkingsverantwoordelijke voor de EU-databank rekening houden met cyberbeveiliging en risico’s in verband met gevaren. Om de beschikbaarheid en het gebruik van de databank door het publiek te maximaliseren, moet de databank, met inbegrip van de via de databank beschikbaar gestelde informatie, voldoen aan de voorschriften van Richtlijn (EU) 2019/882.

Amendement 116

Voorstel voor een verordening

Overweging 71

Door de Commissie voorgestelde tekst

Amendement

(71)

Artificiële intelligentie is een snel ontwikkelende familie van technologieën die nieuwe vormen van regelgevingstoezicht en een veilige plek voor experimenteren vereist, terwijl tegelijkertijd de verantwoorde innovatie en integratie van passende waarborgen en maatregelen voor risicobeperking worden gewaarborgd. Om te zorgen voor een wettelijk kader dat innovatievriendelijk , toekomstbestendig en bestand tegen verstoringen is, moeten de nationale bevoegde autoriteiten van een of meer lidstaten worden aangemoedigd om testomgevingen voor regelgeving op het gebied van artificiële intelligentie vast te stellen om de ontwikkeling en het testen van innovatieve AI-systemen onder strikt regelgevingstoezicht mogelijk te maken voordat deze systemen in de handel worden gebracht of anderszins in gebruik worden gesteld.

(71)

Artificiële intelligentie is een snel ontwikkelende familie van technologieën die regelgevingstoezicht en een veilige en gecontroleerde plek voor experimenteren vereist, terwijl tegelijkertijd de verantwoorde innovatie en integratie van passende waarborgen en maatregelen voor risicobeperking worden gewaarborgd. Om te zorgen voor een wettelijk kader dat innovatie stimuleert , toekomstbestendig is en bestand is tegen verstoringen, moeten de lidstaten ten minste één testomgeving voor regelgeving op het gebied van artificiële intelligentie tot stand brengen om de ontwikkeling en het testen van innovatieve AI-systemen onder strikt regelgevingstoezicht mogelijk te maken voordat deze systemen in de handel worden gebracht of anderszins in gebruik worden gesteld. Als volgende stap is het wenselijk om de totstandbrenging van testomgevingen voor regelgeving, die momenteel aan de lidstaten wordt overgelaten, verplicht te stellen met vastgestelde criteria. Een testomgeving voor regelgeving kan ook samen met een of meer andere lidstaten tot stand worden gebracht, mits de testomgeving voldoet aan het respectieve nationale niveau van de betrokken lidstaten. Er kunnen tevens aanvullende testomgevingen tot stand worden gebracht op verschillende niveaus, bijvoorbeeld over de grenzen van de lidstaten heen, om grensoverschrijdende samenwerking en synergieën te vergemakkelijken. Met uitzondering van de verplichte testomgeving op nationaal niveau moeten de lidstaten ook virtuele of hybride testomgevingen tot stand kunnen brengen. Alle testomgevingen voor regelgeving moeten zowel fysieke als virtuele producten aankunnen. De instanties die de testomgevingen voor regelgeving tot stand brengen moeten er bovendien voor zorgen dat de testomgevingen over voldoende financiële en personele middelen beschikken om naar behoren te kunnen functioneren.

Amendement 117

Voorstel voor een verordening

Overweging 72

Door de Commissie voorgestelde tekst

Amendement

(72)

De doelstellingen van testomgevingen voor regelgeving moeten bestaan in de bevordering van AI-innovatie door te zorgen voor een gecontroleerde experiment- en testomgeving in de ontwikkelingsfase en de fase vóór het in de handel brengen met het oog op het waarborgen van de overeenstemming van innovatieve AI-systemen met deze verordening en andere relevante wetgeving van de Unie en de lidstaten ; het verbeteren van de rechtszekerheid voor innovatoren en het toezicht van de bevoegde autoriteiten en het begrijpen van de mogelijkheden, opkomende risico’s en de effecten van het gebruik van AI en het versnellen van de toegang tot markten, onder meer door belemmeringen voor kleine en middelgrote ondernemingen (kmo’s) en startende ondernemingen weg te nemen. Teneinde de uniforme uitvoering in de gehele Unie en schaalvoordelen te waarborgen, is het passend om gemeenschappelijke regels vast te stellen voor de uitvoering van testomgevingen voor regelgeving, evenals een kader voor de samenwerking tussen de relevante autoriteiten die betrokken zijn bij het toezicht op de testomgevingen. Deze verordening moet de rechtsgrondslag bieden voor het gebruik van persoonsgegevens die voor andere doeleinden zijn verzameld, met het oog op de ontwikkeling van bepaalde AI-systemen in het openbaar belang in de AI-testomgeving voor regelgeving, in lijn met artikel 6, lid 4, van Verordening (EU) 2016/679 en artikel 6 van Verordening (EU) 2018/1725 en onverminderd artikel 4, lid 2, van Richtlijn (EU) 2016/680. Deelnemers van de testomgeving moeten zorgen voor passende waarborgen en moeten samenwerken met de bevoegde autoriteiten, onder meer door hun richtsnoeren te volgen en snel en in goed vertrouwen te handelen om eventuele grote risico’s voor de veiligheid en de grondrechten te beperken die zich tijdens de ontwikkeling en het experimenteren in de testomgeving kunnen voordoen. Er moet rekening worden gehouden met het gedrag van de deelnemers van de testomgeving wanneer bevoegde autoriteiten besluiten om al dan niet een administratieve geldboete op te leggen op grond van artikel 83, lid 2, van Verordening (EU) 2016/679 en artikel 57 van Richtlijn (EU) 2016/680.

(72)

De doelstellingen van testomgevingen voor regelgeving moeten erin bestaan : voor de autoriteiten die de testomgeving hebben ontwikkeld, hun inzicht in technische ontwikkelingen te vergroten, toezichtmethoden te verbeteren en richtsnoeren te verstrekken aan ontwikkelaars en aanbieders van AI-systemen om te komen tot overeenstemming van de regelgeving met deze verordening of, in voorkomend geval, andere relevante wetgeving van de Unie en de lidstaten , alsook met het Handvest van de grondrechten; voor de toekomstige aanbieders het testen en ontwikkelen van innovatieve oplossingen in verband met AI-systemen in de fase voorafgaand aan het in de handel brengen mogelijk te maken en te vergemakkelijken om de rechtszekerheid te vergroten, de autoriteiten die de testomgeving hebben ontwikkeld in een gecontroleerde omgeving meer te laten leren op regelgevingsgebied om betere richtsnoeren te ontwikkelen en mogelijke toekomstige verbeteringen van het rechtskader via de gewone wetgevingsprocedure in kaart te brengen. Significante risico’s die tijdens het ontwikkelen en testen van dergelijke AI-systemen worden vastgesteld, moeten onmiddellijk worden beperkt en bij gebreke daarvan leiden tot de opschorting van het ontwikkelings- en testproces totdat beperkende maatregelen worden getroffen. Teneinde de uniforme uitvoering in de gehele Unie en schaalvoordelen te waarborgen, is het passend om gemeenschappelijke regels vast te stellen voor de uitvoering van testomgevingen voor regelgeving, evenals een kader voor de samenwerking tussen de relevante autoriteiten die betrokken zijn bij het toezicht op de testomgevingen. De lidstaten moeten ervoor zorgen dat testomgevingen voor regelgeving in de hele Unie op grote schaal beschikbaar zijn, terwijl de deelname vrijwillig moet blijven. Het is bijzonder belangrijk ervoor te zorgen dat kmo’s en start-ups gemakkelijk toegang hebben tot deze testomgevingen en actief betrokken zijn bij en deelnemen aan de ontwikkeling en het testen van innovatieve AI-systemen, zodat zij met hun knowhow en ervaring bijdragen kunnen leveren.

Amendement 118

Voorstel voor een verordening

Overweging 72 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(72 bis)

Deze verordening moet de rechtsgrondslag bieden voor het gebruik van persoonsgegevens die voor andere doeleinden zijn verzameld, met het oog op de ontwikkeling van bepaalde AI-systemen in het openbaar belang in de AI-testomgeving voor regelgeving, alleen onder bepaalde voorwaarden in lijn met artikel 6, lid 4, van Verordening (EU) 2016/679 en artikel 6 van Verordening (EU) 2018/1725 en onverminderd artikel 4, lid 2, van Richtlijn (EU) 2016/680. Bij de testomgeving betrokken toekomstige aanbieders moeten zorgen voor passende waarborgen en moeten samenwerken met de bevoegde autoriteiten, onder meer door hun richtsnoeren te volgen en snel en in goed vertrouwen te handelen om eventuele grote risico’s voor de veiligheid, de gezondheid, het milieu en de grondrechten te beperken die zich tijdens de ontwikkeling en het experimenteren in de testomgeving kunnen voordoen. Er moet rekening worden gehouden met het gedrag van de bij de testomgeving betrokken toekomstige aanbieders wanneer bevoegde autoriteiten besluiten om hun deelname aan de testomgeving tijdelijk of permanent te schorsen of al dan niet een administratieve geldboete op te leggen op grond van artikel 83, lid 2, van Verordening (EU) 2016/679 en artikel 57 van Richtlijn (EU) 2016/680.

Amendement 119

Voorstel voor een verordening

Overweging 72 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(72 ter)

Om ervoor te zorgen dat artificiële intelligentie tot gunstige sociale en ecologische resultaten leidt, moeten de lidstaten onderzoek naar en ontwikkeling van AI ter ondersteuning van gunstige sociale en ecologische resultaten ondersteunen en bevorderen door voldoende middelen toe te wijzen, waaronder overheidsfinanciering en financiering door de Unie, en door het maatschappelijk middenveld geleide projecten prioritair toegang te geven tot testomgevingen voor regelgeving. Dergelijke projecten moeten gebaseerd zijn op het beginsel van interdisciplinaire samenwerking tussen AI-ontwikkelaars, deskundigen op het gebied van ongelijkheid en non-discriminatie, toegankelijkheid, consumentenrecht, milieurecht en digitale rechten, alsook academici.

Amendement 120

Voorstel voor een verordening

Overweging 73

Door de Commissie voorgestelde tekst

Amendement

(73)

Om de innovatie te bevorderen en beschermen, is het belangrijk dat de belangen van kleine aanbieders en gebruikers van AI-systemen in het bijzonder in aanmerking worden genomen. Hiertoe moeten de lidstaten initiatieven ontwikkelen die gericht zijn op deze operators en die onder meer betrekking hebben op bewustmaking en informatie en communicatie. Bovendien moet rekening worden gehouden met de specifieke belangen en behoeften van kleine aanbieders wanneer aangemelde instanties bijdragen voor de conformiteitsbeoordeling vaststellen. Vertaalkosten in verband met verplichte documentatie en communicatie met autoriteiten kunnen een aanzienlijke kostenpost vormen voor met name kleine aanbieders en andere operators. De lidstaten zouden ervoor kunnen zorgen dat een van de talen die door hen worden vastgesteld en aanvaard voor de documentatie van betrokken aanbieders en voor de communicatie met operators breed wordt begrepen door een zo groot mogelijk aantal grensoverschrijdende gebruikers.

(73)

Om de innovatie te bevorderen en beschermen, is het belangrijk dat de belangen van kleine aanbieders en gebruikers van AI-systemen in het bijzonder in aanmerking worden genomen. Hiertoe moeten de lidstaten initiatieven ontwikkelen die gericht zijn op deze operators en die onder meer betrekking hebben op AI-geletterdheid, bewustmaking en informatie en communicatie. De lidstaten moeten hiervoor de bestaande kanalen gebruiken en waar nodig nieuwe specifieke kanalen voor de communicatie met kmo’s, start-ups, gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden. Die bestaande kanalen omvatten, maar zijn niet beperkt tot, de Enisa-teams voor respons op computerbeveiligingsincidenten, de nationale gegevensbeschermingsagentschappen, het platform voor AI on demand, de Europese digitale-innovatiehubs en andere relevante instrumenten die door EU-programma’s worden gefinancierd, evenals de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of Unieniveau zijn vastgesteld. Waar nodig moeten deze kanalen met elkaar samenwerken om synergieën te creëren en te zorgen voor een homogene aanpak bij hun adviezen aan start-ups, kmo’s en gebruikers. Bovendien moet rekening worden gehouden met de specifieke belangen en behoeften van kleine aanbieders wanneer aangemelde instanties bijdragen voor de conformiteitsbeoordeling vaststellen. De Commissie moet de certificerings- en nalevingskosten voor kmo’s en start-ups regelmatig beoordelen, onder meer via transparant overleg met kmo’s, start-ups en gebruikers, en moet met de lidstaten samenwerken om die kosten te verlagen. Vertaalkosten in verband met verplichte documentatie en communicatie met autoriteiten kunnen bijvoorbeeld een aanzienlijke kostenpost vormen voor met name kleine aanbieders en andere operators. De lidstaten zouden ervoor kunnen zorgen dat een van de talen die door hen worden vastgesteld en aanvaard voor de documentatie van betrokken aanbieders en voor de communicatie met operators breed wordt begrepen door een zo groot mogelijk aantal grensoverschrijdende gebruikers. Middelgrote ondernemingen die recentelijk veranderd zijn van de categorie “kleine onderneming” naar “middelgrote onderneming” in de zin van de bijlage bij Aanbeveling 2003/361/EG (artikel 16), moeten zolang de lidstaten dat gepast achten toegang blijven houden tot deze initiatieven en adviezen, aangezien deze nieuwe middelgrote ondernemingen soms de juridische middelen en opleiding ontberen om een goede kennis en naleving van de bepalingen te waarborgen.

Amendement 121

Voorstel voor een verordening

Overweging 74

Door de Commissie voorgestelde tekst

Amendement

(74)

Om de risico’s voor de uitvoering te beperken die voortvloeien uit een gebrek aan kennis en deskundigheid op de markt en om de nakoming door aanbieders en aangemelde organen van hun verplichtingen uit hoofde van deze verordening te vergemakkelijken, zouden het platform voor AI on demand, de Europese digitale-innovatiehubs en de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of EU-niveau zijn vastgesteld, kunnen bijdragen tot de uitvoering van deze verordening. Binnen hun respectievelijke mandaat en bevoegdheid kunnen zij met name technische en wetenschappelijke steun verlenen aan aanbieders en aangemelde instanties.

(74)

Om de risico’s voor de uitvoering te beperken die voortvloeien uit een gebrek aan kennis en deskundigheid op de markt en om de nakoming door aanbieders en aangemelde organen van hun verplichtingen uit hoofde van deze verordening te vergemakkelijken, moeten het platform voor AI on demand, de Europese digitale-innovatiehubs en de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of EU-niveau zijn vastgesteld, bijdragen tot de uitvoering van deze verordening. Binnen hun respectievelijke mandaat en bevoegdheid kunnen zij met name technische en wetenschappelijke steun verlenen aan aanbieders en aangemelde instanties.

Amendement 122

Voorstel voor een verordening

Overweging 76

Door de Commissie voorgestelde tekst

Amendement

(76)

Teneinde een soepele , doeltreffende en geharmoniseerde uitvoering van deze verordening mogelijk te maken , moet een Europees Comité voor artificiële intelligentie worden opgericht. Het Comité moet verantwoordelijk zijn voor een aantal adviestaken, met inbegrip van het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, waaronder over technische specificaties of bestaande normen met betrekking tot de voorschriften van deze verordening en de adviesverlening aan en ondersteuning van de Commissie ten aanzien van specifieke vragen in verband met artificiële intelligentie .

(76)

Teneinde versnippering te voorkomen, de optimale werking van de eengemaakte markt te garanderen , een doeltreffende en geharmoniseerde uitvoering van deze verordening te waarborgen, in de hele Unie een hoog niveau van betrouwbaarheid en bescherming van de gezondheid en veiligheid, de grondrechten, het milieu, de democratie en de rechtsstaat met betrekking tot AI-systemen te verwezenlijken, de nationale toezichthoudende autoriteiten en de instellingen, organen en instanties van de Unie actief te ondersteunen bij aangelegenheden in het kader van deze verordening, en het gebruik van artificiële intelligentie in de hele Unie te bevorderen , moet een Bureau voor artificiële intelligentie van de Europese Unie worden opgericht. Het AI-bureau moet rechtspersoonlijkheid hebben, moet volledig onafhankelijk handelen, moet verantwoordelijk zijn voor een aantal adviserende en coördinerende taken, waaronder het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, en moet over voldoende financiering en personeel beschikken. De lidstaten moeten zorgen voor de strategische leiding en controle van het AI-bureau via de raad van bestuur van het AI-bureau, samen met de Commissie, de EDPS, het FRA en het Enisa. Een uitvoerend directeur moet verantwoordelijk zijn voor het beheer van de activiteiten van het secretariaat van het AI-bureau en voor het vertegenwoordigen van het AI-bureau. Belanghebbenden moeten formeel deelnemen aan de werkzaamheden van het AI-bureau via een adviesforum dat voor een gevarieerde en evenwichtige vertegenwoordiging van de belanghebbenden moet zorgen en het AI-bureau moet adviseren over aangelegenheden die verband houden met deze verordening. Indien de oprichting van het AI-bureau niet voldoende blijkt te zijn om een volledig consistente toepassing van deze verordening op het niveau van de Unie en efficiënte grensoverschrijdende handhavingsmaatregelen te waarborgen, moet de oprichting van een AI-agentschap worden overwogen .

Amendement 123

Voorstel voor een verordening

Overweging 77

Door de Commissie voorgestelde tekst

Amendement

(77)

De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie , moet in elke lidstaat één nationale autoriteit worden aangewezen als nationale toezichthoudende autoriteit.

(77)

Elke lidstaat moet een nationale toezichthoudende autoriteit aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Deze moet ook haar lidstaat in de raad van bestuur van het AI-bureau vertegenwoordigen . Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie . Elke nationale toezichthoudende autoriteit moet volledig onafhankelijk optreden bij de uitvoering van de taken en de uitoefening van de bevoegdheden die haar overeenkomstig deze verordening zijn toegewezen .

Amendement 124

Voorstel voor een verordening

Overweging 77 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(77 bis)

De nationale toezichthoudende autoriteiten moeten toezien op de toepassing van de bepalingen van deze verordening en bijdragen aan de consequente toepassing daarvan in de gehele Unie. Daartoe moeten de nationale toezichthoudende autoriteiten met elkaar en met de relevante nationale bevoegde autoriteiten, de Commissie en het AI-bureau samenwerken.

Amendement 125

Voorstel voor een verordening

Overweging 77 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(77 ter)

Ten aanzien van de vertrouwelijke informatie die hun bij de uitvoering van hun taken of de uitoefening van hun bevoegdheden ter kennis is gekomen, moet voor het lid of de personeelsleden van elke nationale toezichthoudende autoriteit zowel tijdens hun ambtstermijn als daarna het beroepsgeheim gelden, zulks overeenkomstig het Unierecht of intern recht. Tijdens hun ambtstermijn moet het beroepsgeheim met name gelden voor bedrijfsgeheimen en voor meldingen van inbreuken op deze verordening door natuurlijke personen.

Amendement 126

Voorstel voor een verordening

Overweging 78

Door de Commissie voorgestelde tekst

Amendement

(78)

Om ervoor te zorgen dat aanbieders van AI-systemen met een hoog risico rekening kunnen houden met de ervaring met het gebruik van AI-systemen met een hoog risico voor het verbeteren van hun systemen en het ontwerp- en ontwikkelingsproces of tijdig eventuele mogelijke corrigerende maatregelen kunnen nemen, moeten alle aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. Dit systeem is ook belangrijk om te waarborgen dat de mogelijke risico’s van AI-systemen die blijven “leren” nadat zij in de handel zijn gebracht of in gebruik zijn gesteld, op efficiëntere en tijdigere wijze kunnen worden aangepakt. In dit verband moeten aanbieders ook worden verplicht te zorgen voor een systeem om eventuele ernstige incidenten of eventuele inbreuken op het intern of Unierecht voor de bescherming van de grondrechten die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten.

(78)

Om ervoor te zorgen dat aanbieders van AI-systemen met een hoog risico rekening kunnen houden met de ervaring met het gebruik van AI-systemen met een hoog risico voor het verbeteren van hun systemen en het ontwerp- en ontwikkelingsproces of tijdig eventuele mogelijke corrigerende maatregelen kunnen nemen, moeten alle aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. Dit systeem is ook belangrijk om te waarborgen dat de mogelijke risico’s van AI-systemen die blijven “leren” of zich blijven ontwikkelen nadat zij in de handel zijn gebracht of in gebruik zijn gesteld, op efficiëntere en tijdigere wijze kunnen worden aangepakt. In dit verband moeten aanbieders ook worden verplicht te zorgen voor een systeem om eventuele ernstige incidenten of eventuele inbreuken op het intern of Unierecht , waaronder bepalingen ter bescherming van de grondrechten en consumentenrechten, die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten en passende corrigerende maatregelen te nemen . Exploitanten moeten ook worden verplicht om eventuele ernstige incidenten of inbreuken op het intern of Unierecht die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten wanneer zij dergelijke ernstige incidenten of inbreuken vaststellen.

Amendement 127

Voorstel voor een verordening

Overweging 79

Door de Commissie voorgestelde tekst

Amendement

(79)

Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld.

(79)

Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Voor de toepassing van deze verordening moeten de nationale toezichthoudende autoriteiten optreden als markttoezichtautoriteiten voor onder deze verordening vallende AI-systemen, met uitzondering van AI-systemen die onder bijlage II bij deze verordening vallen. Voor AI-systemen die onder de in bijlage II vermelde rechtshandelingen vallen, moeten de bevoegde autoriteiten uit hoofde van die rechtshandelingen de leidende autoriteit blijven. De nationale toezichthoudende autoriteiten en de bevoegde autoriteiten in de in bijlage II vermelde rechtshandelingen moeten waar nodig samenwerken. In voorkomend geval moeten de bevoegde autoriteiten in de in bijlage II vermelde rechtshandelingen bevoegd personeel naar de nationale toezichthoudende autoriteit sturen om haar bij de uitvoering van haar taken bij te staan. Voor de toepassing van deze verordening moeten de nationale toezichthoudende autoriteiten dezelfde bevoegdheden en verplichtingen hebben als markttoezichtautoriteiten uit hoofde van Verordening (EU) 2019/1020. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld. Nadat alle andere redelijke manieren om de conformiteit te beoordelen of te verifiëren zijn uitgeput, moet de nationale toezichthoudende autoriteit op een met redenen omkleed verzoek toegang worden verleend tot de datareeksen voor training, validatie en tests, het getrainde model en het trainingsmodel van het AI-systeem met een hoog risico, met inbegrip van de relevante modelparameters en de uitvoerings-/werkomgeving ervan. In het geval van onder deze verordening vallende eenvoudigere softwaresystemen die niet gebaseerd zijn op getrainde modellen, en wanneer alle andere manieren om de conformiteit te verifiëren zijn uitgeput, kan de nationale toezichthoudende autoriteit bij wijze van uitzondering op een met redenen omkleed verzoek toegang krijgen tot de broncode. Wanneer de nationale toezichthoudende autoriteit overeenkomstig deze verordening toegang is verleend tot de datareeksen voor training, validatie en tests, moet die toegang worden verkregen met passende technische middelen en instrumenten, waaronder toegang ter plaatse en, in uitzonderlijke omstandigheden, toegang op afstand. De nationale toezichthoudende autoriteit moet alle verkregen informatie, met inbegrip van broncode, software en gegevens, voor zover van toepassing, als vertrouwelijke informatie behandelen en het toepasselijke Unierecht inzake de bescherming van intellectuele eigendom en bedrijfsgeheimen in acht nemen. De nationale toezichthoudende autoriteit moet alle verkregen informatie na afloop van het onderzoek wissen.

Amendement 128

Voorstel voor een verordening

Overweging 80

Door de Commissie voorgestelde tekst

Amendement

(80)

De wetgeving van de Unie inzake financiële diensten omvat regels en voorschriften met betrekking tot interne governance en risicobeheer die van toepassing zijn op gereguleerde financiële instellingen bij het verlenen van deze diensten, ook wanneer zij gebruikmaken van AI-systemen. Om te zorgen voor een coherente toepassing en handhaving van de verplichtingen uit hoofde van deze verordening en de relevante regels en voorschriften van de Uniewetgeving inzake financiële diensten, moeten de autoriteiten die verantwoordelijk zijn voor het toezicht op en de handhaving van de wetgeving inzake financiële diensten, met inbegrip van, waar van toepassing, de Europese Centrale Bank, worden aangewezen als bevoegde autoriteiten met het oog op het toezicht op de uitvoering van deze verordening, waaronder voor markttoezichtactiviteiten, met betrekking tot AI-systemen die worden geleverd of gebruikt door gereguleerde en gecontroleerde financiële instellingen. Teneinde de samenhang tussen deze verordening en de regels die van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU van het Europees Parlement en de Raad (56) verder te verbeteren, is het ook passend om de procedure voor de conformiteitsbeoordeling en enkele van de procedurele verplichtingen van aanbieders in verband met het risicobeheer, de monitoring na het in de handel brengen en de documentatie op te nemen in de bestaande verplichtingen en procedures in het kader van Richtlijn 2013/36/EU. Om overlappingen te voorkomen, moet ook worden voorzien in beperkte afwijkingen in verband met het systeem voor kwaliteitsbeheer van aanbieders en de monitoringsverplichting voor gebruikers van AI-systemen met een hoog risico voor zover deze van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU.

(80)

De wetgeving van de Unie inzake financiële diensten omvat regels en voorschriften met betrekking tot interne governance en risicobeheer die van toepassing zijn op gereguleerde financiële instellingen bij het verlenen van deze diensten, ook wanneer zij gebruikmaken van AI-systemen. Om te zorgen voor een coherente toepassing en handhaving van de verplichtingen uit hoofde van deze verordening en de relevante regels en voorschriften van de Uniewetgeving inzake financiële diensten, moeten de bevoegde autoriteiten die verantwoordelijk zijn voor het toezicht op en de handhaving van de wetgeving inzake financiële diensten, met inbegrip van, waar van toepassing, de Europese Centrale Bank, worden aangewezen als bevoegde autoriteiten met het oog op het toezicht op de uitvoering van deze verordening, waaronder voor markttoezichtactiviteiten, met betrekking tot AI-systemen die worden geleverd of gebruikt door gereguleerde en gecontroleerde financiële instellingen. Teneinde de samenhang tussen deze verordening en de regels die van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU van het Europees Parlement en de Raad (56) verder te verbeteren, is het ook passend om de procedure voor de conformiteitsbeoordeling en enkele van de procedurele verplichtingen van aanbieders in verband met het risicobeheer, de monitoring na het in de handel brengen en de documentatie op te nemen in de bestaande verplichtingen en procedures in het kader van Richtlijn 2013/36/EU. Om overlappingen te voorkomen, moet ook worden voorzien in beperkte afwijkingen in verband met het systeem voor kwaliteitsbeheer van aanbieders en de monitoringsverplichting voor exploitanten van AI-systemen met een hoog risico voor zover deze van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU.

Amendement 129

Voorstel voor een verordening

Overweging 80 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(80 bis)

Gezien de doelstellingen van deze verordening, te weten het waarborgen van een gelijkwaardig niveau van bescherming van de gezondheid, de veiligheid en de grondrechten van natuurlijke personen en het garanderen van de bescherming van de rechtsstaat en de democratie, en rekening houdend met het feit dat het beperken van de risico’s van AI-systemen voor dergelijke rechten op nationaal niveau mogelijkerwijs onvoldoende kan worden gegarandeerd of verschillend kan worden geïnterpreteerd, hetgeen tot een ongelijk niveau van bescherming van natuurlijke personen en versnippering van de markt zou kunnen leiden, moet aan de nationale toezichthoudende autoriteiten de bevoegdheid worden verleend om met het oog op een doeltreffende handhaving gezamenlijke onderzoeken uit te voeren of gebruik te maken van de vrijwaringsprocedure van de Unie waarin deze verordening voorziet. Gezamenlijke onderzoeken moeten worden ingesteld in gevallen waarin de nationale toezichthoudende autoriteit voldoende reden heeft om te denken dat een inbreuk op deze verordening een wijdverbreide inbreuk of een wijdverbreide inbreuk met een Uniedimensie is, of het AI-systeem of het basismodel een risico vertegenwoordigt dat gevolgen heeft of waarschijnlijk gevolgen zal hebben voor ten minste 45 miljoen personen in meer dan één lidstaat.

Amendement 130

Voorstel voor een verordening

Overweging 82

Door de Commissie voorgestelde tekst

Amendement

(82)

Het is belangrijk dat AI-systemen die verband houden met producten en die overeenkomstig deze verordening geen hoog risico met zich meebrengen en derhalve niet hoeven te voldoen aan de voorschriften van deze verordening , desalniettemin veilig zijn wanneer zij in de handel worden gebracht of in gebruik worden gesteld. Met het oog op deze doelstelling zou Richtlijn 2001/95/EG van het Europees Parlement en de Raad (57) als vangnet van toepassing zijn.

(82)

Het is belangrijk dat AI-systemen die verband houden met producten en die overeenkomstig deze verordening geen hoog risico met zich meebrengen en derhalve niet hoeven te voldoen aan de voorschriften voor AI-systemen met een hoog risico , desalniettemin veilig zijn wanneer zij in de handel worden gebracht of in gebruik worden gesteld. Met het oog op deze doelstelling zou Richtlijn 2001/95/EG van het Europees Parlement en de Raad (57) als vangnet van toepassing zijn.

Amendement 131

Voorstel voor een verordening

Overweging 83

Door de Commissie voorgestelde tekst

Amendement

(83)

Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening de vertrouwelijkheid eerbiedigen van informatie en data die zij bij de uitvoering van hun taken verkrijgen.

(83)

Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening streven naar transparantie en openheid, met inachtneming van de vertrouwelijkheid van informatie en data die zij bij de uitvoering van hun taken verkrijgen , door technische en organisatorische maatregelen te treffen ter bescherming van de veiligheid en vertrouwelijkheid van de informatie die zij bij de uitvoering van hun activiteiten hebben verkregen, onder meer voor intellectuele-eigendomsrechten en openbare en nationale veiligheidsbelangen. Wanneer de activiteiten van de Commissie, nationale bevoegde autoriteiten en aangemelde instanties op grond van deze verordening leiden tot een inbreuk op intellectuele-eigendomsrechten, moeten de lidstaten voorzien in passende maatregelen en rechtsmiddelen om de handhaving van de intellectuele-eigendomsrechten te waarborgen overeenkomstig Richtlijn 2004/48/EG.

Amendement 132

Voorstel voor een verordening

Overweging 84

Door de Commissie voorgestelde tekst

Amendement

(84)

De lidstaten moeten alle nodige maatregelen treffen opdat de bepalingen van deze verordening worden uitgevoerd, onder meer door te voorzien in doeltreffende, evenredige en afschrikkende sancties bij inbreuken daarop. Voor bepaalde specifieke inbreuken moeten de lidstaten de marges en criteria van deze verordening in aanmerking nemen . De Europese Toezichthouder voor gegevensbescherming moet bevoegd zijn om geldboeten op te leggen aan instellingen, agentschappen en organen van de Unie die vallen onder het toepassingsgebied van deze verordening.

(84)

Naleving van deze verordening moet kunnen worden afgedwongen middels het opleggen van geldboeten door de nationale toezichthoudende autoriteit, in het kader van door haar ingeleide procedures in overeenstemming met het bepaalde in deze verordening. De lidstaten moeten alle nodige maatregelen treffen opdat de bepalingen van deze verordening worden uitgevoerd, onder meer door te voorzien in doeltreffende, evenredige en afschrikkende sancties bij inbreuken daarop. Teneinde de administratieve straffen tegen inbreuken op deze verordening te versterken en te harmoniseren, moeten de maxima voor de vaststelling van de administratieve geldboeten voor bepaalde specifieke inbreuken worden vastgesteld. Bij de beoordeling van het bedrag van de geldboeten moeten de nationale bevoegde autoriteiten per afzonderlijk geval rekening houden met alle relevante omstandigheden van de specifieke situatie, met inachtneming van met name de aard, de ernst en de duur van de inbreuk, de gevolgen ervan en de omvang van de aanbieder, met name wanneer de aanbieder een kmo of een start-up is . De Europese Toezichthouder voor gegevensbescherming moet bevoegd zijn om geldboeten op te leggen aan instellingen, organen en instanties van de Unie die vallen onder het toepassingsgebied van deze verordening. De sancties en proceskosten uit hoofde van deze verordening mogen niet aan contractuele bepalingen of enig andere regeling worden onderworpen.

Amendement 133

Voorstel voor een verordening

Overweging 84 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(84 bis)

Aangezien de rechten en vrijheden van natuurlijke personen, rechtspersonen en groepen natuurlijke personen ernstig kunnen worden ondermijnd door AI-systemen, is het van essentieel belang dat natuurlijke personen en rechtspersonen of groepen natuurlijke personen betekenisvolle toegang hebben tot rapportage- en verhaalmechanismen en recht hebben op toegang tot evenredige en doeltreffende rechtsmiddelen. Zij moeten inbreuken op deze verordening aan hun nationale toezichthoudende autoriteit kunnen melden en het recht hebben een klacht in te dienen tegen de aanbieders of exploitanten van AI-systemen. In voorkomend geval moeten de exploitanten voorzien in interne klachtenmechanismen die door natuurlijke personen en rechtspersonen of groepen natuurlijke personen kunnen worden gebruikt. Onverminderd elke andere administratieve of buitengerechtelijke voorziening moeten natuurlijke personen, rechtspersonen en groepen natuurlijke personen daarnaast het recht hebben op een doeltreffende gerechtelijke voorziening in verband met een wettelijk bindend besluit van een nationale toezichthoudende autoriteit dat hen betreft, of indien de nationale toezichthoudende autoriteit een klacht niet in behandeling neemt, de indiener van een klacht niet informeert over de behandeling of de voorlopige uitkomst van de behandeling van de klacht, of zich niet houdt aan zijn verplichting om een definitief besluit te nemen.

Amendement 134

Voorstel voor een verordening

Overweging 84 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(84 ter)

Wanneer exploitanten een AI-systeem met een hoog risico gebruiken om beslissingen te nemen of te helpen nemen met betrekking tot natuurlijke personen, moeten de betrokken personen altijd ervan in kennis worden gesteld dat er een AI-systeem met een hoog risico op hen wordt toegepast. Deze informatie kan de betrokken personen een basis bieden om hun recht op uitleg uit hoofde van deze verordening uit te oefenen. Wanneer exploitanten de betrokken personen uit hoofde van deze verordening uitleg geven, moeten zij rekening houden met het niveau van deskundigheid en kennis van de gemiddelde consument of persoon.

Amendement 135

Voorstel voor een verordening

Overweging 84 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(84 quater)

De Uniewetgeving betreffende de bescherming van klokkenluiders (Richtlijn (EU) 2019/1937) is volledig van toepassing op academici, ontwerpers, ontwikkelaars, projectcontribuanten, auditors, productmanagers, ingenieurs en marktdeelnemers die informatie verkrijgen over inbreuken op het Unierecht door een aanbieder van AI-systemen of zijn AI-systeem.

Amendement 136

Voorstel voor een verordening

Overweging 85

Door de Commissie voorgestelde tekst

Amendement

(85)

Om ervoor te zorgen dat het regelgevingskader waar nodig kan worden aangepast, moet de Commissie de bevoegdheid krijgen om overeenkomstig artikel 290 VWEU handelingen vast te stellen teneinde wijzigingen aan te brengen in de technieken en benaderingen van bijlage I voor het definiëren van AI-systemen, de in de lijst van bijlage II opgenomen harmonisatiewetgeving van de Unie, de in de lijst van bijlage III opgenomen AI-systemen met een hoog risico, de bepalingen inzake technische documentatie van bijlage IV, de inhoud van de EU-conformiteitsverklaring van bijlage V, de bepalingen inzake de procedures voor de conformiteitsbeoordeling van de bijlagen VI en VII en de bepalingen inzake de vaststelling van de AI-systemen met een hoog risico waarop de procedure voor de conformiteitsbeoordeling op basis van de beoordeling van het systeem voor kwaliteitsbeheer en de beoordeling van de technische documentatie van toepassing moet zijn. Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven (58). Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen, ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen systematisch toegang tot de vergaderingen van de deskundigengroepen van de Commissie die zich bezighouden met de voorbereiding van de gedelegeerde handelingen.

(85)

Om ervoor te zorgen dat het regelgevingskader waar nodig kan worden aangepast, moet de Commissie de bevoegdheid krijgen om overeenkomstig artikel 290 VWEU handelingen vast te stellen teneinde wijzigingen aan te brengen in de in de lijst van bijlage II opgenomen harmonisatiewetgeving van de Unie, de in de lijst van bijlage III opgenomen AI-systemen met een hoog risico, de bepalingen inzake technische documentatie van bijlage IV, de inhoud van de EU-conformiteitsverklaring van bijlage V, de bepalingen inzake de procedures voor de conformiteitsbeoordeling van de bijlagen VI en VII en de bepalingen inzake de vaststelling van de AI-systemen met een hoog risico waarop de procedure voor de conformiteitsbeoordeling op basis van de beoordeling van het systeem voor kwaliteitsbeheer en de beoordeling van de technische documentatie van toepassing moet zijn. Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven (58) . Bij deze raadplegingen moet een evenwichtige selectie van belanghebbenden worden betrokken, waaronder consumentenorganisaties, het maatschappelijk middenveld, verenigingen die de betrokken personen vertegenwoordigen, vertegenwoordigers uit verschillende sectoren van het bedrijfsleven en van bedrijven van verschillende omvang, alsmede onderzoekers en wetenschappers . Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen, ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen systematisch toegang tot de vergaderingen van de deskundigengroepen van de Commissie die zich bezighouden met de voorbereiding van de gedelegeerde handelingen.

Amendement 137

Voorstel voor een verordening

Overweging 85 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(85 bis)

Gezien de snelle technologische ontwikkelingen en de vereiste technische deskundigheid bij de beoordeling van AI-systemen met een hoog risico, moet de Commissie de uitvoering van deze verordening, met name de verboden AI-systemen, de transparantieverplichtingen en de lijst van gebieden met een hoog risico en praktijkvoorbeelden, regelmatig en ten minste jaarlijks evalueren en daarbij het AI-bureau en de relevante belanghebbenden raadplegen.

Amendement 138

Voorstel voor een verordening

Overweging 87 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

(87 bis)

Aangezien betrouwbare informatie over het hulpbronnen- en energieverbruik, de afvalproductie en andere milieueffecten van AI-systemen en aanverwante ICT-technologie, met inbegrip van software, hardware en met name datacentra, beperkt is, moet de Commissie een passende methode invoeren om het milieueffect en de doeltreffendheid van deze verordening te meten in het licht van de milieu- en klimaatdoelstellingen van de Unie.

Amendement 139

Voorstel voor een verordening

Overweging 89

Door de Commissie voorgestelde tekst

Amendement

(89)

Overeenkomstig artikel 42, lid 2, van Verordening (EU) 2018/1725 zijn de Europese Toezichthouder voor gegevensbescherming en het Europees Comité voor gegevensbescherming geraadpleegd, en op […] hebben zij een advies uitgebracht.

(89)

Overeenkomstig artikel 42, lid 2, van Verordening (EU) 2018/1725 zijn de Europese Toezichthouder voor gegevensbescherming en het Europees Comité voor gegevensbescherming geraadpleegd, en op 18 juni 2021 hebben zij een advies uitgebracht.

Amendement 140

Voorstel voor een verordening

Artikel 1 — lid 1 (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1.

Deze verordening heeft ten doel de introductie van mensgerichte en betrouwbare artificiële intelligentie te bevorderen en te zorgen voor een hoge mate van bescherming tegen de schadelijke effecten van artificiële-intelligentiesystemen (AI-systemen) op het vlak van gezondheid, veiligheid, grondrechten, democratie, de rechtsstaat en het milieu in de Unie, en voorts innovatie te ondersteunen.

Amendement 141

Voorstel voor een verordening

Artikel 1 — alinea 1 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

geharmoniseerde transparantievoorschriften voor AI-systemen die met natuurlijke personen moeten interageren, systemen voor het herkennen van emoties en systemen voor biometrische categorisering, evenals voor AI-systemen die worden gebruikt om beeld-, audio- of video-inhoud te genereren of te manipuleren ;

d)

geharmoniseerde transparantievoorschriften voor bepaalde AI-systemen;

Amendement 142

Voorstel voor een verordening

Artikel 1 — alinea 1 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

regels inzake markttoezicht en -monitoring.

e)

regels inzake markttoezicht , marktmonitoring, governance en handhaving;

Amendement 143

Voorstel voor een verordening

Artikel 1 — alinea 1 — punt e bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e bis)

maatregelen ter ondersteuning van innovatie, met bijzondere aandacht voor kmo’s en start-ups, met inbegrip van de oprichting van testomgevingen voor regelgeving en gerichte maatregelen om de regeldruk voor kmo’s en start-ups te verminderen;

Amendement 144

Voorstel voor een verordening

Artikel 1 — alinea 1 — punt e ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e ter)

regels voor de oprichting en werking van het Bureau voor artificiële intelligentie (AI-bureau) van de Unie.

Amendement 145

Voorstel voor een verordening

Artikel 2 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

gebruikers van AI-systemen die zich in de Unie bevinden ;

b)

exploitanten van AI-systemen die gevestigd zijn of zich bevinden in de Unie;

Amendement 146

Voorstel voor een verordening

Artikel 2 — lid 1 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

aanbieders en gebruikers van AI-systemen die zich in een derde land bevinden wanneer de output van het systeem in de Unie wordt gebruikt.

c)

aanbieders en exploitanten van AI-systemen die gevestigd zijn of zich bevinden in een derde land wanneer het lidstatelijke recht van toepassing is krachtens internationaal publiekrecht of de output van het systeem bedoeld is om in de Unie te worden gebruikt;

Amendement 147

Voorstel voor een verordening

Artikel 2 — lid 1 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

aanbieders die in artikel 5 bedoelde AI-systemen buiten de Unie in de handel brengen of in gebruik stellen, terwijl de aanbieder of distributeur van dergelijke systemen zich in de Unie bevindt;

Amendement 148

Voorstel voor een verordening

Artikel 2 — lid 1 — punt c ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c ter)

importeurs en distributeurs van AI-systemen, alsook gemachtigden van aanbieders van AI-systemen, indien die importeurs, distributeurs of gemachtigden gevestigd zijn of zich bevinden in de Unie;

Amendement 149

Voorstel voor een verordening

Artikel 2 — lid 1 — punt c quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c quater)

betrokken personen als gedefinieerd in artikel 3, punt 8 bis, die zich in de Unie bevinden en wier gezondheid, veiligheid of grondrechten negatief worden beïnvloed door het gebruik van een AI-systeem dat in de Unie in de handel wordt gebracht of in gebruik wordt gesteld.

Amendement 150

Voorstel voor een verordening

Artikel 2 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Op AI-systemen met een hoog risico die veiligheidscomponenten van producten of systemen vormen of die zelf producten of systemen zijn en die vallen onder de volgende handelingen is uitsluitend artikel 84 van deze verordening van toepassing:

2.   Op AI-systemen met een hoog risico die veiligheidscomponenten van producten of systemen vormen of die zelf producten of systemen zijn en die binnen het toepassingsgebied van de in bijlage II, deel B, opgenomen harmonisatiewetgeving van de Unie vallen, is uitsluitend artikel 84 van deze verordening van toepassing.

Amendement 151

Voorstel voor een verordening

Artikel 2 — lid 2 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

Verordening (EG) nr. 300/2008;

Schrappen

Amendement 152

Voorstel voor een verordening

Artikel 2 — lid 2 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

Verordening (EU) nr. 167/2013;

Schrappen

Amendement 153

Voorstel voor een verordening

Artikel 2 — lid 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

Verordening (EU) nr. 168/2013;

Schrappen

Amendement 154

Voorstel voor een verordening

Artikel 2 — lid 2 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

Richtlijn 2014/90/EU;

Schrappen

Amendement 155

Voorstel voor een verordening

Artikel 2 — lid 2 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

Richtlijn (EU) 2016/797;

Schrappen

Amendement 156

Voorstel voor een verordening

Artikel 2 — lid 2 — punt f

Door de Commissie voorgestelde tekst

Amendement

f)

Verordening (EU) 2018/858;

Schrappen

Amendement 157

Voorstel voor een verordening

Artikel 2 — lid 2 — punt g

Door de Commissie voorgestelde tekst

Amendement

g)

Verordening (EU) 2018/1139;

Schrappen

Amendement 158

Voorstel voor een verordening

Artikel 2 — lid 2 — punt h

Door de Commissie voorgestelde tekst

Amendement

h)

Verordening (EU) 2019/2144.

Schrappen

Amendement 159

Voorstel voor een verordening

Artikel 2 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Deze verordening is niet van toepassing op overheidsinstanties in derde landen of internationale organisaties die overeenkomstig lid 1 onder het toepassingsgebied van deze verordening vallen wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale overeenkomsten voor samenwerking met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie.

4.   Deze verordening is niet van toepassing op overheidsinstanties in derde landen of internationale organisaties die overeenkomstig lid 1 onder het toepassingsgebied van deze verordening vallen wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten voor samenwerking met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie en zij het onderwerp zijn van een besluit van de Commissie dat is vastgesteld overeenkomstig artikel 36 van Richtlijn (EU) 2016/680 of artikel 45 van Verordening (EU) 2016/679 (adequaatheidsbesluit) of deel uitmaken van een internationale overeenkomst tussen de Unie en dat derde land of die internationale organisatie overeenkomstig artikel 218 VWEU die passende waarborgen biedt met betrekking tot de bescherming van de persoonlijke levenssfeer en de grondrechten en fundamentele vrijheden van personen .

Amendement 160

Voorstel voor een verordening

Artikel 2 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     Het Unierecht inzake de bescherming van persoonsgegevens, de privacy en de vertrouwelijkheid van communicatie is van toepassing op de verwerking van persoonsgegevens in verband met de rechten en verplichtingen die in deze verordening zijn vastgelegd. Deze verordening laat de Verordeningen (EU) 2016/679 en (EU) 2018/1725 en de Richtlijnen 2002/58/EG en (EU) 2016/680 onverlet, onverminderd de regelingen van artikel 10, lid 5, en artikel 54 van deze verordening.

Amendement 161

Voorstel voor een verordening

Artikel 2 — lid 5 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 ter.     Deze verordening doet geen afbreuk aan de regels die zijn vastgesteld in andere rechtshandelingen van de Unie met betrekking tot consumentenbescherming en productveiligheid.

Amendement 162

Voorstel voor een verordening

Artikel 2 — lid 5 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 quater.     Deze verordening belet de lidstaten of de Unie niet om wettelijke en bestuursrechtelijke bepalingen te handhaven of in te voeren die gunstiger zijn voor werknemers wat betreft de bescherming van hun rechten met betrekking tot het gebruik van AI-systemen door werkgevers, of om de toepassing van voor werknemers gunstigere collectieve overeenkomsten aan te moedigen of toe te staan.

Amendement 163

Voorstel voor een verordening

Artikel 2 — lid 5 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 quinquies.     Deze verordening is niet van toepassing op onderzoeks-, test- en ontwikkelingsactiviteiten met betrekking tot een AI-systeem voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld, mits deze activiteiten met inachtneming van de grondrechten en het toepasselijke Unierecht worden uitgevoerd. Tests in reële omstandigheden vallen niet onder deze vrijstelling. De Commissie is bevoegd overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen ter verduidelijking van de toepassing van dit lid om deze vrijstelling te specificeren om bestaand en mogelijk misbruik ervan te voorkomen. Het AI-bureau verstrekt richtsnoeren over de governance inzake onderzoek en ontwikkeling overeenkomstig artikel 56 en streeft er ook naar de toepassing ervan door de nationale toezichthoudende autoriteiten te coördineren.

Amendement 164

Voorstel voor een verordening

Artikel 2 — lid 5 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 sexies.     Deze verordening is niet van toepassing op AI-componenten die worden aangeboden in het kader van gratis en opensourcelicenties, behalve voor zover zij in de handel worden gebracht of in gebruik worden gesteld door een aanbieder als onderdeel van een AI-systeem met een hoog risico of van een AI-systeem dat onder titel II of titel IV valt. Deze vrijstelling geldt niet voor basismodellen zoals gedefinieerd in artikel 3.

Amendement 165

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1

Door de Commissie voorgestelde tekst

Amendement

1)

“artificiële-intelligentiesysteem” (AI-systeem): software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de lijst van bijlage I en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd ;

1)

“artificiële-intelligentiesysteem” (AI-systeem): een machinaal systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat voor expliciete of impliciete doelstellingen output kan genereren, zoals voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de fysieke of virtuele omgeving;

Amendement 166

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis)

“risico” de combinatie van de kans op schade en de ernst van die schade;

Amendement 167

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 ter)

“significant risico”: een risico dat aanzienlijk is als gevolg van de combinatie van de ernst, de intensiteit, de waarschijnlijkheid dat het zich voordoet, de duur van de gevolgen, en het vermogen om een persoon, meerdere personen of een bepaalde groep personen te treffen;

Amendement 168

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 quater)

“basismodel”: een AI-systeemmodel dat is getraind aan de hand van grootschalige gegevens, is ontworpen voor allerhande output en kan worden aangepast aan tal van uiteenlopende taken;

Amendement 169

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 quinquies)

“AI-systeem voor algemene doeleinden”: een AI-systeem dat kan worden gebruikt in en aangepast aan tal van toepassingen waarvoor het niet doelbewust en specifiek is ontworpen;

Amendement 170

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 1 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 sexies)

“uitgebreide training”: het productieproces van een krachtig AI-model waarvoor computermiddelen boven een zeer hoge drempel nodig zijn;

Amendement 171

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 3

Door de Commissie voorgestelde tekst

Amendement

3)

“kleine aanbieder”: een aanbieder die een micro- of kleine onderneming is in de zin van Aanbeveling 2003/361/EG van de Commissie  (61) ;

Schrappen

Amendement 172

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 4

Door de Commissie voorgestelde tekst

Amendement

4)

“gebruiker” : een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit;

4)

“exploitant” : een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit;

Amendement 173

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 8

Door de Commissie voorgestelde tekst

Amendement

8)

“exploitant” : de aanbieder, gebruiker , gemachtigde, importeur en distributeur;

8)

“operator” : de aanbieder, exploitant , gemachtigde, importeur en distributeur;

Amendement 174

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 8 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

8 bis)

“betrokken persoon”: elke natuurlijke persoon of groep personen die onderworpen is aan of anderszins wordt beïnvloed door een AI-systeem;

Amendement 175

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 11

Door de Commissie voorgestelde tekst

Amendement

11)

“in gebruik stellen”: de directe levering van een AI-systeem aan de gebruiker voor het eerste gebruik of voor eigen gebruik op de markt van de Unie voor het beoogde doel;

11)

“in gebruik stellen”: de directe levering van een AI-systeem aan de exploitant voor het eerste gebruik of voor eigen gebruik op de markt van de Unie voor het beoogde doel;

Amendement 176

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 13

Door de Commissie voorgestelde tekst

Amendement

13)

“redelijkerwijs te voorzien misbruik”: het gebruik van een AI-systeem op een wijze die niet in overeenstemming is met het beoogde doel, maar die kan voortvloeien uit redelijkerwijs te voorzien menselijk gedrag of de redelijkerwijs te voorziene interactie met andere systemen;

13)

“redelijkerwijs te voorzien misbruik”: het gebruik van een AI-systeem op een wijze die niet in overeenstemming is met het beoogde doel zoals aangegeven in de door de aanbieder opgestelde gebruiksaanwijzing , maar die kan voortvloeien uit redelijkerwijs te voorzien menselijk gedrag of de redelijkerwijs te voorziene interactie met andere systemen , met inbegrip van andere AI-systemen;

Amendement 177

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 14

Door de Commissie voorgestelde tekst

Amendement

14)

“veiligheidscomponent van een product of systeem”: een component van een product of systeem die een veiligheidsfunctie voor dat product of systeem vervult of waarvan het falen of gebrekkig functioneren de gezondheid en veiligheid van personen of eigendom in gevaar brengt;

14)

“veiligheidscomponent van een product of systeem”: in overeenstemming met de in bijlage II vermelde harmonisatiewetgeving van de Unie een component van een product of systeem die een veiligheidsfunctie voor dat product of systeem vervult of waarvan het falen of gebrekkig functioneren de gezondheid en veiligheid van personen in gevaar brengt;

Amendement 178

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 15

Door de Commissie voorgestelde tekst

Amendement

15)

“gebruiksinstructies”: de door de aanbieder verstrekte informatie om de gebruiker te informeren over met name het beoogde doel en juiste gebruik van een AI-systeem, met inbegrip van de specifieke geografische, functionele of gedragsomgeving waarin het AI-systeem met een hoog risico moet worden gebruikt;

15)

“gebruiksinstructies”: de door de aanbieder verstrekte informatie om de exploitant te informeren over met name het beoogde doel en juiste gebruik van een AI-systeem , alsook informatie over te nemen voorzorgsmaatregelen , met inbegrip van de specifieke geografische, functionele of gedragsomgeving waarin het AI-systeem met een hoog risico moet worden gebruikt;

Amendement 179

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 16

Door de Commissie voorgestelde tekst

Amendement

16)

“terugroepen van een AI-systeem”: een maatregel gericht op het retourneren aan de aanbieder van een AI-systeem dat reeds aan gebruikers ter beschikking is gesteld;

16)

“terugroepen van een AI-systeem”: een maatregel gericht op het retourneren aan de aanbieder van een AI-systeem dat reeds aan exploitanten ter beschikking is gesteld;

Amendement 180

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 20

Door de Commissie voorgestelde tekst

Amendement

20)

“conformiteitsbeoordeling”: het proces van verificatie van de naleving van de voorschriften van titel III, hoofdstuk 2, van deze verordening in verband met een AI-systeem;

20)

“conformiteitsbeoordeling”: het proces waarmee wordt aangetoond of is voldaan aan de voorschriften van titel III, hoofdstuk 2, van deze verordening in verband met een AI-systeem;

Amendement 181

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 22

Door de Commissie voorgestelde tekst

Amendement

22)

“aangemelde instantie”: een conformiteitsbeoordelingsinstantie die overeenkomstig deze verordening en andere relevante harmonisatiewetgeving van de Unie is aangewezen ;

22)

“aangemelde instantie”: een conformiteitsbeoordelingsinstantie die overeenkomstig deze verordening en andere relevante harmonisatiewetgeving van de Unie is aangemeld ;

Amendement 182

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 23

Door de Commissie voorgestelde tekst

Amendement

23)

“ingrijpende wijziging”: een verandering van een AI-systeem nadat dit in de handel is gebracht of in gebruik is gesteld, die gevolgen heeft voor de overeenstemming van het AI-systeem met de voorschriften van titel III, hoofdstuk 2, van deze verordening of die resulteert in een wijziging van het beoogde doel waarvoor het AI-systeem is beoordeeld;

23)

“ingrijpende wijziging”: een wijziging of een reeks wijzigingen van een AI-systeem nadat dit in de handel is gebracht of in gebruik is gesteld, die door de aanbieder niet is voorzien of gepland in de initiële risicobeoordeling en als gevolg waarvan de overeenstemming van het AI-systeem met de voorschriften van titel III, hoofdstuk 2, van deze verordening wordt beïnvloed of die resulteert in een wijziging van het beoogde doel waarvoor het AI-systeem is beoordeeld;

Amendement 183

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 24

Door de Commissie voorgestelde tekst

Amendement

24)

“CE-conformiteitsmarkering” (CE-markering): een markering waarmee een aanbieder aangeeft dat een AI-systeem in overeenstemming is met de voorschriften van titel III, hoofdstuk 2, van deze verordening en andere toepasselijke wetgeving van de Unie tot harmonisatie van de voorwaarden voor het in de handel brengen van producten (hierna “harmonisatiewetgeving van de Unie” genoemd) die in het aanbrengen ervan voorziet;

24)

“CE-conformiteitsmarkering” (CE-markering): een fysieke of digitale markering waarmee een aanbieder aangeeft dat een AI-systeem of een product met een ingebed AI-systeem in overeenstemming is met de voorschriften van titel III, hoofdstuk 2, van deze verordening en andere toepasselijke wetgeving van de Unie tot harmonisatie van de voorwaarden voor het in de handel brengen van producten (hierna “harmonisatiewetgeving van de Unie” genoemd) die in het aanbrengen ervan voorziet;

Amendement 184

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 29

Door de Commissie voorgestelde tekst

Amendement

29)

“trainingsdata”: data die worden gebruikt voor het trainen van een AI-systeem door de leerbare parameters hiervan aan te passen , met inbegrip van de wegingen van een neuraal netwerk ;

29)

“trainingsdata”: data die worden gebruikt voor het trainen van een AI-systeem door de leerbare parameters hiervan aan te passen;

Amendement 185

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 30

Door de Commissie voorgestelde tekst

Amendement

30)

“validatiedata”: data die worden gebruikt voor het verrichten van een evaluatie van het getrainde AI-systeem en voor het afstemmen van onder andere de niet-leerbare parameters en het leerproces ervan, om overfitting te voorkomen; de validatiedatareeks kan zowel een afzonderlijke datareeks als een deel van de datareeks voor de training zijn , als vaste of variabele verdeling;

30)

“validatiedata”: data die worden gebruikt voor het verrichten van een evaluatie van het getrainde AI-systeem en voor het afstemmen van onder andere de niet-leerbare parameters en het leerproces ervan, om onderfitting of overfitting te voorkomen; de validatiedatareeks is zowel een afzonderlijke datareeks als een deel van de datareeks voor de training, als vaste of variabele verdeling;

Amendement 186

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 33

Door de Commissie voorgestelde tekst

Amendement

33)

“biometrische gegevens”: persoonsgegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke , fysiologische of gedragsgerelateerde kenmerken van een natuurlijke persoon op grond waarvan eenduidige identificatie van die natuurlijke persoon mogelijk is of wordt bevestigd, zoals gezichtsafbeeldingen of vingerafdrukgegevens ;

33)

“biometrische gegevens”: biometrische gegevens als gedefinieerd in artikel 4, punt 14, van Verordening (EU) 2016/679 ;

Amendement 187

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 33 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

33 bis)

“op biometrie gebaseerde gegevens”: gegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke, fysiologische of gedragsgerelateerde kenmerken van een natuurlijke persoon;

Amendement 188

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 33 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

33 ter)

“biometrische identificatie”: de geautomatiseerde herkenning van fysieke, fysiologische, gedragsgerelateerde en psychologische menselijke kenmerken om de identiteit van een persoon vast te stellen door biometrische gegevens van die persoon te vergelijken met in een databank opgeslagen biometrische gegevens van personen (één-op-vele-identificatie);

Amendement 189

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 33 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

33 quater)

“biometrische verificatie”: de geautomatiseerde verificatie van de identiteit van natuurlijke personen door biometrische gegevens van een persoon te vergelijken met eerder verstrekte biometrische gegevens (één-op-één-verificatie, met inbegrip van authenticatie);

Amendement 190

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 33 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

33 quinquies)

“bijzondere categorieën persoonsgegevens”: de categorieën persoonsgegevens als bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679;

Amendement 191

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 34

Door de Commissie voorgestelde tekst

Amendement

34)

“systeem voor het herkennen van emoties”: een AI-systeem dat is bedoeld voor het vaststellen of afleiden van emoties of intenties van natuurlijke personen op basis van hun biometrische gegevens;

34)

“systeem voor het herkennen van emoties”: een AI-systeem dat is bedoeld voor het vaststellen of afleiden van emoties , gedachten, gemoedstoestanden of intenties van personen of groepen op basis van hun biometrische en op biometrie gebaseerde gegevens;

Amendement 192

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 35

Door de Commissie voorgestelde tekst

Amendement

35)

systeem voor biometrische categorisering”: een AI-systeem dat is bedoeld voor het indelen van natuurlijke personen in specifieke categorieën, zoals geslacht, leeftijd, haarkleur, oogkleur, tatoeages, etnische afkomst, seksuele gerichtheid of politieke overtuiging , op basis van hun biometrische gegevens;

35)

“biometrische categorisering”: het indelen van natuurlijke personen in specifieke categorieën, of het afleiden van hun kenmerken en eigenschappen op basis van hun biometrische of op biometrie gebaseerde gegevens;

Amendement 193

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 36

Door de Commissie voorgestelde tekst

Amendement

36)

“biometrisch systeem voor de identificatie op afstand”: een AI-systeem dat is bedoeld voor het identificeren van natuurlijke personen op afstand door middel van de vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank en zonder dat de gebruiker van het AI-systeem vooraf weet of de persoon hierin is opgenomen en kan worden geïdentificeerd;

36)

“biometrisch systeem voor de identificatie op afstand”: een AI-systeem dat is bedoeld voor het identificeren van natuurlijke personen op afstand door middel van de vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank en zonder dat de exploitant van het AI-systeem vooraf weet of de persoon hierin is opgenomen en kan worden geïdentificeerd , met uitzondering van verificatiesystemen ;

Amendement 194

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 37

Door de Commissie voorgestelde tekst

Amendement

37)

“biometrisch systeem voor de identificatie op afstand in real time”: een biometrisch systeem voor de identificatie op afstand waarbij het vastleggen van biometrische gegevens, de vergelijking en de identificatie plaatsvinden zonder aanzienlijke vertraging. Dit omvat niet alleen de onmiddellijke identificatie, maar ook beperkte korte vertragingen om omzeiling te voorkomen;

37)

“biometrisch systeem voor de identificatie op afstand in real time”: een biometrisch systeem voor de identificatie op afstand waarbij het vastleggen van biometrische gegevens, de vergelijking en de identificatie plaatsvinden zonder aanzienlijke vertraging. Dit omvat niet alleen de onmiddellijke identificatie, maar ook beperkte vertragingen om omzeiling te voorkomen;

Amendement 195

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 39

Door de Commissie voorgestelde tekst

Amendement

39)

“openbare ruimte”: een fysieke plek die toegankelijk is voor het publiek, ongeacht of bepaalde voorwaarden voor de toegang van toepassing zijn;

39)

“openbare ruimte”: een fysieke plek die in publieke of private handen is en toegankelijk is voor het publiek, ongeacht of bepaalde voorwaarden voor de toegang van toepassing zijn en ongeacht eventuele capaciteitsbeperkingen ;

Amendement 196

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 41

Door de Commissie voorgestelde tekst

Amendement

41)

“rechtshandhaving”: activiteiten die worden verricht door rechtshandhavingsinstanties met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;

41)

“rechtshandhaving”: activiteiten die worden verricht door of namens rechtshandhavingsinstanties met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;

Amendement 197

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 42

Door de Commissie voorgestelde tekst

Amendement

42)

“nationale toezichthoudende autoriteit”: de instantie waaraan een lidstaat de verantwoordelijkheid toekent voor de uitvoering en toepassing van deze verordening, voor de coördinatie van de activiteiten die aan die lidstaat zijn toevertrouwd, voor het optreden als enkel contactpunt voor de Commissie en voor het vertegenwoordigen van de lidstaat in het Europees Comité voor artificiële intelligentie ;

42)

“nationale toezichthoudende autoriteit”: een openbare instantie waaraan een lidstaat de verantwoordelijkheid toekent voor de uitvoering en toepassing van deze verordening, voor de coördinatie van de activiteiten die aan die lidstaat zijn toevertrouwd, voor het optreden als enkel contactpunt voor de Commissie en voor het vertegenwoordigen van de lidstaat in de raad van bestuur van het AI-bureau ;

Amendement 198

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 43

Door de Commissie voorgestelde tekst

Amendement

43)

“nationale bevoegde autoriteit”: de nationale toezichthoudende autoriteit, de aanmeldende autoriteit en de markttoezichtautoriteit ;

43)

“nationale bevoegde autoriteit”: een van de nationale autoriteiten die verantwoordelijk zijn voor de handhaving van deze verordening ;

Amendement 199

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

44)

“ernstig incident”: elk incident dat direct of indirect leidt, kan hebben geleid of kan leiden tot:

44)

“ernstig incident”: elk incident van een AI-systeem dat of elke storing van een AI-systeem die direct of indirect leidt, kan hebben geleid of kan leiden tot:

a)

het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon, eigendom of het milieu ;

a)

het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon;

b)

een ernstige verstoring van het beheer en de exploitatie van kritieke infrastructuur.

b)

een ernstige verstoring van het beheer en de exploitatie van kritieke infrastructuur;

 

b bis)

een schending van de krachtens het Unierecht beschermde grondrechten;

 

b ter)

ernstige schade aan eigendom of het milieu;

Amendement 200

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 bis)

“persoonsgegevens”: persoonsgegevens zoals gedefinieerd in artikel 4, punt 1, van Verordening (EU) 2016/679;

Amendement 201

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 ter)

“niet-persoonsgebonden gegevens”: andere gegevens dan persoonsgegevens;

Amendement 202

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 quater)

“profilering”: elke vorm van geautomatiseerde verwerking van persoonsgegevens zoals gedefinieerd in artikel 4, punt 4, van Verordening (EU) 2016/679, of in het geval van rechtshandhavingsautoriteiten in artikel 3, punt 4, van Richtlijn (EU) 2016/680, of in het geval van instellingen, organen of instanties van de Unie in artikel 3, punt 5, van Verordening (EU) 2018/1725;

Amendement 203

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 quinquies)

“deepfake”: gemanipuleerde of synthetische audio-, beeld- of video-inhoud die ten onrechte authentiek of waarheidsgetrouw lijkt te zijn, en die voorstellingen bevat van personen die dingen lijken te zeggen of te doen die zij niet hebben gezegd of gedaan, geproduceerd met behulp van AI-technieken, waaronder machinaal leren en deep learning;

Amendement 204

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 sexies)

“wijdverbreide inbreuk”: alle handelingen of omissies die in strijd zijn met het Unierecht ter bescherming van de belangen van personen:

 

a)

die schade hebben veroorzaakt of waarschijnlijk zullen veroorzaken voor de collectieve belangen van personen met verblijfplaats in ten minste twee andere lidstaten dan de lidstaat waar:

 

 

i)

de handeling of omissie haar oorsprong vond of plaatshad;

 

 

ii)

de betrokken aanbieder of, waar van toepassing, diens gemachtigde is gevestigd; of,

 

 

iii)

de exploitant is gevestigd, indien de inbreuk door de exploitant is gepleegd;

 

b)

die schade hebben veroorzaakt, veroorzaken of waarschijnlijk zullen veroorzaken voor de collectieve belangen van personen en die gemeenschappelijke kenmerken hebben, waaronder dezelfde onrechtmatige praktijk of een inbreuk op hetzelfde belang, en die zich gelijktijdig voordoen en door dezelfde operator worden begaan in ten minste drie lidstaten;

Amendement 205

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 septies)

“wijdverbreide inbreuk met een Uniedimensie”: een wijdverbreide inbreuk die schade heeft veroorzaakt of waarschijnlijk zal veroorzaken voor de collectieve belangen van personen in ten minste twee derde van de lidstaten waarvan de bevolking ten minste twee derde uitmaakt van de bevolking van de Unie;

Amendement 206

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 octies)

“testomgeving voor regelgeving”: een door een overheidsinstantie tot stand gebrachte gecontroleerde omgeving ter vergemakkelijking van het volgens een specifiek plan en onder regelgevend toezicht ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld;

Amendement 207

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 nonies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 nonies)

“kritieke infrastructuur”: een voorziening, een faciliteit, apparatuur, een netwerk of een systeem, of een onderdeel van een voorziening, een faciliteit, apparatuur, een netwerk of een systeem, die of dat noodzakelijk is voor de verlening van een essentiële dienst in de zin van artikel 2, lid 4, van Richtlijn (EU) 2022/2557;

Amendement 208

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 duodecies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 duodecies)

“sociale scoring”: het beoordelen of classificeren van natuurlijke personen op basis van hun sociaal gedrag, sociaal-economische status of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken;

Amendement 209

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 terdecies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 terdecies)

“sociaal gedrag”: de manier waarop een natuurlijke persoon interageert met en invloed uitoefent op andere natuurlijke personen of de samenleving;

Amendement 210

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 quaterdecies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 quaterdecies)

“stand van de techniek”: het ontwikkelde stadium van technisch vermogen op een gegeven moment met betrekking tot producten, processen en diensten, op basis van de desbetreffende geconsolideerde bevindingen op het gebied van wetenschap, technologie en ervaring;

Amendement 211

Voorstel voor een verordening

Artikel 3 — alinea 1 — punt 44 quindecies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

44 quindecies)

“testen in reële omstandigheden”: het tijdelijk testen van een AI-systeem voor zijn beoogde doel in reële omstandigheden buiten een laboratorium of een anderszins gesimuleerde omgeving;

Amendement 212

Voorstel voor een verordening

Artikel 4

Door de Commissie voorgestelde tekst

Amendement

Artikel 4

Schrappen

Wijzigingen van bijlage I

 

De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot wijziging van de lijst van technieken en benaderingen van bijlage I, teneinde deze lijst bij te werken om rekening te houden met marktontwikkelingen en technologische ontwikkelingen op basis van kenmerken die vergelijkbaar zijn met de daarin opgenomen technieken en benaderingen.

 

Amendement 213

Voorstel voor een verordening

Artikel 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 4 bis

 

Algemene beginselen die van toepassing zijn op alle AI-systemen

 

1.     Alle onder deze verordening vallende operators stellen alles in het werk om AI-systemen of basismodellen te ontwikkelen en te gebruiken in overeenstemming met de volgende algemene beginselen die een kader op hoog niveau vormen ter bevordering van een coherente, mensgerichte Europese benadering van ethische en betrouwbare artificiële intelligentie, die volledig in overeenstemming is met het Handvest en met de waarden waarop de Unie is gegrondvest:

 

a)

“invloed en toezicht door mensen”: AI-systemen worden ontwikkeld en gebruikt als een instrument dat ten dienste staat van mensen, dat de menselijke waardigheid en persoonlijke autonomie eerbiedigt, en dat functioneert op een wijze waar mensen op passende wijze controle en toezicht op kunnen houden;

 

b)

“technische robuustheid en veiligheid”: AI-systemen worden zodanig ontwikkeld en gebruikt dat onbedoelde en onverwachte schade zoveel mogelijk wordt beperkt, dat zij robuust zijn in geval van onbedoelde problemen en dat zij bestand zijn tegen pogingen tot wijziging van het gebruik of de prestaties van het AI-systeem met het oog op onrechtmatig gebruik door kwaadwillige derden;

 

c)

“privacy en databeheer”: AI-systemen worden ontwikkeld en gebruikt in overeenstemming met de bestaande regels inzake privacy en gegevensbescherming, en de verwerking van gegevens voldoet aan hoge normen wat kwaliteit en integriteit betreft;

 

d)

“transparantie”: AI-systemen worden ontwikkeld en gebruikt op een wijze die passende traceerbaarheid en verklaarbaarheid mogelijk maakt, waarbij mensen ervan in kennis worden gesteld dat zij communiceren of interageren met een AI-systeem, en gebruikers naar behoren worden geïnformeerd over de mogelijkheden en beperkingen van dat AI-systeem en betrokken personen worden geïnformeerd over hun rechten;

 

e)

“diversiteit, non-discriminatie en billijkheid”: AI-systemen worden zodanig ontwikkeld en gebruikt dat de inclusie van diverse actoren wordt gewaarborgd en dat gelijke toegang, gendergelijkheid en culturele diversiteit worden bevorderd, waarbij discriminerende effecten en onrechtvaardige vertekeningen die op grond van het Unierecht of het nationale recht verboden zijn, worden voorkomen;

 

f)

“sociaal en ecologisch welzijn”: AI-systemen worden ontwikkeld en gebruikt op een duurzame en milieuvriendelijke wijze en op een manier die alle mensen ten goede komt, waarbij de langetermijneffecten op het individu, de samenleving en de democratie worden gemonitord en beoordeeld.

 

2.     Lid 1 laat verplichtingen uit hoofde van het bestaande Unie- en nationale recht onverlet. Voor AI-systemen met een hoog risico worden de algemene beginselen door aanbieders of exploitanten omgezet en nageleefd door middel van de voorschriften van de artikelen 8 tot en met 15 en de in titel III, hoofdstuk 3, van deze verordening vastgelegde relevante verplichtingen. Voor basismodellen worden de algemene beginselen door aanbieders omgezet en nageleefd door middel van de voorschriften van de artikelen 28 tot en met 28 ter. Voor alle AI-systemen kan de toepassing van de in lid 1 bedoelde beginselen naargelang het geval worden bereikt door middel van de bepalingen van artikel 28, artikel 52 of de toepassing van geharmoniseerde normen, technische specificaties en gedragscodes als bedoeld in artikel 69, zonder nieuwe verplichtingen uit hoofde van deze verordening te creëren.

 

3.     De Commissie en het AI-bureau nemen deze leidende beginselen op in normalisatieverzoeken en aanbevelingen in de vorm van technische richtsnoeren om aanbieders en exploitanten te helpen bij de ontwikkeling en het gebruik van AI-systemen. Bij de ontwikkeling van de passende geharmoniseerde normen voor AI-systemen met een hoog risico als bedoeld in artikel 40, lid 2 ter, nemen de Europese normalisatie-instellingen de in lid 1 van dit artikel bedoelde algemene beginselen in aanmerking als op uitkomst gebaseerde doelstellingen.

Amendement 214

Voorstel voor een verordening

Artikel 4 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 4 ter

 

AI-geletterdheid

 

1.     Bij de uitvoering van deze verordening bevorderen de Unie en de lidstaten maatregelen voor de ontwikkeling van een toereikend niveau van AI-geletterdheid, in alle sectoren en rekening houdend met de verschillende behoeften van groepen aanbieders, exploitanten en betrokken personen, onder meer door middel van programma’s voor onderwijs en opleiding en voor scholing en omscholing en met waarborging van een passend gender- en leeftijdsevenwicht, met het oog op democratische controle van AI-systemen.

 

2.     Aanbieders en exploitanten van AI-systemen nemen maatregelen om te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.

 

3.     Dergelijke maatregelen voor geletterdheid bestaan concreet uit het aanleren van basisbegrippen en -vaardigheden in verband met AI-systemen en de werking daarvan, met inbegrip van de verschillende soorten producten en gebruikssituaties en de risico’s en voordelen die eraan verbonden zijn.

 

4.     Een toereikend niveau van AI-geletterdheid is een niveau dat voor zover nodig bijdraagt tot de bekwaamheid van aanbieders en exploitanten om naleving en handhaving van deze verordening te waarborgen.

Amendement 215

Voorstel voor een verordening

Artikel 5 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken gebruikt waarvan personen zich niet bewust zijn om het gedrag van personen wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;

a)

het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken waarvan personen zich niet bewust zijn of doelbewust manipulatieve of misleidende technieken gebruikt, met als doel of effect het gedrag van personen of een groep personen wezenlijk te verstoren door hun vermogen om een geïnformeerd besluit te nemen merkbaar te belemmeren, waardoor de persoon een besluit neemt dat deze anders niet had genomen, op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen, of een groep personen, aanzienlijke schade oplopen.

 

Het in de eerste alinea bedoelde verbod op AI-systemen die subliminale technieken toepassen, is niet van toepassing op AI-systemen die bedoeld zijn om voor goedgekeurde therapeutische doeleinden te worden gebruikt op basis van specifieke geïnformeerde toestemming van de personen die eraan zijn blootgesteld of, indien van toepassing, van hun wettelijke voogd;

Amendement 216

Voorstel voor een verordening

Artikel 5 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een specifieke groep personen als gevolg van hun leeftijd of fysieke of geestelijke handicap om het gedrag van personen die tot deze groep behoren, wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;

b)

het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een persoon of een specifieke groep personen , waaronder kenmerken van bekende of voorspelde persoonlijkheidskenmerken of de sociale of economische situatie, leeftijd of fysieke of geestelijke vermogens van deze persoon of deze groep personen, met als doel of effect het gedrag van deze persoon of van personen die tot deze groep behoren wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen aanzienlijke schade oplopen;

Amendement 217

Voorstel voor een verordening

Artikel 5 — lid 1 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

het in de handel brengen, in gebruik stellen of gebruiken van systemen voor biometrische categorisering die natuurlijke personen indelen op basis van gevoelige of beschermde eigenschappen of kenmerken, of op basis van het afleiden van die eigenschappen of kenmerken. Dit verbod is niet van toepassing op AI-systemen die bedoeld zijn om voor goedgekeurde therapeutische doeleinden te worden gebruikt op basis van specifieke geïnformeerde toestemming van de personen die eraan zijn blootgesteld of, indien van toepassing, van hun wettelijke voogd;

Amendement 218

Voorstel voor een verordening

Artikel 5 — lid 1 — punt c — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

c)

het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen door of namens overheidsinstanties voor de evaluatie of classificatie van de betrouwbaarheid van natuurlijke personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:

c)

het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen voor de sociale scoring, evaluatie of classificatie van natuurlijke personen of groepen natuurlijke personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende , afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:

Amendement 219

Voorstel voor een verordening

Artikel 5 — lid 1 — punt c — i

Door de Commissie voorgestelde tekst

Amendement

i)

de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of volledige groepen personen in een sociale context die geen verband houdt met de context waarin de data oorspronkelijk werden gegenereerd of verzameld;

(Niet van toepassing op de Nederlandse versie)

Amendement 220

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

d)

het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, tenzij en voor zover een dergelijk gebruik strikt noodzakelijk is voor een van de volgende doelstellingen:

d)

het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten;

Amendement 221

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d — i

Door de Commissie voorgestelde tekst

Amendement

i)

het gericht zoeken naar specifieke potentiële slachtoffers van misdaad, waaronder vermiste kinderen;

Schrappen

Amendement 222

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d — ii

Door de Commissie voorgestelde tekst

Amendement

ii)

het voorkomen van een specifieke, aanzienlijke en imminente dreiging voor het leven of de fysieke gezondheid van natuurlijke personen of van een terroristische aanslag;

Schrappen

Amendement 223

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d — iii

Door de Commissie voorgestelde tekst

Amendement

iii)

de detectie, opsporing, identificatie of vervolging van een dader of verdachte van een strafbaar feit als bedoeld in artikel 2, lid 2, van Kaderbesluit 2002/584/JBZ van de Raad  (62) , dat in de betrokken lidstaat strafbaar is met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel voor een maximumperiode van ten minste drie jaar, zoals bepaald in het recht van die lidstaat.

Schrappen

Amendement 224

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d bis)

het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem voor het verrichten van risicobeoordelingen van natuurlijke personen of groepen natuurlijke personen om te beoordelen hoe groot het risico is dat een natuurlijke persoon (opnieuw) een strafbaar feit pleegt, dan wel om te voorspellen of een daadwerkelijk of potentieel strafbaar feit of een daadwerkelijke of potentiële administratieve overtreding (opnieuw) zal worden gepleegd, op basis van de profilering van een natuurlijke persoon of de beoordeling van persoonlijkheidskenmerken en kenmerken, waaronder de locatie van de persoon, of eerder crimineel gedrag van natuurlijke personen of groepen natuurlijke personen;

Amendement 225

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d ter)

het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen die databanken voor gezichtsherkenning aanleggen of aanvullen door ongerichte scraping van gezichtsafbeeldingen van internet of CCTV-beelden;

Amendement 226

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d quater)

het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen om emoties van een natuurlijke persoon af te leiden in het kader van rechtshandhaving, grensbeheer, de werkplek en onderwijsinstellingen;

Amendement 227

Voorstel voor een verordening

Artikel 5 — lid 1 — punt d quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d quinquies)

het in gebruik stellen of gebruiken van AI-systemen voor de analyse van geregistreerde beelden van openbaar toegankelijke ruimten door middel van biometrische systemen voor identificatie op afstand “achteraf”, tenzij dit overeenkomstig het Unierecht onderworpen is aan voorafgaande rechterlijke toestemming en dit met het oog op rechtshandhaving strikt noodzakelijk is voor gerichte zoekopdrachten in verband met een specifiek ernstig strafbaar feit zoals gedefinieerd in artikel 83, lid 1, VWEU dat reeds heeft plaatsgevonden.

Amendement 228

Voorstel voor een verordening

Artikel 5 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Dit artikel doet geen afbreuk aan de verboden die van toepassing zijn wanneer een praktijk op het gebied van artificiële intelligentie een inbreuk vormt op andere Uniewetgeving, met inbegrip van het Unierecht inzake gegevensbescherming, non-discriminatie, consumentenbescherming of mededinging.

Amendement 229

Voorstel voor een verordening

Artikel 5 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.     Bij het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, punt d), genoemde doelstellingen wordt rekening gehouden met het volgende:

Schrappen

a)

de aard van de situatie die aanleiding geeft tot het mogelijke gebruik van het systeem, met inbegrip van de ernst, waarschijnlijkheid en omvang van de schade die zonder het gebruik van het systeem zou worden veroorzaakt;

 

b)

de gevolgen van het gebruik van het systeem voor de rechten en vrijheden van alle betrokken personen, en met name de ernst, waarschijnlijkheid en omvang van deze gevolgen.

 

Daarnaast moet het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, punt d), genoemde doelstellingen in overeenstemming zijn met noodzakelijke en evenredige waarborgen en voorwaarden in verband met het gebruik, en met name ten aanzien van de beperking in de tijd en de geografische en persoonlijke beperkingen.

 

Amendement 230

Voorstel voor een verordening

Artikel 5 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.     Wat betreft lid 1, punt d), en lid 2, wordt elk afzonderlijk gebruik met het oog op de rechtshandhaving van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten afhankelijk gesteld van een voorafgaande toestemming die wordt verleend door een gerechtelijke autoriteit of een onafhankelijke administratieve autoriteit van de lidstaat waarin het gebruik moet plaatsvinden en die wordt gegeven op verzoek en in overeenstemming met de gedetailleerde regels van het intern recht als bedoeld in lid 4. In een naar behoren gerechtvaardigde situatie van urgentie mag het gebruik van het systeem echter zonder toestemming worden gestart en mag de toestemming tijdens of na het gebruik worden aangevraagd.

Schrappen

De bevoegde gerechtelijke of administratieve autoriteit verleent de toestemming slechts wanneer zij er op basis van objectief bewijs of duidelijke indicaties die aan haar zijn voorgelegd van overtuigd is dat het gebruik van het biometrische systeem voor de identificatie op afstand in real time noodzakelijk is voor en evenredig is aan het bereiken van een van de in lid 1, punt d), gespecificeerde doelstellingen, zoals genoemd in het verzoek. Bij haar beslissing over het verzoek houdt de bevoegde gerechtelijke of administratieve autoriteit rekening met de in lid 2 bedoelde elementen.

 

Amendement 231

Voorstel voor een verordening

Artikel 5 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.     Een lidstaat kan besluiten om te voorzien in de mogelijkheid om volledig of gedeeltelijk toestemming te verlenen voor het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving binnen de grenzen en onder de voorwaarden van lid 1, punt d), en de leden 2 en 3. Deze lidstaat stelt in zijn interne recht de noodzakelijke gedetailleerde regels vast voor het verzoek om en de afgifte en het gebruik van, evenals het toezicht in verband met, de in lid 3 bedoelde vergunningen. In deze regels wordt ook gespecificeerd voor welke doelstellingen van lid 1, punt d), en voor welke strafbare feiten als bedoeld in punt iii) daarvan de bevoegde autoriteiten deze systemen mogen gebruiken met het oog op de rechtshandhaving.

Schrappen

Amendement 232

Voorstel voor een verordening

Artikel 6 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

het AI-systeem is bedoeld om te worden gebruikt als veiligheidscomponent van een product of is zelf een product dat valt onder de in bijlage II opgenomen harmonisatiewetgeving van de Unie;

a)

het AI-systeem is bedoeld om te worden gebruikt als veiligheidscomponent van een product of het AI-systeem is zelf een product dat valt onder de in bijlage II opgenomen harmonisatiewetgeving van de Unie;

Amendement 233

Voorstel voor een verordening

Artikel 6 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

voor het product waarvan het AI-systeem de veiligheidscomponent vormt of voor het AI-systeem als product zelf moet een conformiteitsbeoordeling van een derde partij worden uitgevoerd met het oog op het in de handel brengen of in gebruik stellen van dat product overeenkomstig de in bijlage II opgenomen harmonisatiewetgeving van de Unie.

b)

voor het product waarvan het AI-systeem overeenkomstig punt a) de veiligheidscomponent vormt of voor het AI-systeem als product zelf moet een conformiteitsbeoordeling van een derde partij met betrekking tot de risico’s voor de gezondheid en veiligheid worden uitgevoerd met het oog op het in de handel brengen of in gebruik stellen van dat product overeenkomstig de in bijlage II opgenomen harmonisatiewetgeving van de Unie.

Amendement 234

Voorstel voor een verordening

Artikel 6 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Naast de in lid 1 bedoelde AI-systemen met een hoog risico worden ook AI-systemen zoals bedoeld in bijlage III als AI-systeem met een hoog risico beschouwd.

2.   Naast de in lid 1 bedoelde AI-systemen met een hoog risico worden ook AI-systemen die onder een of meer van de kritieke gebieden en praktijkvoorbeelden zoals bedoeld in bijlage III vallen als AI-systeem met een hoog risico beschouwd indien zij een significant risico op schade voor de gezondheid, de veiligheid of de grondrechten van natuurlijke personen inhouden . Wanneer een AI-systeem onder punt 2 van bijlage III valt, wordt het als een systeem met een hoog risico beschouwd indien het een significant risico op schade voor het milieu inhoudt.

 

De Commissie verstrekt zes maanden vóór de inwerkingtreding van deze verordening, na raadpleging van het AI-bureau en van relevante belanghebbenden, richtsnoeren waarin duidelijk de omstandigheden worden gespecificeerd waarin de output van in bijlage III bedoelde AI-systemen een significant risico op schade voor de gezondheid, de veiligheid of de grondrechten van natuurlijke personen zou inhouden, of wordt uitgelegd wanneer dit niet het geval zou zijn.

Amendement 235

Voorstel voor een verordening

Artikel 6 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     Wanneer aanbieders die onder een of meer van de in bijlage III bedoelde kritieke gebieden en praktijkvoorbeelden vallen, van mening zijn dat hun AI-systeem geen significant risico als beschreven in lid 2 inhoudt, dienen zij bij de nationale toezichthoudende autoriteit een met redenen omklede kennisgeving in dat zij niet onderworpen zijn aan de voorschriften van titel III, hoofdstuk 2, van deze verordening. Wanneer het AI-systeem bedoeld is om in twee of meer lidstaten te worden gebruikt, wordt die kennisgeving gericht aan het AI-bureau. Onverminderd artikel 65 beoordeelt en beantwoordt de nationale toezichthoudende autoriteit de kennisgeving binnen drie maanden, hetzij rechtstreeks, hetzij via het AI-bureau, indien zij van mening is dat het AI-systeem verkeerd is geclassificeerd.

Amendement 236

Voorstel voor een verordening

Artikel 6 — lid 2 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 ter.     Aanbieders die hun AI-systeem verkeerd classificeren als niet onderworpen aan de voorschriften van titel III, hoofdstuk 2, van deze verordening en het in de handel brengen vóór de uiterste termijn voor bezwaar door nationale toezichthoudende autoriteiten, worden overeenkomstig artikel 71 bestraft met geldboeten.

Amendement 237

Voorstel voor een verordening

Artikel 6 — lid 2 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 quater.     De nationale toezichthoudende autoriteiten dienen bij het AI-bureau een jaarlijks verslag in met een gedetailleerd overzicht van het aantal ontvangen kennisgevingen, de daarmee verband houdende gebieden met een hoog risico en de besluiten die zijn genomen met betrekking tot de ontvangen kennisgevingen.

Amendement 238

Voorstel voor een verordening

Artikel 7 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot bijwerking van bijlage III door hieraan AI-systemen met een hoog risico toe te voegen wanneer aan beide van de volgende voorwaarden is voldaan:

1.   De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door voor AI-systemen met een hoog risico gebieden of praktijkvoorbeelden toe te voegen of te wijzigen wanneer deze een significant risico inhouden op schade voor de gezondheid en veiligheid, of op nadelige effecten op de grondrechten, op het milieu of op de democratie en de rechtsstaat, en dat risico gezien de ernst en waarschijnlijkheid ervan gelijk is aan of groter is dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.

Amendement 239

Voorstel voor een verordening

Artikel 7 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de AI-systemen zijn bedoeld om te worden gebruikt op een van de gebieden als bedoeld in bijlage III, punten 1 tot en met 8;

Schrappen

Amendement 240

Voorstel voor een verordening

Artikel 7 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

de AI-systemen vormen een risico op schade voor de gezondheid en veiligheid, of een risico op nadelige effecten op de grondrechten, dat, gezien de ernst en waarschijnlijkheid hiervan, gelijk is aan of groter is dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.

Schrappen

Amendement 241

Voorstel voor een verordening

Artikel 7 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     De Commissie is tevens bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen om praktijkvoorbeelden van AI-systemen met een hoog risico van de lijst in bijlage III te schrappen indien de in lid 1 bedoelde voorwaarden niet langer van toepassing zijn.

Amendement 242

Voorstel voor een verordening

Artikel 7 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Bij de beoordeling met het oog op lid  1 van de vraag of een AI-systeem een risico vormt op schade voor de gezondheid en veiligheid of op nadelige effecten op de grondrechten dat gelijk is aan of groter is dan het risico op schade dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III, houdt de Commissie rekening met de volgende criteria:

2.   Bij de beoordeling van een AI-systeem met het oog op de leden  1 en 1 bis houdt de Commissie rekening met de volgende criteria:

Amendement 243

Voorstel voor een verordening

Artikel 7 — lid 2 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

de algemene capaciteiten en functionaliteiten van het AI-systeem ongeacht het beoogde doel ervan;

Amendement 244

Voorstel voor een verordening

Artikel 7 — lid 2 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

de aard van de gegevens en de hoeveelheid gegevens die door het AI-systeem worden verwerkt en gebruikt;

Amendement 245

Voorstel voor een verordening

Artikel 7 — lid 2 — punt b ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b ter)

de mate waarin het AI-systeem autonoom handelt;

Amendement 246

Voorstel voor een verordening

Artikel 7 — lid 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid of nadelige effecten op de grondrechten heeft veroorzaakt of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met het ontstaan van dergelijke schade of nadelige effecten, zoals aangetoond door verslagen of gedocumenteerde beschuldigingen die zijn ingediend bij de nationale bevoegde autoriteiten;

c)

de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid heeft veroorzaakt, nadelige effecten op de grondrechten , het milieu, de democratie en de rechtsstaat heeft gehad of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met de waarschijnlijkheid van dergelijke schade of nadelige effecten, zoals aangetoond door bijvoorbeeld verslagen of gedocumenteerde beschuldigingen die zijn ingediend bij de nationale toezichthoudende autoriteiten , de Commissie, het AI-bureau, de EDPS of het Bureau van de Europese Unie voor de grondrechten ;

Amendement 247

Voorstel voor een verordening

Artikel 7 — lid 2 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen;

d)

de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen of dat een bepaalde groep personen onevenredig wordt getroffen ;

Amendement 248

Voorstel voor een verordening

Artikel 7 — lid 2 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde uitkomst , met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze uitkomst af te zien;

e)

de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde output, waarbij die output louter bijkomstig is ten aanzien van de te nemen relevante maatregelen of besluiten , met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze output af te zien;

Amendement 249

Voorstel voor een verordening

Artikel 7 — lid 2 — punt e bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e bis)

het mogelijke misbruik en kwaadwillig gebruik van het AI-systeem en van de daaraan ten grondslag liggende technologie;

Amendement 250

Voorstel voor een verordening

Artikel 7 — lid 2 — punt f

Door de Commissie voorgestelde tekst

Amendement

f)

de mate waarin potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiker van een AI-systeem, met name als gevolg van onevenwichtige machtsverhoudingen , kennis, economische of sociale omstandigheden of leeftijd;

f)

de mate waarin sprake is van een onevenwichtige machtsverhouding, of de potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiker van een AI-systeem, met name als gevolg van status, autoriteit , kennis, economische of sociale omstandigheden of leeftijd;

Amendement 251

Voorstel voor een verordening

Artikel 7 — lid 2 — punt g

Door de Commissie voorgestelde tekst

Amendement

g)

de mate waarin de aan de hand van een AI-systeem geproduceerde uitkomst gemakkelijk omkeerbaar is, waarbij uitkomsten die effecten hebben op de gezondheid of veiligheid van personen niet als gemakkelijk omkeerbaar worden beschouwd;

g)

de mate waarin de aan de hand van een AI-systeem geproduceerde uitkomst gemakkelijk omkeerbaar of te verhelpen is, waarbij uitkomsten die nadelige effecten hebben op de gezondheid , de veiligheid , de grondrechten van personen , het milieu, of op de democratie en de rechtsstaat niet als gemakkelijk omkeerbaar worden beschouwd;

Amendement 252

Voorstel voor een verordening

Artikel 7 — lid 2 — punt g bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g bis)

de mate van beschikbaarheid en gebruik van doeltreffende technische oplossingen en mechanismen voor de controle, betrouwbaarheid en corrigeerbaarheid van het AI-systeem;

Amendement 253

Voorstel voor een verordening

Artikel 7 — lid 2 — punt g ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g ter)

de schaal en waarschijnlijkheid van de voordelen van de uitrol van het AI-systeem voor personen, groepen of de samenleving in het algemeen, met inbegrip van mogelijke verbeteringen op het gebied van productveiligheid;

Amendement 254

Voorstel voor een verordening

Artikel 7 — lid 2 — punt g quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g quater)

de mate van menselijk toezicht en de mogelijkheid van tussenkomst door een mens om beslissingen of aanbevelingen die tot schade kunnen leiden terzijde te schuiven;

Amendement 255

Voorstel voor een verordening

Artikel 7 — lid 2 — punt h

Door de Commissie voorgestelde tekst

Amendement

i)

doeltreffende maatregelen om beroep aan te tekenen in verband met de risico’s van een AI-systeem, met uitzondering van vorderingen tot schadevergoeding ;

h)

de mate waarin in het bestaande Unierecht is voorzien in:

 

 

i)

doeltreffende maatregelen om beroep aan te tekenen in verband met de schade die is veroorzaakt door een AI-systeem, met uitzondering van vorderingen tot vergoeding van directe of indirecte schade ;

 

 

ii)

doeltreffende maatregelen om deze risico’s te voorkomen of aanzienlijk te beperken.

Amendement 256

Voorstel voor een verordening

Artikel 7 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     Bij de beoordeling van een AI-systeem met het oog op de leden 1 of 1 bis raadpleegt de Commissie het AI-bureau en, waar relevant, vertegenwoordigers van groepen waarop een AI-systeem van invloed is, de industrie, onafhankelijke deskundigen, de sociale partners en maatschappelijke organisaties. De Commissie houdt in dit verband ook openbare raadplegingen en maakt de resultaten van die raadplegingen en van de eindbeoordeling openbaar.

Amendement 257

Voorstel voor een verordening

Artikel 7 — lid 2 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 ter.     Het AI-bureau, de nationale toezichthoudende autoriteiten of het Europees Parlement kunnen de Commissie verzoeken de indeling van een AI-systeem in een risicocategorie overeenkomstig de leden 1 en 1 bis opnieuw te beoordelen en te wijzigen. De Commissie geeft de redenen voor haar besluit en maakt deze openbaar.

Amendement 258

Voorstel voor een verordening

Artikel 8 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Bij de naleving van de in dit hoofdstuk vastgestelde voorschriften wordt naar behoren rekening gehouden met de ontwikkelde richtsnoeren als bedoeld in artikel 82 ter, en de algemeen erkende stand van de techniek, onder meer zoals die tot uiting komt in de relevante geharmoniseerde normen en gemeenschappelijke specificaties zoals bedoeld in de artikelen 40 en 41 of zoals reeds vastgesteld in de harmonisatiewetgeving van de Unie.

Amendement 259

Voorstel voor een verordening

Artikel 8 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Bij het waarborgen van de naleving van deze voorschriften wordt rekening gehouden met het beoogde doel van het AI-systeem met een hoog risico en het systeem voor risicobeheer als bedoeld in artikel 9.

2.   Bij het waarborgen van de naleving van deze voorschriften wordt rekening gehouden met het beoogde doel van het AI-systeem met een hoog risico , het redelijkerwijs te voorziene misbruik en het systeem voor risicobeheer als bedoeld in artikel 9.

Amendement 260

Voorstel voor een verordening

Artikel 8 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     Mits de voorschriften van titel III, hoofdstukken 2 en 3, of titel VIII, hoofdstukken 1, 2 en 3, voor AI-systemen met een hoog risico aan bod komen in de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie, wordt geacht te zijn voldaan aan de voorschriften of verplichtingen van die hoofdstukken van deze verordening, voor zover zij de AI-component omvatten. De voorschriften van titel III, hoofdstukken 2 en 3, of titel VIII, hoofdstukken 1, 2 en 3, voor AI-systemen met een hoog risico die niet aan bod komen in de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie, worden in voorkomend geval in die harmonisatiewetgeving van de Unie opgenomen. De desbetreffende conformiteitsbeoordeling wordt uitgevoerd in het kader van de procedures van de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie.

Amendement 261

Voorstel voor een verordening

Artikel 9 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   In verband met AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastgesteld, uitgevoerd, gedocumenteerd en in stand gehouden.

1.   In verband met AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastgesteld, uitgevoerd, gedocumenteerd en in stand gehouden gedurende de gehele levensduur van het AI-systeem. Het systeem voor risicobeheer kan geïntegreerd worden in, of een onderdeel vormen van, reeds bestaande procedures voor risicobeheer die verband houden met de desbetreffende sectorale wetgeving van de Unie, voor zover het voldoet aan de voorschriften van dit artikel.

Amendement 262

Voorstel voor een verordening

Artikel 9 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Het systeem voor risicobeheer bestaat in een doorlopend iteratief proces tijdens de gehele levensduur van een AI-systeem met een hoog risico, dat periodieke systematische actualisering vereist. Het omvat de volgende stappen:

2.   Het systeem voor risicobeheer bestaat in een doorlopend iteratief proces tijdens de gehele levensduur van een AI-systeem met een hoog risico, dat periodieke evaluatie en actualisering van het risicobeheersingsproces vereist om de blijvende doeltreffendheid ervan te waarborgen, alsook de documentatie van eventuele significante besluiten en maatregelen die op grond van dit artikel zijn genomen . Het omvat de volgende stappen:

Amendement 263

Voorstel voor een verordening

Artikel 9 — lid 2 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

het vaststellen en analyseren van de bekende en te voorziene risico’s die gepaard gaan met elk AI-systeem met een hoog risico;

a)

het vaststellen , inschatten en evalueren van de bekende en de redelijkerwijs te voorziene risico’s die het AI-systeem met een hoog risico kan inhouden voor de gezondheid of veiligheid van natuurlijke personen, hun grondrechten, met inbegrip van gelijke toegang en kansen, de democratie en de rechtsstaat of het milieu wanneer het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan en in een situatie van redelijkerwijs te voorzien misbruik ;

Amendement 264

Voorstel voor een verordening

Artikel 9 — lid 2 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

het inschatten en evalueren van de risico’s die zich kunnen voordoen wanneer het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan en in een situatie van redelijkerwijs te voorzien misbruik;

Schrappen

Amendement 265

Voorstel voor een verordening

Artikel 9 — lid 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

een evaluatie van andere risico’s die zich kunnen voordoen op basis van de analyse van de data die zijn verzameld door het systeem voor monitoring na het in de handel brengen als bedoeld in artikel 61;

c)

een evaluatie van opkomende significante risico’s zoals omschreven in punt a) die zijn vastgesteld op basis van de analyse van de data die zijn verzameld door het systeem voor monitoring na het in de handel brengen als bedoeld in artikel 61;

Amendement 266

Voorstel voor een verordening

Artikel 9 — lid 2 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

het vaststellen van geschikte risicobeheersingsmaatregelen in overeenstemming met de bepalingen van de volgende leden.

d)

het vaststellen van passende en gerichte risicobeheersingsmaatregelen die zijn afgestemd op het aanpakken van de overeenkomstig de punten a) en b) van dit lid vastgestelde risico’s, in overeenstemming met de bepalingen van de volgende leden.

Amendement 267

Voorstel voor een verordening

Artikel 9 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Ten aanzien van de in lid 2, punt d), bedoelde risicobeheersingsmaatregelen wordt naar behoren rekening gehouden met de effecten en mogelijke wisselwerkingen die voortvloeien uit de gecombineerde toepassing van de in dit hoofdstuk uiteengezette voorschriften . Er wordt rekening gehouden met de algemeen erkende stand van de techniek, onder meer zoals weerspiegeld in de relevante geharmoniseerde normen of gemeenschappelijke specificaties .

3.   Ten aanzien van de in lid 2, punt d), bedoelde risicobeheersingsmaatregelen wordt naar behoren rekening gehouden met de effecten en mogelijke wisselwerkingen die voortvloeien uit de gecombineerde toepassing van de in dit hoofdstuk 2 uiteengezette voorschriften , teneinde risico’s doeltreffend te beperken en tegelijkertijd een passende en evenredige uitvoering van de voorschriften te waarborgen .

Amendement 268

Voorstel voor een verordening

Artikel 9 — lid 4 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

4.   De in lid 2, punt d), bedoelde risicobeheersingsmaatregelen zijn zodanig dat eventuele restrisico’s in verband met elk gevaar en het totale restrisico van de AI-systemen met een hoog risico aanvaardbaar worden geacht, mits het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik. De gebruiker wordt op de hoogte gesteld van deze restrisico’s.

4.   De in lid 2, punt d), bedoelde risicobeheersingsmaatregelen zijn zodanig dat relevante restrisico’s in verband met elk gevaar en het totale restrisico van de AI-systemen met een hoog risico op basis van een met redenen omklede beoordeling worden geacht aanvaardbaar te zijn , mits het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik. De exploitant wordt op de hoogte gesteld van deze restrisico’s en de met redenen omklede beoordeling daarvan .

 

Bij het vaststellen van de meest passende risicobeheersingsmaatregelen wordt het volgende gewaarborgd:

Amendement 269

Voorstel voor een verordening

Artikel 9 — lid 4 — alinea 2 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de risico’s worden zo veel mogelijk uitgesloten of beperkt door middel van een adequaat ontwerp en adequate ontwikkeling;

a)

de vastgestelde risico’s worden voor zover technisch haalbaar uitgesloten of beperkt door middel van een adequaat ontwerp en adequate ontwikkeling van het AI-systeem met een hoog risico, indien relevant met betrokkenheid van deskundigen en externe belanghebbenden ;

Amendement 270

Voorstel voor een verordening

Artikel 9 — lid 4 — alinea 2 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

waar passend worden adequate maatregelen voor beperking en controle genomen in verband met risico’s die niet kunnen worden uitgesloten;

b)

waar passend worden adequate maatregelen voor beperking en controle genomen voor het aanpakken van significante risico’s die niet kunnen worden uitgesloten;

Amendement 271

Voorstel voor een verordening

Artikel 9 — lid 4 — alinea 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

er wordt toereikende informatie verstrekt overeenkomstig artikel 13 , met name met betrekking tot de in lid 2, punt b), van dit artikel bedoelde risico’s en er wordt waar passend voorzien in opleidingen voor gebruikers .

c)

de vereiste informatie wordt verstrekt overeenkomstig artikel 13 en er wordt waar passend voorzien in opleidingen voor exploitanten .

Amendement 272

Voorstel voor een verordening

Artikel 9 — lid 4 — alinea 3

Door de Commissie voorgestelde tekst

Amendement

Bij het uitsluiten of beperken van de risico’s die verband houden met het gebruik van het AI-systeem met een hoog risico wordt naar behoren aandacht besteed aan de te verwachten technische kennis, ervaring, scholing en opleiding van de gebruiker en de omgeving waarin het systeem dient te worden gebruikt .

Bij het uitsluiten of beperken van de risico’s die verband houden met het gebruik van het AI-systeem met een hoog risico besteden aanbieders naar behoren aandacht aan de technische kennis, ervaring, scholing en opleiding die de exploitant mogelijk nodig heeft, onder meer met betrekking tot de vermoedelijke gebruikscontext .

Amendement 273

Voorstel voor een verordening

Artikel 9 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   AI-systemen met een hoog risico worden getest met het oog op het vaststellen van de passendste risicobeheersingsmaatregelen. De tests zorgen ervoor dat AI-systemen met een hoog risico consistent presteren ten aanzien van het beoogde doel ervan en in overeenstemming zijn met de voorschriften van dit hoofdstuk.

5.   AI-systemen met een hoog risico worden getest met het oog op het vaststellen van de passendste en meest gerichte risicobeheersingsmaatregelen en het afwegen van dergelijke maatregelen tegen de potentiële voordelen en de beoogde doelen van het systeem . De tests zorgen ervoor dat AI-systemen met een hoog risico consistent presteren ten aanzien van het beoogde doel ervan en in overeenstemming zijn met de voorschriften van dit hoofdstuk.

Amendement 274

Voorstel voor een verordening

Artikel 9 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   De testprocedures zijn geschikt om het beoogde doel van het AI-systeem te verwezenlijken en hoeven niet verder te gaan dan wat noodzakelijk is om dat doel te bereiken .

6.   De testprocedures zijn geschikt om het beoogde doel van het AI-systeem te verwezenlijken.

Amendement 275

Voorstel voor een verordening

Artikel 9 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   Het testen van AI-systemen met een hoog risico vindt , zoals passend, in de loop van het ontwikkelingsproces plaats en in ieder geval voordat het systeem in de handel wordt gebracht of in gebruik wordt gesteld. De tests worden uitgevoerd aan de hand van vooraf vastgestelde standaarden en probabilistische drempels die passend zijn voor het beoogde doel van het AI-systeem met een hoog risico.

7.   Het testen van AI-systemen met een hoog risico vindt plaats voordat het systeem in de handel wordt gebracht of in gebruik wordt gesteld. De tests worden uitgevoerd aan de hand van vooraf vastgestelde standaarden en probabilistische drempels die passend zijn voor het beoogde doel of het redelijkerwijs te voorziene misbruik van het AI-systeem met een hoog risico.

Amendement 276

Voorstel voor een verordening

Artikel 9 — lid 8

Door de Commissie voorgestelde tekst

Amendement

8.   Bij de uitvoering van het systeem voor risicobeheer als beschreven in de leden 1 tot en met 7 wordt bijzondere aandacht besteed aan de vraag of het waarschijnlijk is dat kinderen toegang zullen hebben tot het AI-systeem met een hoog risico of dat het systeem gevolgen voor hen zal hebben.

8.   Bij de uitvoering van het systeem voor risicobeheer als beschreven in de leden 1 tot en met 7 besteden aanbieders bijzondere aandacht aan de vraag of het waarschijnlijk is dat het AI-systeem met een hoog risico nadelige gevolgen voor kwetsbare groepen van mensen of kinderen zal hebben.

Amendement 277

Voorstel voor een verordening

Artikel 9 — lid 9

Door de Commissie voorgestelde tekst

Amendement

9.   Voor kredietinstellingen die vallen onder Richtlijn 2013/36/EU zijn de in de leden 1 tot en met 8 beschreven aspecten onderdeel van de risicobeheersingsprocedures die door deze instellingen overeenkomstig artikel 74 van die richtlijn zijn vastgesteld .

9.   Voor aanbieders en AI-systemen die reeds onder het Unierecht vallen waardoor zij verplicht zijn een specifiek risicobeheer in te voeren, met inbegrip van kredietinstellingen die vallen onder Richtlijn 2013/36/EU, zijn de in de leden 1 tot en met 8 beschreven aspecten onderdeel van de risicobeheersingsprocedures die bij dat Unierecht zijn vastgesteld of worden zij daarmee gecombineerd .

Amendement 278

Voorstel voor een verordening

Artikel 10 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   AI-systemen met een hoog risico die technieken gebruiken die het trainen van modellen met data omvatten, worden ontwikkeld op basis van datareeksen voor training, validatie en tests die voldoen aan de kwaliteitscriteria als bedoeld in de leden 2 tot en met 5.

1.   AI-systemen met een hoog risico die technieken gebruiken die het trainen van modellen met data omvatten, worden ontwikkeld op basis van datareeksen voor training, validatie en tests die voldoen aan de kwaliteitscriteria als bedoeld in de leden 2 tot en met 5 , voor zover dit technisch haalbaar is overeenkomstig het specifieke marktsegment of toepassingsgebied .

 

Technieken die geen geëtiketteerde inputdata vereisen, zoals ongecontroleerd leren en versterkend leren, worden ontwikkeld op basis van datareeksen zoals voor tests en verificatie die voldoen aan de in de leden 2 tot en met 5 bedoelde kwaliteitscriteria.

Amendement 279

Voorstel voor een verordening

Artikel 10 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Datareeksen voor training, validatie en tests worden onderworpen aan passende praktijken op het gebied van databeheer . Deze praktijken hebben in het bijzonder betrekking op:

2.   Datareeksen voor training, validatie en tests worden onderworpen aan databeheer dat passend is voor de gebruikscontext en voor het beoogde doel van het AI-systeem . Deze maatregelen hebben in het bijzonder betrekking op:

Amendement 280

Voorstel voor een verordening

Artikel 10 — lid 2 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

transparantie met betrekking tot het oorspronkelijke doel van de dataverzameling;

Amendement 281

Voorstel voor een verordening

Artikel 10 — lid 2 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

dataverzameling;

b)

processen voor dataverzameling;

Amendement 282

Voorstel voor een verordening

Artikel 10 — lid 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

relevante verwerkingsactiviteiten voor datavoorbereiding, zoals annotatie, etikettering, opschoning, verrijking en aggregatie;

c)

verwerkingsactiviteiten voor datavoorbereiding, zoals annotatie, etikettering, opschoning , actualisering , verrijking en aggregatie;

Amendement 283

Voorstel voor een verordening

Artikel 10 — lid 2 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

het opstellen van relevante aannames, met name met betrekking tot de informatie die de data moeten meten en vertegenwoordigen;

d)

het opstellen van aannames, met name met betrekking tot de informatie die de data moeten meten en vertegenwoordigen;

Amendement 284

Voorstel voor een verordening

Artikel 10 — lid 2 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

een voorafgaande beoordeling van de beschikbaarheid, kwantiteit en geschiktheid van de datareeksen die nodig zijn;

e)

een beoordeling van de beschikbaarheid, kwantiteit en geschiktheid van de datareeksen die nodig zijn;

Amendement 285

Voorstel voor een verordening

Artikel 10 — lid 2 — punt f

Door de Commissie voorgestelde tekst

Amendement

f)

een beoordeling met het oog op mogelijke vertekeningen;

f)

een beoordeling met het oog op mogelijke vertekeningen die waarschijnlijk gevolgen hebben voor de gezondheid en de veiligheid van personen, nadelige effecten hebben op de grondrechten, of leiden tot discriminatie die op grond van het Unierecht verboden is, vooral wanneer data-outputs invloed hebben op inputs voor toekomstige operaties (zogenaamde “terugkoppelingen”), en passende maatregelen om mogelijke vertekeningen op te sporen, te voorkomen en te beperken ;

Amendement 286

Voorstel voor een verordening

Artikel 10 — lid 2 — punt f bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

f bis)

passende maatregelen om mogelijke vertekeningen op te sporen, te voorkomen en te beperken;

Amendement 287

Voorstel voor een verordening

Artikel 10 — lid 2 — punt g

Door de Commissie voorgestelde tekst

Amendement

g)

het identificeren van eventuele mogelijke leemten of tekortkomingen in de data en de manier waarop deze leemten en tekortkomingen kunnen worden aangepakt.

g)

het identificeren van relevante leemten of tekortkomingen in de data die naleving van deze verordening in de weg staan, en de manier waarop deze leemten en tekortkomingen kunnen worden aangepakt.

Amendement 288

Voorstel voor een verordening

Artikel 10 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Datareeksen voor training, validatie en tests zijn relevant, representatief , foutenvrij en volledig. De datareeksen hebben bovendien de passende statistische kenmerken, onder meer, waar van toepassing, met betrekking tot de personen of groepen personen waarvoor de AI-systemen met een hoog risico moeten worden gebruikt. Deze kenmerken van de datareeksen kunnen op het niveau van de afzonderlijke datareeksen of combinatie daarvan worden verwezenlijkt.

3.   Datareeksen voor training en , indien deze worden gebruikt, datareeksen voor validatie en tests , met inbegrip van de etikettering ervan, zijn relevant, voldoende representatief en zo volledig mogelijk en worden naar behoren doorgelicht op fouten met het oog op het beoogde doel . De datareeksen hebben bovendien de passende statistische kenmerken, onder meer, waar van toepassing, met betrekking tot de personen of groepen personen ten aanzien van wie de AI-systemen met een hoog risico moeten worden gebruikt. Deze kenmerken van de datareeksen worden op het niveau van de afzonderlijke datareeksen of combinatie daarvan verwezenlijkt.

Amendement 289

Voorstel voor een verordening

Artikel 10 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Ten aanzien van datareeksen voor training, validatie en tests wordt, voor zover vereist gezien het beoogde doel hiervan , rekening gehouden met de eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, functionele of gedragsomgeving waarin het AI-systeem moet worden gebruikt.

4.   Ten aanzien van datareeksen wordt, voor zover vereist gezien het beoogde doel of het redelijkerwijs te voorziene misbruik van het AI-systeem , rekening gehouden met de eigenschappen of elementen die specifiek zijn voor een bepaalde geografische , contextuele , functionele of gedragsomgeving waarin het AI-systeem moet worden gebruikt.

Amendement 290

Voorstel voor een verordening

Artikel 10 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Voor zover dit strikt noodzakelijk is om de monitoring, opsporing en correctie van vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico, mogen de aanbieders van dergelijke systemen bijzondere categorieën persoonsgegevens, zoals bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10 van Richtlijn (EU) 2016/680 en artikel 10, lid 1, van Verordening (EU) 2018/1725, verwerken, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen, met inbegrip van technische beperkingen voor het hergebruik en het gebruik van ultramoderne beveiligings- en privacybeschermende maatregelen , zoals pseudonimisering of versleuteling wanneer anonimisering aanzienlijke gevolgen kan hebben voor het nagestreefde doel.

5.   Voor zover dit strikt noodzakelijk is om de opsporing en correctie van negatieve vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico, mogen de aanbieders van dergelijke systemen bij wijze van uitzondering bijzondere categorieën persoonsgegevens, zoals bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10 van Richtlijn (EU) 2016/680 en artikel 10, lid 1, van Verordening (EU) 2018/1725, verwerken, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen, met inbegrip van technische beperkingen voor het hergebruik en het gebruik van ultramoderne beveiligings- en privacybeschermende maatregelen . Voor deze verwerking gelden met name alle volgende voorwaarden:

a)

de opsporing en correctie van vertekeningen kunnen niet doeltreffend worden vervuld door het verwerken van synthetische of geanonimiseerde gegevens;

 

b)

de gegevens zijn gepseudonimiseerd;

 

c)

de aanbieder neemt passende technische en organisatorische maatregelen om ervoor te zorgen dat de voor de toepassing van dit lid verwerkte gegevens met passende waarborgen worden beveiligd en beschermd, en dat alleen gemachtigde personen met passende geheimhoudingsverplichtingen toegang tot die gegevens hebben;

 

d)

de voor de toepassing van dit lid verwerkte gegevens worden niet verzonden, doorgegeven of anderszins geraadpleegd door andere partijen;

 

e)

de voor de toepassing van dit lid verwerkte gegevens worden beschermd met passende technische en organisatorische maatregelen en worden gewist zodra de vertekening is gecorrigeerd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;

 

f)

er worden doeltreffende en passende maatregelen getroffen om de beschikbaarheid en beveiliging van verwerkingssystemen en -diensten te waarborgen en ervoor te zorgen dat deze bestand zijn tegen technische of fysieke incidenten;

 

g)

er worden doeltreffende en passende maatregelen getroffen om te zorgen voor de fysieke beveiliging van de locaties waar de gegevens worden opgeslagen en verwerkt, governance en beheer van interne IT en IT-beveiliging, certificering van processen en producten.

 

Aanbieders die een beroep doen op deze bepaling stellen documentatie op waarin wordt uitgelegd waarom de verwerking van bijzondere categorieën persoonsgegevens noodzakelijk was om vertekeningen op te sporen en te corrigeren.

Amendement 291

Voorstel voor een verordening

Artikel 10 — lid 6 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

6 bis.     Indien de aanbieder niet aan de in dit artikel vastgestelde verplichtingen kan voldoen omdat deze aanbieder geen toegang heeft tot de gegevens en de gegevens uitsluitend in het bezit zijn van de exploitant, kan de exploitant, op basis van een contract, verantwoordelijk worden gesteld voor eventuele inbreuken op dit artikel.

Amendement 292

Voorstel voor een verordening

Artikel 11 — lid 1 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

De technische documentatie wordt op zodanige wijze opgesteld dat wordt aangetoond dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van dit hoofdstuk en dat nationale bevoegde autoriteiten en aangemelde instanties over alle noodzakelijke informatie beschikken om de overeenstemming van het AI-systeem met deze voorschriften te kunnen beoordelen. De documentatie omvat ten minste de in bijlage IV uiteengezette elementen.

De technische documentatie wordt op zodanige wijze opgesteld dat wordt aangetoond dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van dit hoofdstuk en dat nationale toezichthoudende autoriteiten en aangemelde instanties over de noodzakelijke informatie beschikken om de overeenstemming van het AI-systeem met deze voorschriften te kunnen beoordelen. De documentatie omvat ten minste de in bijlage IV uiteengezette elementen of, in het geval van kmo’s en start-ups, gelijkwaardige documentatie die aan dezelfde doelstellingen beantwoordt, mits de bevoegde nationale autoriteit daarmee instemt .

Amendement 293

Voorstel voor een verordening

Artikel 11 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Wanneer een AI-systeem met een hoog risico dat verband houdt met een product dat valt onder de in bijlage II, afdeling A, opgenomen rechtshandelingen in de handel wordt gebracht of in gebruik wordt gesteld, wordt een enkel technisch document opgesteld dat alle informatie bevat zoals uiteengezet in bijlage IV , alsook de informatie die vereist is op grond van die rechtshandelingen.

2.   Wanneer een AI-systeem met een hoog risico dat verband houdt met een product dat valt onder de in bijlage II, afdeling A, opgenomen rechtshandelingen in de handel wordt gebracht of in gebruik wordt gesteld, wordt een enkel technisch document opgesteld dat alle informatie bevat zoals uiteengezet in lid 1 , alsook de informatie die vereist is op grond van die rechtshandelingen.

Amendement 294

Voorstel voor een verordening

Artikel 11 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de technische documentatie als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.

Amendement 295

Voorstel voor een verordening

Artikel 12 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   AI-systemen met een hoog risico worden ontworpen en ontwikkeld met capaciteiten die de automatische registratie van gebeurtenissen (hierna “logs” genoemd) tijdens de werking van het AI-systeem mogelijk maken. Deze loggingcapaciteiten moeten in overeenstemming zijn met erkende normen of gemeenschappelijke specificaties.

1.   AI-systemen met een hoog risico worden ontworpen en ontwikkeld met capaciteiten die de automatische registratie van gebeurtenissen (hierna “logs” genoemd) tijdens de werking van het AI-systeem mogelijk maken. Deze loggingcapaciteiten moeten in overeenstemming zijn met de stand van de techniek en met erkende normen of gemeenschappelijke specificaties.

Amendement 296

Voorstel voor een verordening

Artikel 12 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.    De loggingcapaciteiten waarborgen een mate van traceerbaarheid van de werking van het AI-systeem tijdens de levensduur ervan die passend is voor het beoogde doel van het systeem.

2.    Om te zorgen voor een mate van traceerbaarheid van de werking van het AI-systeem tijdens de gehele levensduur ervan die passend is voor het beoogde doel van het systeem , moeten de loggingcapaciteiten de monitoring van de werking zoals bedoeld in artikel 29, lid 4, en de monitoring na het in de handel brengen zoals bedoeld in artikel 61 mogelijk maken . Met name maken zij de registratie mogelijk van gebeurtenissen die relevant zijn voor de vaststelling van situaties die:

 

a)

ertoe kunnen leiden dat het AI-systeem een risico inhoudt in de zin van artikel 65, lid 1; of

 

b)

een ingrijpende wijziging van het AI-systeem tot gevolg hebben.

Amendement 297

Voorstel voor een verordening

Artikel 12 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     AI-systemen met een hoog risico worden ontworpen en ontwikkeld met loggingcapaciteiten die het mogelijk maken het energieverbruik te registreren en het gebruik van hulpbronnen en de milieueffecten van het AI-systeem met een hoog risico tijdens alle fasen van de levensduur van het systeem te meten of te berekenen.

Amendement 298

Voorstel voor een verordening

Artikel 12 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.     De loggingcapaciteiten maken met name de monitoring van de werking van het AI-systeem met een hoog risico mogelijk met betrekking tot het optreden van situaties die ertoe kunnen leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, of die leiden tot een ingrijpende wijziging, en vergemakkelijken de monitoring na het in de handel brengen als bedoeld in artikel 61.

Schrappen

Amendement 299

Voorstel voor een verordening

Artikel 13 — titel

Door de Commissie voorgestelde tekst

Amendement

Transparantie en informatieverstrekking aan gebruikers

Transparantie en informatieverstrekking

Amendement 300

Voorstel voor een verordening

Artikel 13 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om gebruikers in staat te stellen de output van het systeem te interpreteren en op passende wijze te gebruiken. Een passende soort en mate van transparantie wordt gewaarborgd met het oog op de naleving van de relevante verplichtingen van de gebruiker en de aanbieder zoals uiteengezet in hoofdstuk 3 van deze titel.

1.   AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om aanbieders en gebruikers in staat te stellen de werking van het systeem redelijkerwijs te begrijpen. Er wordt gezorgd voor passende transparantie in overeenstemming met het beoogde doel van het AI-systeem, met het oog op de naleving van de relevante verplichtingen van de aanbieder en de gebruiker zoals uiteengezet in hoofdstuk 3 van deze titel.

 

Transparantie houdt daarbij in dat, op het moment dat het AI-systeem met een hoog risico in de handel wordt gebracht, alle beschikbare technische middelen in overeenstemming met de algemeen erkende stand van de techniek worden gebruikt om ervoor te zorgen dat de output van het AI-systeem door de aanbieder en de gebruiker kan worden geïnterpreteerd. De gebruiker wordt in staat gesteld het AI-systeem op passende wijze te begrijpen en te gebruiken door middel van algemene kennis over hoe het AI-systeem werkt en welke gegevens het verwerkt, zodat de gebruiker de door het AI-systeem genomen beslissingen kan uitleggen aan de betrokken persoon overeenkomstig artikel 68, punt c).

Amendement 301

Voorstel voor een verordening

Artikel 13 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   AI-systemen met een hoog risico gaan vergezeld van gebruiksinstructies in een passend digitaal of ander formaat dat beknopte, volledige , juiste en duidelijke informatie bevat die relevant, toegankelijk en begrijpelijk is voor gebruikers.

2.   AI-systemen met een hoog risico gaan vergezeld van begrijpelijke gebruiksinstructies in een passend digitaal formaat dat of op een andere manier beschikbaar gesteld op een duurzame drager die beknopte, juiste , duidelijke en voor zover mogelijk volledige informatie bevat die helpt bij de exploitatie en het onderhoud van het AI-systeem, die geïnformeerde besluitvorming door gebruikers ondersteunt en die redelijkerwijs relevant, toegankelijk en begrijpelijk is voor gebruikers.

Amendement 302

Voorstel voor een verordening

Artikel 13 — lid 3 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

3.   De in lid 2 bedoelde informatie omvat :

3.    Om de in lid 1 bedoelde resultaten te bereiken, omvat de in lid 2 bedoelde informatie:

Amendement 303

Voorstel voor een verordening

Artikel 13 — lid 3 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigde ;

a)

de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigden ;

Amendement 304

Voorstel voor een verordening

Artikel 13 — lid 3 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

indien die niet dezelfde is als de aanbieder, de identiteit en de contactgegevens van de entiteit die de conformiteitsbeoordeling heeft uitgevoerd en, in voorkomend geval, van haar gemachtigde;

Amendement 305

Voorstel voor een verordening

Artikel 13 — lid 3 — punt b — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

b)

de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder:

b)

de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder , waar passend :

Amendement 306

Voorstel voor een verordening

Artikel 13 — lid 3 — punt b — ii

Door de Commissie voorgestelde tekst

Amendement

ii)

de mate van nauwkeurigheid, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;

ii)

de mate van nauwkeurigheid, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele duidelijk bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;

Amendement 307

Voorstel voor een verordening

Artikel 13 — lid 3 — punt b — iii

Door de Commissie voorgestelde tekst

Amendement

iii)

eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten ;

iii)

eventuele duidelijk bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid , de grondrechten of het milieu, waar passend met inbegrip van voorbeelden ter illustratie van dergelijke beperkingen en van scenario’s waarvoor het systeem niet mag worden gebruikt ;

Amendement 308

Voorstel voor een verordening

Artikel 13 — lid 3 — punt b — iii bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

iii bis)

de mate waarin het AI-systeem uitleg kan verstrekken bij beslissingen die het neemt;

Amendement 309

Voorstel voor een verordening

Artikel 13 — lid 3 — punt b — v

Door de Commissie voorgestelde tekst

Amendement

v)

waar passend , specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;

v)

relevante informatie over handelingen van de gebruiker die van invloed kunnen zijn op de prestaties van het systeem , waaronder de soort of de kwaliteit van de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;

Amendement 310

Voorstel voor een verordening

Artikel 13 — lid 3 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

de verwachte levensduur van het AI-systeem met een hoog risico en eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem te waarborgen, ook in verband met software-updates.

e)

eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem gedurende de verwachte levensduur ervan te waarborgen, ook in verband met software-updates;

Amendement 311

Voorstel voor een verordening

Artikel 13 — lid 3 — punt e bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e bis)

een beschrijving van de mechanismen in het AI-systeem die gebruikers in staat stellen de logs naar behoren te verzamelen, op te slaan en te interpreteren overeenkomstig artikel 12, lid 1;

Amendement 312

Voorstel voor een verordening

Artikel 13 — lid 3 — punt e ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e ter)

De informatie wordt ten minste verstrekt in de taal van het land waar het AI-systeem wordt gebruikt.

Amendement 313

Voorstel voor een verordening

Artikel 13 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Om aan de verplichtingen van dit artikel te voldoen, waarborgen aanbieders en gebruikers een toereikend niveau van AI-geletterdheid overeenkomstig artikel 4 ter.

Amendement 314

Voorstel voor een verordening

Artikel 14 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   AI-systemen met een hoog risico worden zodanig ontworpen en ontwikkeld, met inbegrip van passende mens-machine-interface-instrumenten, dat hierop tijdens de periode dat het AI-systeem wordt gebruikt, op doeltreffende wijze toezicht kan worden uitgeoefend door natuurlijke personen .

1.   AI-systemen met een hoog risico worden zodanig ontworpen en ontwikkeld, met inbegrip van passende mens-machine-interface-instrumenten, dat hierop op doeltreffende wijze toezicht wordt uitgeoefend door natuurlijke personen, in verhouding tot de risico’s die met die systemen gepaard gaan. Tijdens de periode dat het AI-systeem wordt gebruikt, beschikken natuurlijke personen die voor het menselijk toezicht moeten zorgen, over een toereikend niveau van AI-geletterdheid overeenkomstig artikel 4 ter en over de nodige ondersteuning en autoriteit om die functie te kunnen uitoefenen en om grondig onderzoek na een incident mogelijk te maken .

Amendement 315

Voorstel voor een verordening

Artikel 14 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Het menselijk toezicht is gericht op het voorkomen of beperken van de risico’s voor de gezondheid, veiligheid of grondrechten die zich kunnen voordoen wanneer een AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, met name wanneer dergelijke risico’s blijven bestaan ondanks de toepassing van andere voorschriften van dit hoofdstuk.

2.   Het menselijk toezicht is gericht op het voorkomen of beperken van de risico’s voor de gezondheid, veiligheid , de grondrechten of het milieu die zich kunnen voordoen wanneer een AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, met name wanneer dergelijke risico’s blijven bestaan ondanks de toepassing van andere voorschriften van dit hoofdstuk en wanneer uitsluitend op geautomatiseerde verwerking door AI-systemen gebaseerde besluiten rechtsgevolgen of anderszins significante gevolgen hebben voor de personen of groepen personen voor wie het systeem moet worden gebruikt .

Amendement 316

Voorstel voor een verordening

Artikel 14 — lid 3 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

3.   Het menselijk toezicht wordt gewaarborgd door middel van een of alle van de volgende maatregelen:

3.   Het menselijk toezicht is afgestemd op de specifieke risico’s, de mate van automatisering en de context van het AI-systeem en wordt gewaarborgd door middel van een of alle van de volgende soorten maatregelen:

Amendement 317

Voorstel voor een verordening

Artikel 14 — lid 4 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

4.   De in lid  3 bedoelde maatregelen stellen de personen die verantwoordelijk zijn voor het menselijk toezicht in staat om het volgende te doen, zoals passend gezien de omstandigheden:

4.    Voor de toepassing van de leden 1 tot en met 3 wordt het AI-systeem met een hoog risico zodanig aan de gebruiker verstrekt dat natuurlijke personen die verantwoordelijk zijn voor het menselijk toezicht, in staat worden gesteld om waar passend en in verhouding tot de omstandigheden het volgende te doen :

Amendement 318

Voorstel voor een verordening

Artikel 14 — lid 4 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de capaciteiten en beperkingen van het AI-systeem met een hoog risico volledig begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;

a)

zich bewust zijn van de relevante capaciteiten en beperkingen van het AI-systeem met een hoog risico en deze voldoende begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;

Amendement 319

Voorstel voor een verordening

Artikel 14 — lid 4 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure.

e)

ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure die het mogelijk maakt het systeem in een veilige toestand tot stilstand te brengen, tenzij het ingrijpen van de mens de risico’s vergroot of de prestaties negatief zou beïnvloeden, rekening houdend met de algemeen erkende stand van de techniek .

Amendement 320

Voorstel voor een verordening

Artikel 14 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 1, a), zijn de maatregelen als bedoeld in lid 3 zodanig dat zij waarborgen dat daarnaast door de gebruiker geen maatregelen worden getroffen of beslissingen worden genomen op basis van de identificatie door het systeem, tenzij deze door ten minste twee natuurlijke personen zijn geverifieerd en bevestigd.

5.   Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 1, a), zijn de maatregelen als bedoeld in lid 3 zodanig dat zij waarborgen dat daarnaast door de gebruiker geen maatregelen worden getroffen of beslissingen worden genomen op basis van de identificatie door het systeem, tenzij deze door ten minste twee natuurlijke personen met de noodzakelijke competenties, opleiding en autoriteit zijn geverifieerd en bevestigd.

Amendement 321

Voorstel voor een verordening

Artikel 15 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat deze, met het oog op hun beoogde doel, een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging bieden, alsook consistente prestaties gedurende de levensduur met betrekking tot deze aspecten.

1.   AI-systemen met een hoog risico worden ontworpen en ontwikkeld op basis van het beginsel van beveiliging door ontwerp en door standaardinstellingen. Met het oog op hun beoogde doel moeten zij een passend niveau van nauwkeurigheid, robuustheid , veiligheid en cyberbeveiliging bieden, alsook consistente prestaties gedurende de levensduur met betrekking tot deze aspecten. De naleving van deze vereisten moet verbonden zijn met de uitvoering van maatregelen die in overeenstemming zijn met de stand van de techniek in het specifieke marktsegment of toepassingsgebied.

Amendement 322

Voorstel voor een verordening

Artikel 15 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Ter verduidelijking van de technische aspecten van de meting van het passende niveau van nauwkeurigheid en robuustheid als voorzien in lid 1 van dit artikel brengt het Europees Comité voor artificiële intelligentie nationale en internationale metrologie- en benchmarkingautoriteiten bij elkaar en verstrekt niet-bindende richtsnoeren hierover, zoals voorzien in artikel 56, lid 2, punt a).

Amendement 323

Voorstel voor een verordening

Artikel 15 — lid 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 ter.     Bij het aanpakken van opkomende kwesties in de gehele interne markt met betrekking tot cyberbeveiliging wordt het Agentschap van de Europese Unie voor cyberbeveiliging (Enisa) betrokken, samen met het Europees Comité voor artificiële intelligentie, zoals voorzien in artikel 56, lid 2, punt b).

Amendement 324

Voorstel voor een verordening

Artikel 15 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De niveaus van nauwkeurigheid en de relevante maatstaven voor de nauwkeurigheid van AI-systemen met een hoog risico worden vermeld in de bijbehorende gebruiksaanwijzingen.

2.   De niveaus van nauwkeurigheid en de relevante maatstaven voor de nauwkeurigheid van AI-systemen met een hoog risico worden vermeld in de bijbehorende gebruiksaanwijzingen. De gebruikte formulering moet duidelijk zijn, geen misleidende opmerkingen bevatten of ruimte bieden voor misverstanden.

Amendement 325

Voorstel voor een verordening

Artikel 15 — lid 3 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

AI-systemen met een hoog risico zijn bestand tegen fouten en onregelmatigheden die zich binnen het systeem of de omgeving waarin het systeem wordt gebruikt, kunnen voordoen, met name als gevolg van de interactie ervan met natuurlijke personen of andere systemen.

Er worden technische en organisatorische maatregelen genomen om ervoor te zorgen dat AI-systemen met een hoog risico zo goed mogelijk bestand zijn tegen fouten en onregelmatigheden die zich binnen het systeem of de omgeving waarin het systeem wordt gebruikt, kunnen voordoen, met name als gevolg van de interactie ervan met natuurlijke personen of andere systemen.

Amendement 326

Voorstel voor een verordening

Artikel 15 — lid 3 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

De robuustheid van AI-systemen met een hoog risico kan worden gerealiseerd door middel van technische oplossingen voor redundantie, die plannen voor de back-up of de veiligheid bij defecten kunnen omvatten.

De robuustheid van AI-systemen met een hoog risico kan waar nodigdoor de desbetreffende aanbieder met input van de gebruiker worden gerealiseerd door middel van technische oplossingen voor redundantie, die plannen voor de back-up of de veiligheid bij defecten kunnen omvatten.

Amendement 327

Voorstel voor een verordening

Artikel 15 — lid 3 — alinea 3

Door de Commissie voorgestelde tekst

Amendement

AI-systemen met een hoog risico die blijven leren nadat ze in de handel worden gebracht of in gebruik worden gesteld, worden op zodanige wijze ontwikkeld dat wordt gewaarborgd dat mogelijk vertekende outputs als gevolg van het gebruik van outputs als input voor toekomstige operaties (zogenaamde “terugkoppelingen”) naar behoren worden aangepakt aan de hand van passende beperkende maatregelen.

AI-systemen met een hoog risico die blijven leren nadat ze in de handel worden gebracht of in gebruik worden gesteld, worden op zodanige wijze ontwikkeld dat wordt gewaarborgd dat mogelijk vertekende outputs die van invloed zijn op de input voor toekomstige operaties (zogenaamde “terugkoppelingen”) en de kwaadwillige manipulatie van inputs die gebruikt zijn in het leerproces tijdens de werking van het systeem naar behoren worden aangepakt aan de hand van passende beperkende maatregelen.

Amendement 328

Voorstel voor een verordening

Artikel 15 — lid 4 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

AI-systemen met een hoog risico zijn bestand tegen pogingen van ongeautoriseerde derden om het gebruik of de prestaties ervan te wijzigen door gebruik te maken van de kwetsbaarheden van het systeem.

AI-systemen met een hoog risico zijn bestand tegen pogingen van ongeautoriseerde derden om het gebruik , de werking, de outputs of de prestaties ervan te wijzigen door gebruik te maken van de kwetsbaarheden van het systeem.

Amendement 329

Voorstel voor een verordening

Artikel 15 — lid 4 — alinea 3

Door de Commissie voorgestelde tekst

Amendement

De technische oplossingen voor het aanpakken van AI-specifieke kwetsbaarheden omvatten, waar passend, maatregelen voor het voorkomen en beheersen van aanvallen waarmee een poging wordt gedaan tot het manipuleren van de datareeks voor de training (de zogenaamde “datavervuiling”), van input die is gecreëerd om fouten van het model te veroorzaken (zogenaamde “vijandige voorbeelden”) of van tekortkomingen van het model.

De technische oplossingen voor het aanpakken van AI-specifieke kwetsbaarheden omvatten, waar passend, maatregelen voor het voorkomen , traceren, reageren op, oplossen en beheersen van aanvallen waarmee een poging wordt gedaan tot het manipuleren van de datareeks voor de training (de zogenaamde “datavervuiling”), van vooraf getrainde componenten die in de training zijn gebruikt (de zogenaamde “modelvervuiling”), van input die is gecreëerd om fouten van het model te veroorzaken (zogenaamde “vijandige voorbeelden” of “modelontwijking” ) , van aanvallen om vertrouwelijke gegevens te bemachtigen of van tekortkomingen van het model , die kunnen leiden tot schadelijke besluitvorming .

Amendement 330

Voorstel voor een verordening

Titel III — hoofdstuk 3 — titel

Door de Commissie voorgestelde tekst

Amendement

VERPLICHTINGEN VAN AANBIEDERS EN GEBRUIKERS VAN AI-SYSTEMEN MET EEN HOOG RISICO en andere partijen

VERPLICHTINGEN VAN AANBIEDERS EN EXPLOITANTEN VAN AI-SYSTEMEN MET EEN HOOG RISICO EN ANDERE PARTIJEN

Amendement 331

Voorstel voor een verordening

Artikel 16 — titel

Door de Commissie voorgestelde tekst

Amendement

Verplichtingen van aanbieders van AI-systemen met een hoog risico

Verplichtingen van aanbieders en exploitanten van AI-systemen met een hoog risico en andere partijen

Amendement 332

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de voorschriften van hoofdstuk 2 van deze titel;

a)

zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de voorschriften van hoofdstuk 2 van deze titel alvorens deze in de handel te brengen of in gebruik te stellen ;

Amendement 333

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun adres en contactgegevens op het AI-systeem met een hoog risico, of wanneer dit niet mogelijk is, op de bij het product gevoegde documentatie, naargelang van het geval;

Amendement 334

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt a ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a ter)

zorgen ervoor dat natuurlijke personen die met het menselijk toezicht op AI-systemen met een hoog risico zijn belast specifiek bewust worden gemaakt van het risico van vooringenomenheid in geautomatiseerde processen (automation bias) en bevestigingsvooroordelen (confirmation bias);

Amendement 335

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt a quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a quater)

verstrekken specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen, waaronder hun beperkingen en veronderstellingen, rekening houdend met het beoogde doel en, het te voorziene en redelijkerwijs te voorziene misbruik van het AI-systeem;

Amendement 336

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

stellen de technische documentatie van het AI-systeem met een hoog risico op;

c)

stellen de in artikel 11 bedoelde technische documentatie van het AI-systeem met een hoog risico op en actualiseren deze documentatie ;

Amendement 337

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

bewaren de logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd , wanneer zij hierover de controle hebben ;

d)

bewaren de logs , wanneer zij hierover de controle hebben, die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd en die noodzakelijk zijn voor het waarborgen en aantonen van de naleving van deze verordening, overeenkomstig artikel 20 ;

Amendement 338

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

zorgen ervoor dat voor het AI-systeem met een hoog risico de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld;

e)

zorgen ervoor dat voor het AI-systeem met een hoog risico de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld , in overeenstemming met artikel 43 ;

Amendement 339

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt e bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e bis)

stellen een EU-conformiteitsverklaring op, in overeenstemming met artikel 48;

Amendement 340

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt e ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e ter)

brengen de CE-markering aan op het AI-systeem met een hoog risico om aan te geven dat dit in overeenstemming is met deze verordening, conform artikel 49;

Amendement 341

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt g

Door de Commissie voorgestelde tekst

Amendement

g)

nemen de noodzakelijke corrigerende maatregelen wanneer het AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel ;

g)

nemen de noodzakelijke corrigerende maatregelen als bedoeld in artikel 21 en verstrekken informatie in verband daarmee ;

Amendement 342

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt h

Door de Commissie voorgestelde tekst

Amendement

h)

informeren de nationale bevoegde autoriteiten van de lidstaten waarin zij het AI-systeem beschikbaar hebben gemaakt of in gebruik hebben gesteld en, waar van toepassing, de aangemelde instantie over de non-conformiteit en over eventuele getroffen corrigerende maatregelen;

Schrappen

Amendement 343

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt i

Door de Commissie voorgestelde tekst

Amendement

i)

brengen overeenkomstig artikel 49 de CE-markering aan op hun AI-systemen met een hoog risico om aan te geven dat deze in overeenstemming zijn met deze verordening;

Schrappen

Amendement 344

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt j

Door de Commissie voorgestelde tekst

Amendement

j)

tonen op verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel.

j)

tonen op met redenen omkleed verzoek van een nationale toezichthoudende autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel.

Amendement 345

Voorstel voor een verordening

Artikel 16 — alinea 1 — punt j bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

j bis)

zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidsvoorschriften.

Amendement 346

Voorstel voor een verordening

Artikel 17 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures en instructies en omvat ten minste de volgende aspecten:

1.   Aanbieders van AI-systemen met een hoog risico beschikken over een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures of instructies en kan worden opgenomen in een bestaand systeem voor kwaliteitsbeheer krachtens de passende sectorale wetgeving van de Unie. Het systeem omvat ten minste de volgende aspecten:

Amendement 347

Voorstel voor een verordening

Artikel 17 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

een strategie voor de naleving van de wet- en regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;

Schrappen

Amendement 348

Voorstel voor een verordening

Artikel 17 — lid 1 — punt e

Door de Commissie voorgestelde tekst

Amendement

e)

technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;

e)

technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast of geen betrekking hebben op alle relevante voorschriften , de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;

Amendement 349

Voorstel voor een verordening

Artikel 17 — lid 1 — punt f

Door de Commissie voorgestelde tekst

Amendement

f)

systemen en procedures voor databeheer, met inbegrip van dataverzameling , -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;

f)

systemen en procedures voor databeheer, met inbegrip van dataverwerving, -verzameling , -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;

Amendement 350

Voorstel voor een verordening

Artikel 17 — lid 1 — punt j

Door de Commissie voorgestelde tekst

Amendement

j)

de communicatie met nationale bevoegde autoriteiten, bevoegde autoriteiten, met inbegrip van sectorale autoriteiten , die de toegang tot data verlenen of ondersteunen, aangemelde instanties, andere operatoren, klanten of andere belangstellenden ;

j)

de communicatie met de relevante bevoegde autoriteiten, met inbegrip van sectorale autoriteiten;

Amendement 351

Voorstel voor een verordening

Artikel 17 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De uitvoering van de in lid 1 bedoelde aspecten is evenredig aan de omvang van de organisatie van de aanbieder.

2.   De uitvoering van de in lid 1 bedoelde aspecten is evenredig aan de omvang van de organisatie van de aanbieder. Aanbieders eerbiedigen hoe dan ook de striktheid en het beschermingsniveau die nodig zijn om te garanderen dat hun AI-systemen aan deze verordening voldoen.

Amendement 352

Voorstel voor een verordening

Artikel 18 — titel

Door de Commissie voorgestelde tekst

Amendement

Verplichting om technische documentatie op te stellen

Schrappen

Amendement 353

Voorstel voor een verordening

Artikel 18 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.     Aanbieders van AI-systemen met een hoog risico stellen de in artikel 11 bedoelde technische documentatie op in overeenstemming met bijlage IV.

Schrappen

Amendement 354

Voorstel voor een verordening

Artikel 18 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.     Aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de technische documentatie als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.

Schrappen

Amendement 355

Voorstel voor een verordening

Artikel 19

Door de Commissie voorgestelde tekst

Amendement

Artikel 19

Schrappen

Conformiteitsbeoordeling

 

1.     Aanbieders van AI-systemen met een hoog risico zorgen ervoor dat voor hun systemen de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd in overeenstemming met artikel 43 voordat deze systemen in de handel worden gebracht of in gebruik worden gesteld. Wanneer de overeenstemming van de AI-systemen met de voorschriften van hoofdstuk 2 van deze titel is aangetoond aan de hand van die conformiteitsbeoordeling, stellen de aanbieders overeenkomstig artikel 48 een EU-conformiteitsverklaring op en brengen zij overeenkomstig artikel 49 de CE-conformiteitsmarkering aan.

 

2.     Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 5, b), die in de handel worden gebracht of in gebruik worden gesteld door aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, wordt de conformiteitsbeoordeling uitgevoerd als onderdeel van de in de artikelen 97 tot en met 101 van die richtlijn bedoelde procedure.

 

Amendement 356

Voorstel voor een verordening

Artikel 20 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Aanbieders van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door hun AI-systemen met een hoog risico, voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder hun controle vallen . De logs worden bewaard gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico en gezien de toepasselijke wettelijke verplichtingen op grond van het Unie- of intern recht .

1.   Aanbieders van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door hun AI-systemen met een hoog risico, voor zover dergelijke logs onder hun controle vallen. Onverminderd het toepasselijke Unie- of nationale recht worden de logs gedurende ten minste zes maanden bewaard . De bewaartermijn is in overeenstemming met de normen in de sector en is passend voor het beoogde doel van het AI-systeem met een hoog risico.

Amendement 357

Voorstel voor een verordening

Artikel 21 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen of terug te roepen. Zij stellen de distributeurs van het betrokken AI-systeem met een hoog risico en, indien van toepassing, de gemachtigden en importeurs dienovereenkomstig in kennis.

Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen, te deactiveren of terug te roepen.

 

In de in het eerste lid bedoelde gevallen brengen aanbieders onmiddellijk de volgende personen en instanties op de hoogte:

 

a)

de distributeurs;

 

b)

de importeurs;

 

c)

de nationale bevoegde autoriteiten van de lidstaten waar zij het AI-systeem beschikbaar hebben gesteld of in gebruik hebben gesteld; alsmede

 

d)

indien mogelijk, de exploitant.

Amendement 358

Voorstel voor een verordening

Artikel 21 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De aanbieders informeren ook de gemachtigde, indien er overeenkomstig artikel 25 een gemachtigde is aangewezen, en de aangemelde instantie indien het AI-systeem met een hoog risico overeenkomstig artikel 43 aan een conformiteitsbeoordeling door een derde instantie moest worden onderworpen. Waar toepasselijk buigen zij zich in samenwerking met de exploitant ook over de oorzaken.

Amendement 359

Voorstel voor een verordening

Artikel 22 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, en dat risico bekend is bij de aanbieder van dat systeem , informeert deze aanbieder de nationale bevoegde autoriteiten van de lidstaten waarin hij het systeem beschikbaar heeft gemaakt en, waar van toepassing, de aangemelde instantie die een certificaat voor het AI-systeem met een hoog risico heeft afgegeven, met name over de non-conformiteit en over eventuele getroffen corrigerende maatregelen.

Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, en de aanbieder van dat systeem zich bewust wordt van dat risico , informeert deze aanbieder onmiddellijk de nationale toezichthoudende autoriteiten van de lidstaten waarin hij het systeem beschikbaar heeft gemaakt en, waar van toepassing, de aangemelde instantie die een certificaat voor het AI-systeem met een hoog risico heeft afgegeven, met name over de aard van de non-conformiteit en over eventuele relevante getroffen corrigerende maatregelen.

Amendement 360

Voorstel voor een verordening

Artikel 22 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

In de in het eerste lid bedoelde gevallen brengen de aanbieders van het Ai-systeem met een hoog risico onmiddellijk de volgende personen en instanties op de hoogte:

 

a)

de distributeurs;

 

b)

de importeurs;

 

c)

de nationale bevoegde autoriteiten van de lidstaten waar zij het AI-systeem beschikbaar hebben gesteld of in gebruik hebben gesteld; alsmede

 

d)

indien mogelijk, de exploitanten.

Amendement 361

Voorstel voor een verordening

Artikel 22 — alinea 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De aanbieders stellen ook de gemachtigde in kennis, indien er overeenkomstig artikel 25 een gemachtigde is aangewezen.

Amendement 362

Voorstel voor een verordening

Artikel 23 — titel

Door de Commissie voorgestelde tekst

Amendement

Samenwerking met bevoegde autoriteiten

Samenwerking met bevoegde autoriteiten , het AI-bureau en de Commissie

Amendement 363

Voorstel voor een verordening

Artikel 23 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

Aanbieders van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten die hierom verzoeken van alle informatie en documentatie die noodzakelijk is om de overeenstemming van het AI-systemen met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een officiële taal van de Unie die door de betrokken lidstaat wordt bepaald. Op met redenen omkleed verzoek van een nationale bevoegde autoriteit verlenen aanbieders die autoriteit ook toegang tot de logs die automatisch zijn gegenereerd door hun AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder hun controle vallen.

Aanbieders en, in voorkomend geval, exploitanten van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten die hierom een met redenen omkleed verzoek doen , of, in voorkomend geval, het AI-bureau of de Commissie, van alle informatie en documentatie die noodzakelijk is om de overeenstemming van het AI-systemen met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een officiële taal van de Unie die door de betrokken lidstaat wordt bepaald.

Amendement 364

Voorstel voor een verordening

Artikel 23 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Op met redenen omkleed verzoek van een nationale bevoegde autoriteit of, in voorkomend geval, van de Commissie, verlenen aanbieders en, in voorkomend geval, exploitanten de verzoekende nationale bevoegde autoriteit of de Commissie, zoals van toepassing, ook toegang tot de logs die automatisch zijn gegenereerd door hun AI-systeem met een hoog risico voor zover dergelijke logs onder hun controle vallen.

Amendement 365

Voorstel voor een verordening

Artikel 23 — alinea 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De door een nationale bevoegde instantie of door de Commissie volgens de bepalingen van dit artikel verkregen informatie en documentatie worden beschouwd als een bedrijfsgeheim en worden verwerkt overeenkomstig de in artikel 70 vastgestelde geheimhoudingsverplichtingen.

Amendement 366

Voorstel voor een verordening

Artikel 25 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.    Indien geen importeur kan worden geïdentificeerd, wijzen aanbieders die buiten de Unie zijn gevestigd, voordat zij hun systemen beschikbaar maken in de Unie, per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.

1.   Aanbieders die buiten de Unie zijn gevestigd, wijzen voordat zij hun systemen beschikbaar maken in de Unie, per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.

Amendement 367

Voorstel voor een verordening

Artikel 25 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     De gemachtigde is woonachtig of gevestigd in een van de lidstaten waar de activiteiten krachtens artikel 2, lid 1 c ter, plaatsvinden.

Amendement 368

Voorstel voor een verordening

Artikel 25 — lid 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 ter.     De aanbieder verschaft zijn gemachtigde de noodzakelijke bevoegdheden en middelen om zich van zijn taken in het kader van deze verordening te kwijten.

Amendement 369

Voorstel voor een verordening

Artikel 25 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   De gemachtigde voert de taken uit die gespecificeerd zijn in het mandaat dat hij van de aanbieder heeft ontvangen. Het mandaat geeft de gemachtigde de bevoegdheid om de volgende taken te verrichten:

2.   De gemachtigde voert de taken uit die gespecificeerd zijn in het mandaat dat hij van de aanbieder heeft ontvangen. Hij legt op verzoek een kopie van het mandaat over aan de markttoezichtautoriteiten, in een door de nationale bevoegde autoriteit gekozen officiële taal van de instellingen van de Unie. Voor de toepassing van deze verordening geeft het mandaat de gemachtigde de bevoegdheid om de volgende taken te verrichten:

Amendement 370

Voorstel voor een verordening

Artikel 25 — lid 2 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

een kopie van de EU-conformiteitsverklaring en de technische documentatie ter beschikking houden van de nationale bevoegde autoriteiten en nationale autoriteiten als bedoeld in artikel 63, lid 7 ;

a)

waarborgen dat de EU-conformiteitsverklaring en de technische documentatie zijn opgesteld en door de aanbieder een passende conformiteitsbeoordelingsprocedure is gevolgd ;

Amendement 371

Voorstel voor een verordening

Artikel 25 — lid 2 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

een kopie van de EU-conformiteitsverklaring, de technische documentatie en, indien van toepassing, het door de aangemelde instantie afgegeven certificaat, ter beschikking houden van de nationale bevoegde autoriteiten en nationale autoriteiten als bedoeld in artikel 63, lid 7;

Amendement 372

Voorstel voor een verordening

Artikel 25 — lid 2 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

een nationale bevoegde autoriteit op met redenen omkleed verzoek alle informatie en documentatie verstrekken die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder de controle van de aanbieder vallen;

b)

een nationale bevoegde autoriteit op met redenen omkleed verzoek alle informatie en documentatie verstrekken die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs onder de controle van de aanbieder vallen;

Amendement 373

Voorstel voor een verordening

Artikel 25 — lid 2 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

op met redenen omkleed verzoek samenwerken met bevoegde nationale autoriteiten met betrekking tot een maatregel die door deze autoriteiten wordt getroffen in verband met het AI-systeem met een hoog risico.

c)

op met redenen omkleed verzoek samenwerken met nationale toezichthoudende autoriteiten met betrekking tot een maatregel die door deze autoriteiten wordt getroffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken;

Amendement 374

Voorstel voor een verordening

Artikel 25 — lid 2 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

waar toepasselijk, voldoen aan de in artikel 51 bedoelde registratieverplichtingen of, indien de registratie door de aanbieder zelf wordt uitgevoerd, waarborgen dat de in bijlage VIII, punt 3, bedoelde informatie juist is.

Amendement 375

Voorstel voor een verordening

Artikel 25 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De gemachtigde wordt aangesteld als aanspreekpunt, naast of in plaats van de aanbieder, voor met name de nationale toezichthoudende autoriteit of de nationale bevoegde autoriteiten, met betrekking tot alle vraagstukken die verband houden met het waarborgen van de naleving van deze verordening.

Amendement 376

Voorstel voor een verordening

Artikel 25 — lid 2 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 ter.     De gemachtigde beëindigt het mandaat indien hij van mening is of redenen heeft om aan te nemen dat de aanbieder in strijd met zijn verplichtingen uit hoofde van deze verordening handelt. In dat geval stelt hij ook de nationale toezichthoudende instantie van de lidstaat waar hij is gevestigd en, in voorkomend geval, de betrokken aangemelde instantie, onmiddellijk in kennis van de beëindiging van het mandaat en de redenen daarvoor.

Amendement 377

Voorstel voor een verordening

Artikel 26 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Voordat een AI-systeem met een hoog risico in de handel wordt gebracht, zorgen de importeurs van een dergelijk systeem dat:

1.   Voordat een AI-systeem met een hoog risico in de handel wordt gebracht, zorgen de importeurs van een dergelijk systeem dat een dergelijk systeem in overeenstemming is met deze verordening door te waarborgen dat :

Amendement 378

Voorstel voor een verordening

Artikel 26 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de passende conformiteitsbeoordelingsprocedure is uitgevoerd door de aanbieder van dat AI-systeem;

a)

de relevante conformiteitsbeoordelingsprocedure als bedoeld in artikel 43 is uitgevoerd door de aanbieder van dat AI-systeem;

Amendement 379

Voorstel voor een verordening

Artikel 26 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

de aanbieder de technische documentatie heeft opgesteld in overeenstemming met bijlage IV;

b)

de aanbieder de technische documentatie heeft opgesteld in overeenstemming met artikel 11 en bijlage IV;

Amendement 380

Voorstel voor een verordening

Artikel 26 — lid 1 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

de aanbieder, waar gepast, een gemachtigde heeft aangewezen, in overeenstemming met artikel 25, lid 1.

Amendement 381

Voorstel voor een verordening

Artikel 26 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Wanneer een importeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, brengt hij dat systeem niet in de handel voordat het in overeenstemming is gebracht. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de importeur de aanbieder van het AI-systeem en de markttoezichtautoriteiten hiervan in kennis.

2.   Wanneer een importeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, is vervalst of wordt vergezeld van vervalste documenten, brengt hij dat systeem niet in de handel voordat het in overeenstemming is gebracht. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de importeur de aanbieder van het AI-systeem en de markttoezichtautoriteiten hiervan in kennis.

Amendement 382

Voorstel voor een verordening

Artikel 26 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Importeurs vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun contactadres op het AI-systeem met een hoog risico , of wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, zoals van toepassing.

3.   Importeurs vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun contactadres op het AI-systeem met een hoog risico en op de verpakking of in de bij het product gevoegde documentatie, wanneer van toepassing.

Amendement 383

Voorstel voor een verordening

Artikel 26 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Importeurs voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een taal die deze nationale bevoegde autoriteit eenvoudig kan begrijpen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder de controle van de aanbieder vallen . Zij werken bovendien samen met deze autoriteiten met betrekking tot eventuele maatregelen die de nationale bevoegde autoriteit treft in verband met dat systeem.

5.   Importeurs voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een taal die deze autoriteiten eenvoudig kunnen begrijpen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico, voor zover dergelijke logs onder de controle van de aanbieder vallen , overeenkomstig artikel 20 .

Amendement 384

Voorstel voor een verordening

Artikel 26 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     Importeurs werken samen met de nationale bevoegde autoriteiten bij alle maatregelen die deze autoriteiten treffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken.

Amendement 385

Voorstel voor een verordening

Artikel 27 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Voordat zij een AI-systeem met een hoog risico in de handel brengen, controleren distributeurs of op het AI-systeem met een hoog risico de vereiste CE-conformiteitsmarkering is aangebracht, of het systeem vergezeld gaat van de vereiste documentatie en gebruiksinstructies en of de aanbieder en importeur van het systeem, als van toepassing, de verplichtingen van deze verordening hebben nageleefd.

1.   Voordat zij een AI-systeem met een hoog risico in de handel brengen, controleren distributeurs of op het AI-systeem met een hoog risico de vereiste CE-conformiteitsmarkering is aangebracht, of het systeem vergezeld gaat van de vereiste documentatie en gebruiksinstructies en of de aanbieder en importeur van het systeem, als van toepassing, hun verplichtingen uit hoofde van artikel 16 respectievelijk artikel 26 van deze verordening hebben nageleefd.

Amendement 386

Voorstel voor een verordening

Artikel 27 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Wanneer een distributeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, brengt hij het AI-systeem met een hoog risico niet in de handel voordat het in overeenstemming is gebracht met deze voorschriften. Daarnaast stelt de distributeur, wanneer het systeem een risico vormt in de zin van artikel 65, lid 1, de aanbieder of de importeur van het AI-systeem, als van toepassing, hiervan in kennis.

2.   Wanneer een distributeur van mening is of redenen heeft om , op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, brengt hij het AI-systeem met een hoog risico niet in de handel voordat het in overeenstemming is gebracht met deze voorschriften. Daarnaast stelt de distributeur, wanneer het systeem een risico vormt in de zin van artikel 65, lid 1, de aanbieder of de importeur van het AI-systeem en de relevante nationale bevoegde autoriteit , als van toepassing, hiervan in kennis.

Amendement 387

Voorstel voor een verordening

Artikel 27 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Een distributeur die van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico dat hij in de handel heeft gebracht, niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, neemt de noodzakelijke corrigerende maatregelen om dat systeem in overeenstemming te brengen met deze voorschriften, uit de handel te nemen of terug te roepen of zorgt ervoor dat de aanbieder, de importeur of een eventuele betrokken operator , waar passend, dergelijke corrigerende maatregelen treft. Indien het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de distributeur de nationale bevoegde autoriteiten van de lidstaten waarin hij het product beschikbaar heeft gemaakt hiervan onmiddellijk in kennis, waarbij hij in het bijzonder de non-conformiteit en de eventueel getroffen corrigerende maatregelen uitvoerig beschrijft.

4.   Een distributeur die van mening is of redenen heeft om , op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico dat hij in de handel heeft gebracht, niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, neemt de noodzakelijke corrigerende maatregelen om dat systeem in overeenstemming te brengen met deze voorschriften, uit de handel te nemen of terug te roepen of zorgt ervoor dat de aanbieder, de importeur of een eventuele betrokken operator , waar passend, dergelijke corrigerende maatregelen treft. Indien het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de distributeur de aanbieder of importeur van het systeem en de nationale bevoegde autoriteiten van de lidstaten waarin hij het product beschikbaar heeft gemaakt hiervan onmiddellijk in kennis, waarbij hij in het bijzonder de non-conformiteit en de eventueel getroffen corrigerende maatregelen uitvoerig beschrijft.

Amendement 388

Voorstel voor een verordening

Artikel 27 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Distributeurs van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen. Distributeurs werken bovendien samen met deze nationale bevoegde autoriteit met betrekking tot eventuele maatregelen die deze autoriteit heeft getroffen.

5.   Distributeurs van het AI-systeem met een hoog risico voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die zij in hun bezit hebben of waarover zij kunnen beschikken, overeenkomstig de verplichtingen van distributeurs als beschreven in lid 1, en die noodzakelijk is om de overeenstemming van een systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen.

Amendement 389

Voorstel voor een verordening

Artikel 27 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     Distributeurs werken samen met de nationale bevoegde autoriteiten bij alle maatregelen die deze autoriteiten treffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken.

Amendement 390

Voorstel voor een verordening

Artikel 28 — titel

Door de Commissie voorgestelde tekst

Amendement

Verplichtingen van distributeurs, importeurs, gebruikers en eventuele derden

Verantwoordelijkheden in de AI-waardeketen van aanbieders, distributeurs, importeurs, exploitanten en eventuele derden

Amendement 391

Voorstel voor een verordening

Artikel 28 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   In de volgende omstandigheden wordt een distributeur, importeur, gebruiker of derde voor de toepassing van deze verordening beschouwd als een aanbieder en is hij onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16:

1.   In de volgende omstandigheden wordt een distributeur, importeur, exploitant of derde voor de toepassing van deze verordening beschouwd als een aanbieder van een AI-systeem met een hoog risico en is hij onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16:

Amendement 392

Voorstel voor een verordening

Artikel 28 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

hij brengt een AI-systeem met een hoog risico onder zijn naam of merknaam in de handel of stelt dit onder zijn naam of merknaam in gebruik ;

a)

hij brengt zijn naam of merknaam aan op een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico ;

Amendement 393

Voorstel voor een verordening

Artikel 28 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

hij wijzigt het beoogde doel van een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico; of

b)

hij brengt een ingrijpende wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is genomen op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft overeenkomstig artikel 6 ; of

Amendement 394

Voorstel voor een verordening

Artikel 28 — lid 1 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

hij brengt een ingrijpende wijziging aan in een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is genomen, op zodanige wijze dat het AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt;

Amendement 395

Voorstel voor een verordening

Artikel 28 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Wanneer sprake is van de in lid 1, punt  b ) of c ), bedoelde omstandigheden, wordt de aanbieder die het AI-systeem met een hoog risico voor het eerst in de handel heeft gebracht of in gebruik heeft gesteld, niet langer beschouwd als aanbieder voor de toepassing van deze verordening.

2.   Wanneer sprake is van de in lid 1, punt  a ) tot b bis ), bedoelde omstandigheden, wordt de aanbieder die het AI-systeem voor het eerst in de handel heeft gebracht of in gebruik heeft gesteld, niet langer beschouwd als aanbieder van dat specifieke AI-systeem voor de toepassing van deze verordening. Deze voormalige aanbieder verstrekt de nieuwe aanbieder alle technische documentatie en alle andere relevante en redelijkerwijs te verwachten informatie over de capaciteiten van het AI-systeem, technische toegang of andere bijstand op basis van de algemeen erkende stand van de techniek, die nodig zijn voor de nakoming van de in deze verordening vastgestelde verplichtingen.

 

Dit lid is ook van toepassing op aanbieders van basismodellen zoals gedefinieerd in artikel 3 wanneer dit model rechtstreeks is opgenomen in een AI-systeem met een hoog risico.

Amendement 396

Voorstel voor een verordening

Artikel 28 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De aanbieder van een AI-systeem met een hoog risico en de derde partij die instrumenten, diensten, onderdelen of processen levert die worden gebruikt of geïntegreerd in het AI-systeem met een hoog risico, preciseren in een schriftelijke overeenkomst de informatie, capaciteiten, technische toegang en andere bijstand, op basis van de algemeen erkende stand van de techniek, die de derde partij moet verstrekken om de aanbieder van het AI-systeem met een hoog risico in staat te stellen volledig te voldoen aan de verplichtingen uit hoofde van deze verordening.

 

De Commissie ontwikkelt en doet aanbevelingen voor niet-bindende modelcontractvoorwaarden tussen aanbieders van AI-systemen met een hoog risico en derden die instrumenten, diensten, onderdelen of processen leveren die worden gebruikt of geïntegreerd in AI-systemen met een hoog risico, teneinde beide partijen te helpen bij het opstellen van en onderhandelen over contracten met evenwichtige contractuele rechten en verplichtingen, in overeenstemming met het controleniveau van elke partij. Bij de ontwikkeling van niet-bindende modelcontractvoorwaarden houdt de Commissie rekening met de contractuele vereisten die kunnen gelden in specifieke sectoren of businesscases. De niet-bindende contractvoorwaarden worden gepubliceerd en kosteloos beschikbaar gesteld in een gemakkelijk bruikbaar elektronisch formaat op de website van het AI-bureau.

Amendement 397

Voorstel voor een verordening

Artikel 28 — lid 2 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 ter.     Voor de toepassing van dit artikel worden bedrijfsgeheimen bewaard en alleen bekendgemaakt op voorwaarde dat vooraf alle specifieke noodzakelijke maatregelen overeenkomstig Richtlijn (EU) 2016/943 worden genomen om de vertrouwelijkheid ervan te waarborgen, met name ten aanzien van derden. Indien nodig kunnen aangepaste technische en organisatorische regelingen voor de bescherming van intellectuele-eigendomsrechten of bedrijfsgeheimen worden vastgelegd.

Amendement 398

Voorstel voor een verordening

Artikel 28 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 28 bis

 

Oneerlijke contractvoorwaarden die eenzijdig worden opgelegd aan een kmo of start-up

 

1.     Een contractvoorwaarde betreffende de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of betreffende de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen, die eenzijdig door een onderneming aan een kmo of start-up is opgelegd en oneerlijk is, is niet bindend voor deze kmo of start-up.

 

2.     Een contractvoorwaarde wordt niet als oneerlijk beschouwd wanneer zij voortvloeit uit het toepasselijke Unierecht.

 

3.     Een contractvoorwaarde is oneerlijk wanneer zij van zodanige aard is dat ze objectief afbreuk doet aan het vermogen van de partij aan wie de voorwaarde eenzijdig is opgelegd, om haar rechtmatige commerciële belang bij de informatie in kwestie te beschermen, of indien het gebruik ervan sterk afwijkt van de goede handelspraktijken bij de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, in strijd is met de beginselen van goede trouw en eerlijke behandeling, of tot een aanzienlijke verstoring leidt van het evenwicht tussen de rechten en verplichtingen van de contractpartijen. Een contractvoorwaarde is ook oneerlijk indien zij tot gevolg heeft dat de in artikel 71 bedoelde boetes of de daarmee gepaard gaande proceskosten worden verschoven tussen de contractpartijen, als bedoeld in artikel 71, lid 8.

 

4.     Een contractvoorwaarde is oneerlijk in de zin van dit artikel indien zij het volgende tot doel of gevolg heeft:

 

a)

de partij die de voorwaarde eenzijdig heeft opgelegd, draagt geen of beperkte aansprakelijkheid voor opzettelijke handelingen of grove nalatigheid;

 

b)

de partij aan wie de voorwaarde eenzijdig is opgelegd, wordt uitgesloten van de rechtsmiddelen waarover deze beschikt in geval van niet-nakoming van contractuele verplichtingen, of de partij die de voorwaarde eenzijdig heeft opgelegd, draagt geen aansprakelijkheid in geval van niet-nakoming van die verplichtingen;

 

c)

de partij die de voorwaarde eenzijdig heeft opgelegd beschikt over het exclusieve recht om te bepalen of de verstrekte technische documentatie en andere informatie in overeenstemming zijn met de overeenkomst of om een bepaling van de overeenkomst uit te leggen.

 

5.     Een contractvoorwaarde wordt geacht eenzijdig te zijn opgelegd in de zin van dit artikel indien zij door een van de contractpartijen is gesteld en de andere partij ondanks een poging tot onderhandeling geen invloed op de inhoud ervan heeft kunnen uitoefenen. De contractpartij die een contractvoorwaarde heeft gesteld, moet bewijzen dat deze voorwaarde niet eenzijdig is opgelegd.

 

6.     Wanneer de oneerlijke contractvoorwaarde kan worden gescheiden van de overige bepalingen van het contract, blijven die resterende bepalingen bindend. De partij die de betwiste voorwaarde in het contract heeft laten opnemen, kan zich er niet op beroepen dat de voorwaarde oneerlijk is.

 

7.     Dit artikel is van toepassing op alle nieuwe contracten die van kracht worden na … [datum van inwerkingtreding van deze verordening]. Ondernemingen onderwerpen de bestaande contractvoorwaarden die onder het toepassingsgebied van deze verordening vallen uiterlijk op … [drie jaar na de datum van inwerkingtreding van deze verordening] aan een herziening.

 

8.     Gezien de snelheid waarmee innovaties op de markt komen, herziet de Commissie de lijst van oneerlijke contractvoorwaarden van artikel 28 bis regelmatig en past zij deze waar nodig aan nieuwe handelspraktijken aan.

Amendement 399

Voorstel voor een verordening

Artikel 28 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 28 ter

 

Verplichtingen van de aanbieder van een basismodel

 

1.     Alvorens een basismodel op de markt aan te bieden of in gebruik te nemen, zorgt de aanbieder van zulk een model ervoor dat het in overeenstemming is met de vereisten van dit artikel, ongeacht of het als een op zichzelf staand model wordt geleverd, is ingebed in een AI-systeem of -product, of wordt aangeboden als dienst in het kader van vrije en open bronlicenties of via andere distributiekanalen.

 

2.     Voor de toepassing van lid 1 van dit artikel doet de aanbieder van een basismodel het volgende:

 

a)

hij toont aan, door middel van passend ontwerp en passende tests en analyses, dat redelijkerwijs voorzienbare risico’s voor het milieu, de gezondheid, veiligheid, grondrechten, democratie en rechtsstaat vóór en tijdens de ontwikkeling van het model aan de hand van passende methoden, onder meer met medewerking van onafhankelijke deskundigen, worden geïdentificeerd, verminderd en beperkt, en dat de resterende, niet-limiteerbare risico’s na de ontwikkeling ervan worden gedocumenteerd;

 

b)

hij verwerkt en integreert alleen datareeksen die onderworpen zijn aan aangepaste maatregelen inzake databeheer voor basismodellen, met name maatregelen betreffende het onderzoeken van de geschiktheid van de gegevensbronnen, eventuele vertekeningen en gepaste risicobeperking;

 

c)

hij ontwerpt en ontwikkelt het basismodel zodanig dat het gedurende zijn hele levenscyclus een gepast prestatieniveau en een gepast niveau van voorspelbaarheid, interpreteerbaarheid, corrigeerbaarheid, veiligheid en cyberveiligheid behoudt, en beoordeelt dit aan de hand van passende methoden zoals evaluaties met betrokkenheid van onafhankelijke deskundigen, gedocumenteerde analysen en uitgebreide tests tijdens de conceptualisering, het ontwerp en de ontwikkeling van het model;

 

d)

hij maakt bij het ontwerpen en ontwikkelen van het basismodel gebruik van de geldende normen ter vermindering van energieverbruik, gebruik van hulpbronnen en afval en ter vergroting van de energie-efficiëntie en de algehele efficiëntie van het model, zonder hierbij afbreuk te doen aan het relevante bestaande Unie- en nationale recht. Deze verplichting geldt niet voordat de in artikel 40 bedoelde normen zijn bekendgemaakt. Basismodellen worden ontworpen met mogelijkheden om het verbruik van energie en hulpbronnen en, voor zover dat technisch haalbaar is, andere mogelijke milieueffecten van de uitrol en het gebruik van de modellen gedurende hun hele levensduur te meten en te registreren;

 

e)

hij stelt uitgebreide technische documentatie en begrijpelijke gebruiksinstructies op om aanbieders downstream in staat te stellen hun verplichtingen uit hoofde van de artikelen 16 en 28, lid 1, na te komen;

 

f)

hij zet een kwaliteitsbeheersysteem op om de naleving van dit artikel te waarborgen en te documenteren, waarbij het mogelijk is te experimenteren om aan deze vereiste te voldoen;

 

g)

hij registreert het basismodel in de in artikel 60 bedoelde EU-databank, overeenkomstig de instructies in bijlage VIII, punt C.

 

Bij het voldoen aan deze vereisten houdt de aanbieder rekening met de algemeen erkende stand van de techniek, met de weerspiegeling hiervan in relevante geharmoniseerde normen of gemeenschappelijke specificaties en met de recentste evaluatie- en meetmethoden, met name de in artikel 58 bis bedoelde richtsnoeren en capaciteiten voor benchmarking.

 

3.     Aanbieder van basismodellen houden gedurende een periode van tien jaar nadat hun model in de handel is gebracht of in bedrijf is gesteld, de in lid 2, punt e), bedoelde technische documentatie ter beschikking van de nationale bevoegde autoriteiten.

 

4.     Aanbieders van basismodellen die worden gebruikt in AI-systemen waarvan het doel er specifiek in bestaat om met uiteenlopende mate van autonomie inhoud te genereren, zoals complexe tekst, afbeeldingen, audio- of videomateriaal (“generatieve AI”), en aanbieders die een basismodel aanpassen om het op te nemen in een generatief AI-systeem, moeten bovendien:

 

a)

voldoen aan de transparantieverplichtingen van artikel 52, lid 1;

 

b)

het basismodel op zodanige wijze trainen en eventueel ontwerpen en ontwikkelen dat er passende waarborgen worden geboden tegen het genereren van inhoud die in strijd is met het Unierecht, in overeenstemming met de algemeen erkende stand van de techniek en onverminderd de grondrechten en de vrijheid van meningsuiting;

 

c)

een voldoende gedetailleerde samenvatting opstellen en publiek toegankelijk maken van het gebruik van trainingsdata die beschermd zijn uit hoofde van het auteursrecht, onverminderd de wetgeving van de Unie en de lidstaten inzake auteursrechten.

Amendement 400

Voorstel voor een verordening

Artikel 29 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.    Gebruikers van AI-systemen met een hoog risico gebruiken dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd, in overeenstemming met de leden 2 en 5.

1.    Exploitanten van AI-systemen met een hoog risico nemen passende technische en organisatorische maatregelen om te waarborgen dat zij dergelijke systemen gebruiken in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd, in overeenstemming met de leden 2 en 5 van dit artikel .

Amendement 401

Voorstel voor een verordening

Artikel 29 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Voor zover exploitanten controle uitoefenen over het AI-systeem met een hoog risico:

 

i)

oefenen zij menselijk toezicht uit overeenkomstig de vereisten van deze verordening

 

ii)

zorgen zij ervoor dat de natuurlijke personen die belast zijn met het menselijk toezicht op de AI met een hoog risico bekwaam, naar behoren gekwalificeerd en opgeleid zijn en over de nodige middelen beschikken om een effectief toezicht op het AI-systeem overeenkomstig artikel 14 te waarborgen

 

iii)

zorgen zij ervoor dat de relevante en passende maatregelen inzake robuustheid en cyberbeveiliging regelmatig op doeltreffendheid worden gecontroleerd en regelmatig worden aangepast of geactualiseerd.

Amendement 402

Voorstel voor een verordening

Artikel 29 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De verplichtingen van lid  1 doen geen afbreuk aan de andere verplichtingen van gebruikers op grond van het Unie- of intern recht en aan de beoordelingsvrijheid van gebruikers bij het organiseren van hun eigen middelen en activiteiten voor de uitvoering van de maatregelen inzake menselijk toezicht zoals aangegeven door de aanbieder.

2.   De verplichtingen van de leden  1 en 1 bis, doen geen afbreuk aan de andere verplichtingen van de exploitant op grond van het Unie- of intern recht en aan de beoordelingsvrijheid van de exploitant bij het organiseren van hun eigen middelen en activiteiten voor de uitvoering van de maatregelen inzake menselijk toezicht zoals aangegeven door de aanbieder.

Amendement 403

Voorstel voor een verordening

Artikel 29 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Onverminderd lid 1 zorgt de gebruiker er , voor zover hij controle heeft over de inputdata, voor dat de inputdata relevant zijn voor het beoogde doel van het AI-systeem met een hoog risico.

3.   Onverminderd lid 1 en lid 1 bis, zorgt de exploitant , voor zover hij controle heeft over de inputdata, ervoor dat de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico.

Amendement 404

Voorstel voor een verordening

Artikel 29 — lid 4 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

4.    Gebruikers monitoren de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen. Wanneer zij redenen hebben om aan te nemen dat het gebruik overeenkomstig de gebruiksaanwijzingen ertoe kan leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, stellen zij de aanbieder of distributeur hiervan in kennis en onderbreken zij het gebruik van het systeem. Zij stellen de aanbieder of distributeur er ook van in kennis en onderbreken het gebruik van het AI-systeem wanneer zij een ernstig incident of eventuele gebrekkige werking hebben vastgesteld in de zin van artikel 62. Wanneer de gebruiker de aanbieder niet kan bereiken, is artikel 62 mutatis mutandis van toepassing.

4.    Exploitanten monitoren de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en stellen in voorkomend geval de aanbieders in kennis overeenkomstig artikel 61 . Wanneer zij redenen hebben om aan te nemen dat het gebruik overeenkomstig de gebruiksaanwijzingen ertoe kan leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, stellen zij de aanbieder of distributeur en de desbetreffende nationale toezichthoudende autoriteiten hiervan onverwijld in kennis en onderbreken zij het gebruik van het systeem. Zij stellen ook eerst de aanbieder en vervolgens de importeur en de distributeur , alsmede de desbetreffende nationale toezichthoudende autoriteiten, er onmiddellijk van in kennis en onderbreken het gebruik van het AI-systeem wanneer zij een ernstig incident of eventuele gebrekkige werking hebben vastgesteld in de zin van artikel 62. Wanneer de exploitant de aanbieder niet kan bereiken, is artikel 62 mutatis mutandis van toepassing.

Amendement 405

Voorstel voor een verordening

Artikel 29 — lid 4 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

Voor gebruikers die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn wordt de monitoringsverplichting van lid 1 geacht te zijn nagekomen wanneer zij de regels inzake regelingen, processen en mechanismen voor interne governance naleven overeenkomstig artikel 74 van die richtlijn.

Voor exploitanten die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn wordt de monitoringsverplichting van lid 1 geacht te zijn nagekomen wanneer zij de regels inzake regelingen, processen en mechanismen voor interne governance naleven overeenkomstig artikel 74 van die richtlijn.

Amendement 406

Voorstel voor een verordening

Artikel 29 — lid 5 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

5.    Gebruikers van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door die AI-systemen met een hoog risico voor zover dergelijke logs onder hun controle vallen . De logs worden bewaard gedurende een periode die passend is gezien het beoogde doel van het AI-systeem met een hoog risico en de toepasselijke wettelijke verplichtingen op grond van het Unie- of intern recht.

5.    Exploitanten van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door die AI-systemen met een hoog risico voor zover dergelijke logs onder hun controle vallen en nodig zijn voor het waarborgen en aantonen van de naleving van deze verordening, voor audits achteraf van redelijkerwijs te voorziene storingen, incidenten of misbruiken van het systeem, of voor het waarborgen van en het toezicht op de goede werking van het systeem gedurende de gehele levenscyclus ervan. Onverminderd het toepasselijke Unie- of nationale recht worden de logs gedurende ten minste zes maanden bewaard. De bewaartermijn is in overeenstemming met de normen in de sector en is passend voor het beoogde doel van het AI-systeem met een hoog risico .

Amendement 407

Voorstel voor een verordening

Artikel 29 — lid 5 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

Gebruikers die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de logs als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.

Exploitanten die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de logs als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.

Amendement 408

Voorstel voor een verordening

Artikel 29 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     Voordat exploitanten een AI-systeem met een hoog risico op de werkplek in bedrijf stellen of in gebruik nemen, raadplegen zij de werknemersvertegenwoordigers met het oog op het bereiken van een akkoord overeenkomstig Richtlijn 2002/14/EG, en stellen zij de werknemers die aan het systeem onderworpen worden in kennis.

Amendement 409

Voorstel voor een verordening

Artikel 29 — lid 5 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 ter.     Exploitanten van AI-systemen met een hoog risico die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, of ondernemingen zijn als bedoeld in artikel 51, lid 1 bis, punt b), leven de in artikel 51 bedoelde registratieverplichtingen na.

Amendement 410

Voorstel voor een verordening

Artikel 29 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.    Gebruikers van AI-systemen met een hoog risico gebruiken de informatie die op grond van artikel 13 wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, indien van toepassing .

6.    In voorkomend geval gebruiken exploitanten van AI-systemen met een hoog risico de informatie die op grond van artikel 13 wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, waarvan een samenvatting wordt gepubliceerd met betrekking tot het specifieke gebruik en de specifieke context waarin het AI-systeem geacht wordt te functioneren. Exploitanten kunnen voor een deel terugvallen op die gegevensbeschermingseffectbeoordelingen om aan sommige van de in dit artikel vastgestelde verplichtingen te voldoen, voor zover de gegevensbeschermingseffectbeoordeling aan die verplichtingen voldoet.

Amendement 411

Voorstel voor een verordening

Artikel 29 — lid 6 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

6 bis.     Onverminderd artikel 52 stellen exploitanten van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen nemen of helpen bij het nemen van beslissingen met betrekking tot natuurlijke personen, de natuurlijke personen ervan in kennis dat het AI-systeem met een hoog risico op hen wordt toegepast. Deze informatie omvat tevens het beoogde doel en het soort besluitvorming waarvoor het wordt gebruikt. De exploitant stelt de natuurlijke persoon ook in kennis van zijn recht op een uitleg als bedoeld in artikel 68 quater.

Amendement 412

Voorstel voor een verordening

Artikel 29 — lid 6 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

6 ter.     Exploitanten werken samen met de desbetreffende nationale bevoegde autoriteiten bij alle door hen genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de tenuitvoerlegging van deze verordening.

Amendement 413

Voorstel voor een verordening

Artikel 29 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 29 bis

 

Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico

 

Voordat exploitanten een AI-systeem met een hoog risico als gedefinieerd in artikel 6, lid 2, in gebruik stellen, met uitzondering van AI-systemen die bedoeld zijn om te worden gebruikt op gebied 2 van bijlage III, voeren zij een beoordeling uit van de gevolgen van het systeem in de specifieke gebruikscontext. Bij deze beoordeling wordt ten minste gekeken naar de volgende elementen:

 

a)

een duidelijke omschrijving van het beoogde doel waarvoor het systeem gebruikt wordt;

 

b)

een duidelijke omschrijving van het beoogde geografische toepassingsgebied van het gebruik van het systeem en het bijbehorende tijdsbestek;

 

c)

categorieën van natuurlijke personen en groepen die naar verwachting gevolgen zullen ondervinden van het gebruik van het systeem;

 

d)

een verificatie om te bevestigen dat het gebruik van het systeem in overeenstemming is met het Unie- en nationale recht inzake grondrechten;

 

e)

de redelijkerwijs te verwachten gevolgen voor de grondrechten van de ingebruikstelling van het AI-systeem met een hoog risico;

 

f)

specifieke risico’s op schadelijke effecten die het systeem waarschijnlijk met zich meebrengt voor gemarginaliseerde personen of kwetsbare groepen;

 

g)

het in redelijkheid voorzienbare negatieve effect van het gebruik van het systeem op het milieu;

 

h)

een gedetailleerd plan met een uiteenzetting van de wijze waarop de negatieve gevolgen voor de grondrechten zullen worden beperkt.

 

j)

het governancesysteem dat de exploitant zal invoeren, met inbegrip van menselijk toezicht, klachtenafhandeling en verhaal.

 

2.     Als er geen gedetailleerd plan kan worden vastgesteld om de in het kader van de beoordeling overeenkomstig lid 1 omschreven risico’s te beperken, stelt de exploitant het AI-systeem met een hoog risico niet in gebruik en stelt hij de aanbieder en de nationale toezichthoudende autoriteit onverwijld in kennis. De nationale toezichthoudende autoriteiten nemen deze informatie, op grond van de artikelen 65 en 67, in aanmerking bij het onderzoek naar systemen die een risico op nationaal niveau kunnen vormen.

 

3.     De verplichting als neergelegd in lid 1 is van toepassing op het eerste gebruik van een AI-systeem met een hoog risico. De exploitant kan in soortgelijke gevallen gebruikmaken van eerder uitgevoerde effectbeoordelingen op het gebied van de grondrechten of bestaande beoordelingen die door aanbieders zijn uitgevoerd. Indien de exploitant tijdens het gebruik van het AI-systeem met een hoog risico van oordeel is dat niet langer aan de in lid 1 genoemde criteria wordt voldaan, voert hij een nieuwe effectbeoordeling op het gebied van de grondrechten uit.

 

4.     De exploitant, behalve als het gaat om een kmo, stelt de nationale toezichthoudende autoriteiten en de betrokken belanghebbenden in de loop van de effectbeoordeling op de hoogte en betrekt bij een en ander zo veel als mogelijk is de personen of groepen die waarschijnlijk de gevolgen zullen ondervinden van het AI-systeem met een hoog risico, als omschreven in lid 1, onder wie, maar niet beperkt tot: organen voor gelijke behandeling, agentschappen voor consumentenbescherming, sociale partners en gegevensbeschermingsagentschappen, met het oog op het verkrijgen van input voor de effectbeoordeling. De exploitant geeft de agentschappen zes weken de tijd om te reageren. Kmo’s kunnen de bepalingen van dit lid vrijwillig toepassen.

 

In het in artikel 47, lid 1, bedoelde geval kunnen overheidsinstanties van deze verplichtingen worden vrijgesteld.

 

5.     Indien de exploitant een overheidsinstantie of een onderneming als bedoeld in artikel 51, lid 1bis, punt b), is maakt deze een samenvatting van de resultaten van de effectbeoordeling openbaar als onderdeel van de gebruiksregistratie op grond van de verplichting neergelegd in artikel 51, lid 2.

 

6.     Wanneer de exploitant reeds verplicht is een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, wordt de in lid 1 bedoelde effectbeoordeling op het gebied van de grondrechten uitgevoerd in samenhang met de gegevensbeschermingseffectbeoordeling. De gegevensbeschermingseffectbeoordeling wordt als bijlage gepubliceerd.

Amendement 414

Voorstel voor een verordening

Artikel 30 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Elke lidstaat wijst een aanmeldende autoriteit aan of richt een aanmeldende autoriteit op die verantwoordelijk is voor het opzetten en uitvoeren van de nodige procedures voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties en voor het toezicht erop.

1.   Elke lidstaat wijst een aanmeldende autoriteit aan of richt een aanmeldende autoriteit op die verantwoordelijk is voor het opzetten en uitvoeren van de nodige procedures voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties en voor het toezicht erop. Deze procedures worden ontwikkeld in samenwerking tussen de aanmeldende autoriteiten van alle lidstaten.

Amendement 415

Voorstel voor een verordening

Artikel 30 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   Aanmeldende autoriteiten beschikken over een voldoende aantal bekwame personeelsleden om hun taken naar behoren uit te voeren.

7.   Aanmeldende autoriteiten beschikken over een voldoende aantal bekwame personeelsleden om hun taken naar behoren uit te voeren. Waar van toepassing beschikt het bevoegde personeel over de nodige deskundigheid, zoals een diploma op een passend juridisch gebied, op het gebied van het toezicht op de in het Handvest van de grondrechten van de Europese Unie verankerde grondrechten.

Amendement 416

Voorstel voor een verordening

Artikel 30 — lid 8

Door de Commissie voorgestelde tekst

Amendement

8.   Aanmeldende autoriteiten zorgen ervoor dat conformiteitsbeoordelingen op evenredige wijze worden uitgevoerd, waarbij onnodige lasten voor aanbieders worden vermeden, en dat aangemelde instanties bij het verrichten van hun activiteiten naar behoren rekening houden met de omvang van de onderneming, de sector waarin deze actief is, de structuur ervan en de mate van complexiteit van het AI-systeem in kwestie.

8.   Aanmeldende autoriteiten zorgen ervoor dat conformiteitsbeoordelingen op evenredige wijze en tijdig worden uitgevoerd, waarbij onnodige lasten voor aanbieders worden vermeden, en dat aangemelde instanties bij het verrichten van hun activiteiten naar behoren rekening houden met de omvang van de onderneming, de sector waarin deze actief is, de structuur ervan en de mate van complexiteit van het AI-systeem in kwestie. Er wordt bijzondere aandacht besteed aan het zoveel mogelijk beperken van de administratieve lasten en de nalevingskosten voor micro- en kleine ondernemingen als omschreven in de bijlage bij Aanbeveling 2003/361/EG van de Commissie.

Amendement 417

Voorstel voor een verordening

Artikel 32 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Aanmeldende autoriteiten mogen uitsluitend conformiteitsbeoordelingsinstanties aanmelden die aan de eisen in artikel 33 voldoen.

1.   Aanmeldende autoriteiten melden uitsluitend conformiteitsbeoordelingsinstanties aan die aan de eisen in artikel 33 voldoen.

Amendement 418

Voorstel voor een verordening

Artikel 32 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Aanmeldende autoriteiten verrichten de aanmelding bij de Commissie en de andere lidstaten door middel van het door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.

2.   Aanmeldende autoriteiten melden elke conformiteitsbeoordelingsinstantie als bedoeld in lid 1 aan bij de Commissie en de andere lidstaten door middel van het door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.

Amendement 419

Voorstel voor een verordening

Artikel 32 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Bij de aanmelding worden de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s) en de betrokken artificiële-intelligentietechnologieën uitvoerig beschreven.

3.   Bij de aanmelding als bedoeld in lid 2 worden de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s), de betrokken artificiële-intelligentietechnologieën en de relevante bekwaamheidsattestatie uitvoerig beschreven.

Amendement 420

Voorstel voor een verordening

Artikel 32 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De betrokken conformiteitsbeoordelingsinstantie mag de activiteiten van een aangemelde instantie alleen verrichten als de Commissie en de andere lidstaten binnen één maand na een aanmelding geen bezwaren hebben ingediend.

4.   De betrokken conformiteitsbeoordelingsinstantie mag de activiteiten van een aangemelde instantie alleen verrichten als de Commissie en de andere lidstaten binnen twee weken na goedkeuring van de aanmelding indien een accreditatiecertificaat in de zin van artikel 31, lid 2, wordt gebruikt, of binnen twee maanden na de aanmelding indien de in artikel 31, lid 3, bedoelde bewijsstukken worden gebruikt, geen bezwaren hebben ingediend.

Amendement 421

Voorstel voor een verordening

Artikel 32 — lid 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.     Indien er bezwaar wordt ingediend, treedt de Commissie onverwijld in overleg met de betrokken lidstaten en de conformiteitsbeoordelingsinstantie. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante conformiteitsbeoordelingsinstantie.

Amendement 422

Voorstel voor een verordening

Artikel 32 — lid 4 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 ter.     De lidstaten melden conformiteitsbeoordelingsinstanties aan bij de Commissie en de andere lidstaten.

Amendement 423

Voorstel voor een verordening

Artikel 33 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Aangemelde instanties voldoen aan de eisen inzake organisatie, kwaliteitsbeheer, personeel en processen die nodig zijn voor het vervullen van hun taken.

2.   Aangemelde instanties voldoen aan de eisen inzake organisatie, kwaliteitsbeheer, personeel en processen die nodig zijn voor het vervullen van hun taken , alsook aan de minimumeisen inzake cyberbeveiliging die zijn vastgesteld voor overheidsinstanties die overeenkomstig Richtlijn (EU) 2022/2555 als operators van essentiële diensten zijn aangemerkt .

Amendement 424

Voorstel voor een verordening

Artikel 33 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Aangemelde instanties zijn onafhankelijk van de aanbieder van een AI-systeem met een hoog risico met betrekking waartoe de aanbieder conformiteitsbeoordelingsactiviteiten verricht. Aangemelde instanties zijn ook onafhankelijk van andere exploitanten die een economisch belang hebben in het beoordeelde AI-systeem met een hoog risico, alsook van concurrenten van de aanbieder.

4.   Aangemelde instanties zijn onafhankelijk van de aanbieder van een AI-systeem met een hoog risico met betrekking waartoe de aanbieder conformiteitsbeoordelingsactiviteiten verricht. Aangemelde instanties zijn ook onafhankelijk van andere operators die een economisch belang hebben in het beoordeelde AI-systeem met een hoog risico, alsook van concurrenten van de aanbieder. Dit belet echter niet dat de beoordeelde AI-systemen voor activiteiten van de conformiteitsbeoordelingsinstantie of voor persoonlijke doeleinden worden gebruikt.

Amendement 425

Voorstel voor een verordening

Artikel 33 — lid 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.     Een conformiteitsbeoordeling overeenkomstig lid 1 wordt uitgevoerd door werknemers van aangemelde instanties die in de periode van 12 maanden vóór de beoordeling geen andere met de beoordeling verband houdende dienst hebben verleend aan de aanbieder van een AI-systeem met een hoog risico of aan een met die aanbieder verbonden rechtspersoon en zich ertoe hebben verbonden deze diensten niet te verlenen in de periode van 12 maanden na de voltooiing van de beoordeling.

Amendement 426

Voorstel voor een verordening

Artikel 33 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   Aangemelde instanties beschikken over gedocumenteerde procedures die waarborgen dat hun personeel, comités, dochterondernemingen, onderaannemers, geassocieerde instanties of personeel van externe instanties de vertrouwelijkheid in acht nemen van de informatie die zij tijdens conformiteitsbeoordelingsactiviteiten in hun bezit krijgen, behalve wanneer openbaarmaking wettelijk vereist is. Het personeel van aangemelde instanties is gebonden aan het beroepsgeheim ten aanzien van alle informatie waarvan het kennis neemt bij de uitoefening van de taken uit hoofde van deze verordening, behalve ten opzichte van de aanmeldende autoriteiten van de lidstaat waar de activiteiten plaatsvinden.

6.   Aangemelde instanties beschikken over gedocumenteerde procedures die waarborgen dat hun personeel, comités, dochterondernemingen, onderaannemers, geassocieerde instanties of personeel van externe instanties de vertrouwelijkheid in acht nemen van de informatie die zij tijdens conformiteitsbeoordelingsactiviteiten in hun bezit krijgen, behalve wanneer openbaarmaking wettelijk vereist is. Het personeel van aangemelde instanties is gebonden aan het beroepsgeheim ten aanzien van alle informatie waarvan het kennis neemt bij de uitoefening van de taken uit hoofde van deze verordening, behalve ten opzichte van de aanmeldende autoriteiten van de lidstaat waar de activiteiten plaatsvinden. De door de aangemelde instanties volgens de bepalingen van dit artikel verkregen informatie en documentatie worden verwerkt met inachtneming van de in artikel 70 vastgestelde geheimhoudingsverplichtingen.

Amendement 427

Voorstel voor een verordening

Artikel 34 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Activiteiten mogen uitsluitend met instemming van de aanbieder worden uitbesteed of door een dochteronderneming worden uitgevoerd.

3.   Activiteiten mogen uitsluitend met instemming van de aanbieder worden uitbesteed of door een dochteronderneming worden uitgevoerd. Aangemelde instanties maken een lijst van hun dochterondernemingen openbaar.

Amendement 428

Voorstel voor een verordening

Artikel 34 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Aangemelde instanties houden de relevante documenten over de beoordeling van de kwalificaties van de onderaannemer of de dochteronderneming en over de door de onderaannemer of dochteronderneming krachtens deze verordening uitgevoerde werkzaamheden ter beschikking van de aanmeldende autoriteit.

4.   Aangemelde instanties houden de relevante documenten over de verificatie van de kwalificaties van de onderaannemer of de dochteronderneming en over de door de onderaannemer of dochteronderneming krachtens deze verordening uitgevoerde werkzaamheden ter beschikking van de aanmeldende autoriteit.

Amendement 429

Voorstel voor een verordening

Artikel 35 — titel

Door de Commissie voorgestelde tekst

Amendement

Identificatienummers en lijsten van krachtens deze verordening aangewezen aangemelde instanties

Identificatienummers en lijsten van aangemelde instanties

Amendement 430

Voorstel voor een verordening

Artikel 36 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Wanneer een aanmeldende autoriteit het vermoeden heeft of heeft vernomen dat een aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, moet de autoriteit de kwestie onverwijld zo zorgvuldig mogelijk onderzoeken. In die context stelt zij de betrokken aangemelde instantie in kennis van de geopperde bezwaren en biedt zij haar de mogelijkheid haar standpunten kenbaar te maken. Als de aanmeldende autoriteit tot de conclusie komt dat de onderzochte aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, wordt de aanmelding door haar beperkt, geschorst of ingetrokken, als passend, afhankelijk van de ernst van de tekortkoming. Zij brengt daar ook de Commissie en de andere lidstaten onmiddellijk van op de hoogte.

1.   Wanneer een aanmeldende autoriteit het vermoeden heeft of heeft vernomen dat een aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, moet de autoriteit de kwestie onverwijld zo zorgvuldig mogelijk onderzoeken. In die context stelt zij de betrokken aangemelde instantie in kennis van de geopperde bezwaren en biedt zij haar de mogelijkheid haar standpunten kenbaar te maken. Als de aanmeldende autoriteit tot de conclusie komt dat de aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, wordt de aanmelding door haar beperkt, geschorst of ingetrokken, als passend, afhankelijk van de ernst van de tekortkoming. Zij brengt daar ook de Commissie en de andere lidstaten onmiddellijk van op de hoogte.

Amendement 431

Voorstel voor een verordening

Artikel 36 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Wanneer de aanmelding wordt beperkt, geschorst of ingetrokken, of de aangemelde instantie haar activiteiten heeft gestaakt, doet de aanmeldende autoriteit het nodige om ervoor te zorgen dat de dossiers van die aangemelde instantie hetzij door een andere aangemelde instantie worden overgenomen, hetzij aan de verantwoordelijke aanmeldende autoriteiten op hun verzoek ter beschikking kunnen worden gesteld.

2.   Wanneer de aanmelding wordt beperkt, geschorst of ingetrokken, of de aangemelde instantie haar activiteiten heeft gestaakt, doet de aanmeldende autoriteit het nodige om ervoor te zorgen dat de dossiers van die aangemelde instantie hetzij door een andere aangemelde instantie worden overgenomen, hetzij aan de verantwoordelijke aanmeldende autoriteiten en de markttoezichtautoriteit op hun verzoek ter beschikking kunnen worden gesteld.

Amendement 432

Voorstel voor een verordening

Artikel 37 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De Commissie onderzoekt indien nodig alle gevallen waarin er redenen zijn om te twijfelen of een aangemelde instantie aan de eisen van artikel 33 voldoet .

1.   De Commissie onderzoekt indien nodig alle gevallen waarin er redenen zijn om te twijfelen aan de bekwaamheid van een aangemelde instantie of te twijfelen of een aangemelde instantie nog aan de toepasselijke eisen voldoet en haar verantwoordelijkheden nakomt .

Amendement 433

Voorstel voor een verordening

Artikel 37 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De aanmeldende autoriteit verstrekt de Commissie op verzoek alle relevante informatie over de aanmelding van de betrokken aangemelde instantie.

2.   De aanmeldende autoriteit verstrekt de Commissie op verzoek alle relevante informatie over de aanmelding of het op peil houden van de bekwaamheid van de betrokken aangemelde instantie.

Amendement 434

Voorstel voor een verordening

Artikel 37 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De Commissie ziet erop toe dat alle vertrouwelijke informatie die zij in de loop van haar onderzoeken overeenkomstig dit artikel ontvangt, vertrouwelijk wordt behandeld.

3.   De Commissie ziet erop toe dat alle gevoelige informatie die zij in de loop van haar onderzoeken overeenkomstig dit artikel ontvangt, vertrouwelijk wordt behandeld.

Amendement 435

Voorstel voor een verordening

Artikel 37 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Wanneer de Commissie vaststelt dat een aangemelde instantie niet of niet meer aan de eisen van artikel 33 voldoet, neemt zij een met redenen omkleed besluit om de aanmeldende lidstaat te verzoeken de nodige corrigerende maatregelen te nemen en zo nodig de aanmelding in te trekken. De uitvoeringshandeling wordt vastgesteld volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure.

4.   Wanneer de Commissie vaststelt dat een aangemelde instantie niet of niet meer aan de aanmeldingseisen voldoet, brengt zij de aanmeldende lidstaat daarvan op de hoogte en verzoekt zij deze lidstaat de nodige corrigerende maatregelen te nemen, en zo nodig de aanmelding te schorsen of in te trekken . Indien de lidstaat niet de nodige corrigerende actie onderneemt, kan de Commissie door middel van een uitvoeringshandeling de aanwijzing schorsen, beperken of intrekken. De uitvoeringshandeling wordt vastgesteld volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure.

Amendement 436

Voorstel voor een verordening

Artikel 38 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De Commissie voorziet in de uitwisseling van kennis en beste praktijken tussen de nationale instanties van de lidstaten die verantwoordelijk zijn voor het aanmeldingsbeleid.

Amendement 437

Voorstel voor een verordening

Artikel 40 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

AI-systemen met een hoog risico die in overeenstemming zijn met geharmoniseerde normen of delen daarvan, waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die normen worden bestreken.

AI-systemen met een hoog risico en basismodellen die in overeenstemming zijn met geharmoniseerde normen of delen daarvan, waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt overeenkomstig Verordening (EU) 1025/2012 , worden geacht in overeenstemming te zijn met de in hoofdstuk 2 of artikel 28 ter, van deze titel beschreven voorschriften, voor zover die voorschriften door die normen worden bestreken.

Amendement 438

Voorstel voor een verordening

Artikel 40 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Uiterlijk … [twee maanden na de datum van inwerkingtreding van deze verordening] doet de Commissie overeenkomstig artikel 10 van Verordening (EU) Nr. 1025/2012 normalisatieverzoeken voor alle eisen van deze verordening. Bij het opstellen van normalisatieverzoeken raadpleegt de Commissie het AI-bureau en het adviesforum;

Amendement 439

Voorstel voor een verordening

Artikel 40 — alinea 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Bij het richten van een normalisatieverzoek aan Europese normalisatie-instellingen specificeert de Commissie dat normen consistent moeten zijn, met inbegrip van de in bijlage II vermelde sectorale wetgeving, en tot doel hebben ervoor te zorgen dat AI-systemen of basismodellen die in de Unie in de handel worden gebracht of in gebruik worden genomen, voldoen aan de relevante vereisten van deze verordening;

Amendement 440

Voorstel voor een verordening

Artikel 40 — alinea 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De bij het normalisatieproces betrokken actoren houden rekening met de in artikel 4, punt a), vastgestelde algemene beginselen voor betrouwbare AI, streven naar het bevorderen van investeringen en innovatie in AI en het concurrentievermogen en de groei van de markt van de Unie, en dragen bij tot de versterking van de wereldwijde samenwerking op het gebied van normalisatie, rekening houdend met bestaande internationale normen op het gebied van AI die in overeenstemming zijn met de waarden, grondrechten en belangen van de Unie, en zorgen voor een evenwichtige vertegenwoordiging van de belangen en effectieve deelname van alle relevante belanghebbenden overeenkomstig de artikelen 5, 6 en 7 van Verordening (EU) nr. 1025/2012.

Amendement 441

Voorstel voor een verordening

Artikel 41 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.     Wanneer geharmoniseerde normen als bedoeld in artikel 40 niet bestaan of wanneer de Commissie meent dat de relevante geharmoniseerde normen ontoereikend zijn of specifieke punten op het gebied van veiligheid of grondrechten moeten worden aangepakt, kan de Commissie door middel van uitvoeringshandelingen gemeenschappelijke specificaties ten aanzien van de in hoofdstuk 2 van deze titel beschreven voorschriften vaststellen. Die uitvoeringshandelingen worden volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure vastgesteld.

Schrappen

Amendement 442

Voorstel voor een verordening

Artikel 41 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     De Commissie kan, door middel van een uitvoeringshandeling die wordt vastgesteld overeenkomstig de in artikel 74, lid 2, bedoelde onderzoeksprocedure en na raadpleging van het AI-bureau en het AI-adviesforum, gemeenschappelijke specificaties vaststellen met betrekking tot de voorschriften van hoofdstuk 2 van deze titel of artikel 28 ter, indien aan elk van de volgende voorwaarden is voldaan:

 

a)

er wordt niet verwezen naar reeds in het Publicatieblad van de Europese Unie gepubliceerde geharmoniseerde normen die verband houden met de essentiële eis(en), tenzij de geharmoniseerde norm in kwestie een bestaande norm is die moet worden herzien;

 

b)

de Commissie heeft een of meer Europese normalisatie-instellingen verzocht een geharmoniseerde norm op te stellen ten aanzien van de essentiële eisen als bedoeld in hoofdstuk 2;

 

c)

het verzoek als bedoeld in punt b) is door geen van de Europese normalisatieorganisaties aanvaard; of er is sprake is van onnodige vertragingen bij de vaststelling van een passende geharmoniseerde norm; of de verstrekte norm voldoet niet aan de vereisten van het toepasselijke Unierecht of voldoet niet aan het verzoek van de Commissie.

Amendement 443

Voorstel voor een verordening

Artikel 41 — lid 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 ter.     Wanneer de Commissie van oordeel is dat specifieke problemen op het gebied van de grondrechten moeten worden aangepakt, wordt in de door de Commissie overeenkomstig lid 1 bis vastgestelde gemeenschappelijke specificaties ook aandacht besteed aan die specifieke problemen op het gebied van de grondrechten.

Amendement 444

Voorstel voor een verordening

Artikel 41 — lid 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 quater.     De Commissie ontwikkelt gemeenschappelijke specificaties voor de methodologie om te voldoen aan de rapportage- en documentatievereisten inzake het verbruik van energie en hulpbronnen tijdens de ontwikkeling, opleiding en invoering van het AI-systeem met hoog risico.

Amendement 445

Voorstel voor een verordening

Artikel 41 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De Commissie vergaart bij het opstellen van de in lid 1 bedoelde gemeenschappelijke specificaties de standpunten van relevante instanties of deskundigengroepen die krachtens relevant sectoraal Unierecht zijn opgericht .

2.   De Commissie raadpleegt gedurende het gehele proces van de opstelling van de in de leden 1 bis en 1 ter bedoelde gemeenschappelijke specificaties regelmatig het AI-bureau en het adviesforum, de Europese normalisatieorganisaties en -organen of deskundigengroepen die zijn opgericht uit hoofde van de desbetreffende sectorale wetgeving van de Unie, alsmede andere relevante belanghebbenden . De Commissie voldoet aan de in artikel 40, lid 1 quater, genoemde doelstellingen en motiveert naar behoren waarom zij heeft besloten gebruik te maken van gemeenschappelijke specificaties.

 

Wanneer de Commissie voornemens is gemeenschappelijke specificaties vast te stellen overeenkomstig lid 1 bis van dit artikel, geeft zij ook duidelijk aan welke specifiek probleem in verband met de grondrechten moet worden aangepakt.

 

Bij de vaststelling van gemeenschappelijke specificaties overeenkomstig de leden 1 bis en 1 ter van dit artikel houdt de Commissie rekening met het in artikel 56 sexies, punt b), van deze verordening bedoelde advies van het AI-bureau. Indien de Commissie besluit het advies van het AI-bureau niet op te volgen, verstrekt zij het AI-bureau een met redenen omklede toelichting.

Amendement 446

Voorstel voor een verordening

Artikel 41 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   AI-systemen met een hoog risico die in overeenstemming zijn met de in lid 1 bedoelde gemeenschappelijke specificaties, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die gemeenschappelijke specificaties worden bestreken.

3.   AI-systemen met een hoog risico die in overeenstemming zijn met de in lid 1 bis en 1 ter, bedoelde gemeenschappelijke specificaties, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die gemeenschappelijke specificaties worden bestreken.

Amendement 447

Voorstel voor een verordening

Artikel 41 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Wanneer een Europese normalisatieorganisatie een geharmoniseerde norm vaststelt en deze aan de Commissie voorstelt met het oog op de bekendmaking van de referentie ervan in het Publicatieblad van de Europese Unie, beoordeelt de Commissie de geharmoniseerde norm overeenkomstig Verordening (EU) nr. 1025/2012. Wanneer de referentie van een geharmoniseerde norm in het Publicatieblad van de Europese Unie wordt bekendgemaakt, trekt de Commissie de in lid 1 en 1 bis, bedoelde uitvoeringshandelingen of delen daarvan die betrekking hebben op dezelfde voorschriften als bedoeld in hoofdstuk 2 van deze titel, in.

Amendement 448

Voorstel voor een verordening

Artikel 41 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Wanneer aanbieders niet voldoen aan de in lid 1 bedoelde gemeenschappelijke specificaties, moeten zij naar behoren rechtvaardigen dat zij technische oplossingen hebben gekozen die minstens gelijkwaardig daarmee zijn .

4.   Wanneer aanbieders van AI-systemen met een hoog risico niet voldoen aan de in lid 1 bedoelde gemeenschappelijke specificaties, moeten zij naar behoren rechtvaardigen dat zij technische oplossingen hebben gekozen die voldoen aan de in hoofdstuk 2 beschreven voorschriften in een mate die minstens gelijkwaardig daarmee is .

Amendement 449

Voorstel voor een verordening

Artikel 42 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Rekening houdend met het beoogde doel worden AI-systemen met een hoog risico die zijn getraind en getest op data betreffende de specifieke geografische, functionele en gedragsomgeving waarin zij zullen worden gebruikt, geacht in overeenstemming te zijn met de in artikel 10, lid 4, beschreven eis .

1.   Rekening houdend met het beoogde doel worden AI-systemen met een hoog risico die zijn getraind en getest op data betreffende de specifieke geografische, functionele , contextuele en gedragsomgeving waarin zij zullen worden gebruikt, geacht in overeenstemming te zijn met de in artikel 10, lid 4, beschreven respectievelijke vereisten .

Amendement 450

Voorstel voor een verordening

Artikel 43 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Voor in punt 1 van bijlage III opgesomde AI-systemen met een hoog risico volgt de aanbieder, wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, een van de volgende procedures:

1.   Voor in punt 1 van bijlage III opgesomde AI-systemen met een hoog risico kiest de aanbieder, wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, een van de volgende procedures:

Amendement 451

Voorstel voor een verordening

Artikel 43 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI;

a)

de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI; of

Amendement 452

Voorstel voor een verordening

Artikel 43 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

de conformiteitsbeoordelingsprocedure op basis van beoordeling van het kwaliteitsbeheersysteem en beoordeling van de technische documentatie, met betrokkenheid van een aangemelde instantie, als bedoeld in bijlage VII.

b)

de conformiteitsbeoordelingsprocedure op basis van beoordeling van het kwaliteitsbeheersysteem en van de technische documentatie, met betrokkenheid van een aangemelde instantie, als bedoeld in bijlage VII.

Amendement 453

Voorstel voor een verordening

Artikel 43 — lid 1 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

Wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 niet of slechts ten dele heeft toegepast of wanneer zulke geharmoniseerde normen niet bestaan en gemeenschappelijke specificaties als bedoeld in artikel 41 niet voorhanden zijn, volgt de aanbieder de in bijlage VII beschreven conformiteitsbeoordelingsprocedure.

Bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico volgt de aanbieder in de volgende gevallen de conformiteitsbeoordelingsprocedure van bijlage VII:

 

a)

indien geharmoniseerde normen, als bedoeld in artikel 40 waarvan het referentienummer is gepubliceerd in het Publicatieblad van de Europese Unie en die alle voor het AI-systeem relevante veiligheidseisen dekken, niet bestaan en gemeenschappelijke specificaties als bedoeld in artikel 41 niet voorhanden zijn;

 

b)

indien de onder a) bedoelde technische specificaties bestaan, maar de aanbieder deze niet of slechts gedeeltelijk heeft toegepast;

 

c)

indien de onder a) bedoelde technische specificaties of een deel ervan met beperkingen zijn bekendgemaakt, en alleen met betrekking tot het deel van de norm waarvoor de beperkingen gelden;

 

d)

indien de aanbieder van oordeel is dat de aard, het ontwerp, de constructie of het doel van het AI-systeem verificatie door derden noodzakelijk maakt, ongeacht het desbetreffende risiconiveau.

Amendement 454

Voorstel voor een verordening

Artikel 43 — lid 1 — alinea 3

Door de Commissie voorgestelde tekst

Amendement

Voor de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII kan de aanbieder eender welke aangemelde instantie kiezen. Wanneer het systeem echter is bedoeld om door rechtshandhavings-, immigratie- of asielautoriteiten alsook EU-instellingen, -organen of -instanties in bedrijf te worden gesteld, treedt de markttoezichtautoriteit als bedoeld in artikel 63, lid 5 of 6, naar gelang van toepassing, als aangemelde instantie op.

Met het oog op de uitvoering van de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII kan de aanbieder eender welke aangemelde instantie kiezen. Wanneer het systeem echter is bedoeld om door rechtshandhavings-, immigratie- of asielautoriteiten alsook EU-instellingen, -organen of -instanties in bedrijf te worden gesteld, treedt de markttoezichtautoriteit als bedoeld in artikel 63, lid 5 of 6, naar gelang van toepassing, als aangemelde instantie op.

Amendement 455

Voorstel voor een verordening

Artikel 43 — lid 4 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

4.   AI-systemen met een hoog risico ondergaan een nieuwe conformiteitsbeoordelingsprocedure telkens wanneer zij wezenlijk zijn gewijzigd, ongeacht of het gewijzigde systeem bedoeld is om verder te worden gedistribueerd of door de huidige gebruiker gebruikt blijft worden.

4.   AI-systemen met een hoog risico die reeds aan een conformiteitsbeoordelingsprocedure zijn onderworpen, ondergaan een nieuwe conformiteitsbeoordelingsprocedure telkens wanneer zij wezenlijk zijn gewijzigd, ongeacht of het gewijzigde systeem bedoeld is om verder te worden gedistribueerd of door de huidige exploitant gebruikt blijft worden.

Amendement 456

Voorstel voor een verordening

Artikel 43 — lid 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.     De specifieke belangen en behoeften van kmo’s worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig dit artikel, waarbij die vergoedingen naar evenredigheid van hun omvang en marktaandeel worden verlaagd.

Amendement 457

Voorstel voor een verordening

Artikel 43 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de bijlagen VI en VII, teneinde elementen van de conformiteitsbeoordelingsprocedures in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.

5.   De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de bijlagen VI en VII, teneinde elementen van de conformiteitsbeoordelingsprocedures in te voeren die noodzakelijk worden in het licht van de technische vooruitgang. Bij het opstellen van dergelijke gedelegeerde handelingen raadpleegt de Commissie het AI-bureau en de betrokken belanghebbenden;

Amendement 458

Voorstel voor een verordening

Artikel 43 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   De Commissie is bevoegd om gedelegeerde handelingen vast te stellen om de leden 1 en 2 te wijzigen, teneinde AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III te onderwerpen aan de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII of delen daarvan. De Commissie stelt zulke gedelegeerde handelingen vast rekening houdend met de doeltreffendheid van de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI bij het voorkomen of minimaliseren van de risico’s voor de gezondheid en veiligheid en de bescherming van grondrechten die zulke systemen inhouden alsook met de beschikbaarheid van voldoende capaciteit en personeel onder aangemelde instanties.

6.   De Commissie is bevoegd om gedelegeerde handelingen vast te stellen om de leden 1 en 2 te wijzigen, teneinde AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III te onderwerpen aan de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII of delen daarvan. De Commissie stelt zulke gedelegeerde handelingen vast rekening houdend met de doeltreffendheid van de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI bij het voorkomen of minimaliseren van de risico’s voor de gezondheid en veiligheid en de bescherming van grondrechten die zulke systemen inhouden alsook met de beschikbaarheid van voldoende capaciteit en personeel onder aangemelde instanties. Bij het opstellen van dergelijke gedelegeerde handelingen raadpleegt de Commissie het AI-bureau en de betrokken belanghebbenden;

Amendement 459

Voorstel voor een verordening

Artikel 44 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Door aangemelde instanties overeenkomstig bijlage VII afgegeven certificaten worden opgesteld in een officiële taal van de Unie, vastgesteld door de lidstaat waar de aangemelde instantie is gevestigd, of in een officiële taal van de Unie die voor de aangemelde instantie anderszins aanvaardbaar is .

1.   Door aangemelde instanties overeenkomstig bijlage VII afgegeven certificaten worden opgesteld in een of meer officiële talen van de Unie, vastgesteld door de lidstaat waar de aangemelde instantie is gevestigd, of in een of meer officiële talen van de Unie die voor de aangemelde instantie anderszins aanvaardbaar zijn .

Amendement 460

Voorstel voor een verordening

Artikel 44 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Certificaten zijn geldig gedurende de daarin aangegeven periode, die niet meer dan vijf jaar mag bedragen. Op verzoek van de aanbieder kan de geldigheidsduur van een certificaat op grond van een herbeoordeling volgens de toepasselijke conformiteitsbeoordelingsprocedures worden verlengd met bijkomende perioden, die elk niet meer dan vijf jaar mogen bedragen.

2.   Certificaten zijn geldig gedurende de daarin aangegeven periode, die niet meer dan vier jaar mag bedragen. Op verzoek van de aanbieder kan de geldigheidsduur van een certificaat op grond van een herbeoordeling volgens de toepasselijke conformiteitsbeoordelingsprocedures worden verlengd met bijkomende perioden, die elk niet meer dan vier jaar mogen bedragen.

Amendement 461

Voorstel voor een verordening

Artikel 44 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Indien een aangemelde instantie vaststelt dat een AI-systeem niet meer aan de in hoofdstuk 2 van deze titel beschreven voorschriften voldoet, gaat zij , rekening houdend met het evenredigheidsbeginsel, over tot schorsing of intrekking van het afgegeven certificaat of legt zij beperkingen op, tenzij de aanbieder van het systeem, met het oog op de naleving van deze voorschriften, binnen een door de aangemelde instantie vastgestelde passende termijn adequate corrigerende actie onderneemt. De aangemelde instantie geeft de redenen voor haar besluit op.

3.   Indien een aangemelde instantie vaststelt dat een AI-systeem niet meer aan de in hoofdstuk 2 van deze titel beschreven voorschriften voldoet, gaat zij over tot schorsing of intrekking van het afgegeven certificaat of legt zij beperkingen op, tenzij de aanbieder van het systeem, met het oog op de naleving van deze voorschriften, binnen een door de aangemelde instantie vastgestelde passende termijn adequate corrigerende actie onderneemt. De aangemelde instantie geeft de redenen voor haar besluit op.

Amendement 462

Voorstel voor een verordening

Artikel 45 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

De lidstaten voorzien in een beroepsprocedure tegen besluiten van aangemelde instanties voor partijen die een rechtmatig belang bij dat besluit hebben.

De lidstaten voorzien in een beroepsprocedure tegen besluiten van aangemelde instanties , ook over afgegeven conformiteitscertificaten, voor partijen die een rechtmatig belang bij dat besluit hebben.

Amendement 463

Voorstel voor een verordening

Artikel 46 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Elke aangemelde instantie verstrekt de andere aangemelde instanties die soortgelijke conformiteitsbeoordelingsactiviteiten voor dezelfde artificiële-intelligentietechnologieën verrichten, relevante informatie over negatieve conformiteitsbeoordelingsresultaten, en op verzoek ook over positieve conformiteitsbeoordelingsresultaten.

3.   Elke aangemelde instantie verstrekt de andere aangemelde instanties die soortgelijke conformiteitsbeoordelingsactiviteiten verrichten, relevante informatie over negatieve conformiteitsbeoordelingsresultaten, en op verzoek ook over positieve conformiteitsbeoordelingsresultaten.

Amendement 464

Voorstel voor een verordening

Artikel 47 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   In afwijking van artikel 43 kan een markttoezichtautoriteit het in de handel brengen of in bedrijf stellen van specifieke AI-systemen met een hoog risico binnen het grondgebied van de betrokken lidstaat toelaten , om uitzonderlijke redenen van openbare veiligheid of de bescherming van het leven en de gezondheid van personen, milieubescherming en de bescherming van essentiële industriële en infrastructurele activa . De toelating geldt gedurende een beperkte periode, terwijl de nodige conformiteitsbeoordelingsprocedures worden uitgevoerd, en wordt beëindigd zodra die procedures zijn afgerond. Die procedures worden zo snel mogelijk afgerond.

1.   In afwijking van artikel 43 kan een nationale toezichthoudende autoriteit een rechterlijke instantie verzoeken om het in de handel brengen of in bedrijf stellen van specifieke AI-systemen met een hoog risico binnen het grondgebied van de betrokken lidstaat goed te keuren , om uitzonderlijke redenen van de bescherming van het leven en de gezondheid van personen, milieubescherming en de bescherming van kritieke infrastructuur . De toelating geldt gedurende een beperkte periode, terwijl de nodige conformiteitsbeoordelingsprocedures worden uitgevoerd, en wordt beëindigd zodra die procedures zijn afgerond. Die procedures worden zo snel mogelijk afgerond.

Amendement 465

Voorstel voor een verordening

Artikel 47 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De in lid 1 bedoelde toelating wordt alleen verstrekt als de markttoezichtautoriteit concludeert dat het AI-systeem met een hoog risico aan de voorschriften van hoofdstuk 2 van deze titel voldoet. De markttoezichtautoriteit stelt de Commissie en de ander lidstaten in kennis van overeenkomstig lid 1 verstrekte toelatingen.

2.   De in lid 1 bedoelde toelating wordt alleen verstrekt als de nationale toezichthoudende autoriteit en de rechterlijke instantie concluderen dat het AI-systeem met een hoog risico aan de voorschriften van hoofdstuk 2 van deze titel voldoet. De nationale toezichthoudende autoriteit stelt de Commissie , het AI-bureau en de andere lidstaten in kennis van alle gedane verzoeken en alle daarop volgende overeenkomstig lid 1 verstrekte toelatingen.

Amendement 466

Voorstel voor een verordening

Artikel 47 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Indien binnen 15 kalenderdagen na de ontvangst van de in lid 2 bedoelde informatie geen bezwaar is geopperd door een lidstaat of de Commissie tegen een door een markttoezichtautoriteit van een lidstaat overeenkomstig lid 1 verstrekte toelating, wordt die toelating geacht gerechtvaardigd te zijn.

3.   Indien binnen 15 kalenderdagen na de ontvangst van de in lid 2 bedoelde informatie geen bezwaar is geopperd door een lidstaat of de Commissie tegen het verzoek van de nationale toezichthoudende autoriteit van de lidstaat in verband met een door een nationale toezichthoudende autoriteit van een lidstaat overeenkomstig lid 1 verstrekte toelating, wordt die toelating geacht gerechtvaardigd te zijn.

Amendement 467

Voorstel voor een verordening

Artikel 47 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Indien binnen 15 kalenderdagen na de ontvangst van in lid 2 bedoelde kennisgeving door een lidstaat bezwaren worden geopperd tegen een door een markttoezichtautoriteit van een andere lidstaat verstrekte toelating , of wanneer de Commissie de toelating in strijd met het Unierecht acht of de conclusie van de lidstaten ten aanzien van de conformiteit van het systeem als bedoeld in lid 2 ongegrond acht, treedt de Commissie onverwijld in overleg met de relevante lidstaat; de betrokken exploitanten worden geraadpleegd en hebben de mogelijkheid hun standpunten uiteen te zetten. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante exploitant ( en ).

4.   Indien binnen 15 kalenderdagen na de ontvangst van in lid 2 bedoelde kennisgeving door een lidstaat bezwaren worden geopperd tegen een door een nationale toezichthoudende autoriteit van een andere lidstaat gedaan verzoek , of wanneer de Commissie de toelating in strijd met het Unierecht acht of de conclusie van de lidstaten ten aanzien van de conformiteit van het systeem als bedoeld in lid 2 ongegrond acht, treedt de Commissie onverwijld in overleg met de relevante lidstaat en het AI-bureau ; de betrokken operator(s) worden geraadpleegd en hebben de mogelijkheid hun standpunten uiteen te zetten. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante operator ( s ).

Amendement 468

Voorstel voor een verordening

Artikel 47 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Als de toelating ongerechtvaardigd wordt geacht, wordt deze ingetrokken door de markttoezichtautoriteit van de betrokken lidstaat.

5.   Als de toelating ongerechtvaardigd wordt geacht, wordt deze ingetrokken door de nationale toezichthoudende autoriteit van de betrokken lidstaat.

Amendement 469

Voorstel voor een verordening

Artikel 48 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De aanbieder stelt voor elk AI-systeem een EU-conformiteitsverklaring op en houdt deze verklaring tot tien jaar na het in de handel brengen of het in bedrijf stellen van het AI-systeem ter beschikking van de nationale bevoegde autoriteiten. In de EU-conformiteitsverklaring wordt vermeld voor welk AI-systeem ze is opgesteld. Op verzoek wordt een kopie van de EU-conformiteitsverklaring aan de relevante nationale bevoegde autoriteiten verstrekt.

1.   De aanbieder stelt voor elk AI-systeem met een hoog risico een machineleesbare EU-conformiteitsverklaring in fysieke of elektronische vorm op en houdt deze verklaring tot tien jaar na het in de handel brengen of het in bedrijf stellen van het AI-systeem met een hoog risico ter beschikking van de nationale toezichthoudende autoriteit en de nationale bevoegde autoriteiten. Op verzoek wordt een kopie van de EU-conformiteitsverklaring aan de nationale toezichthoudende autoriteit en de relevante nationale bevoegde autoriteiten verstrekt.

Amendement 470

Voorstel voor een verordening

Artikel 48 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   In de EU-conformiteitsverklaring wordt vermeld dat het betreffende AI-systeem met een hoog risico aan de hoofdstuk 2 van deze titel beschreven voorschriften voldoet. De EU-conformiteitsverklaring bevat de informatie die is vervat in bijlage V en wordt vertaald in een of meer officiële talen van de Unie, zoals vereist door de lidstaat (lidstaten) waarin het AI-systeem met een hoog risico wordt aangeboden.

2.   In de EU-conformiteitsverklaring wordt vermeld dat het betreffende AI-systeem met een hoog risico aan de hoofdstuk 2 van deze titel beschreven voorschriften voldoet. De EU-conformiteitsverklaring bevat de informatie die is vervat in bijlage V en wordt vertaald in een of meer officiële talen van de Unie, zoals vereist door de lidstaat (lidstaten) waarin het AI-systeem met een hoog risico in de handel wordt gebracht of wordt aangeboden.

Amendement 471

Voorstel voor een verordening

Artikel 48 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Wanneer AI-systemen met een hoog risico onder andere harmonisatiewetgeving van de Unie vallen, waarvoor ook een EU-conformiteitsverklaring is vereist, wordt één EU-conformiteitsverklaring ten aanzien van alle op het AI-systeem met een hoog risico toepasselijke Uniewetgeving opgesteld. De verklaring bevat alle informatie die vereist is voor de identificatie van de harmonisatiewetgeving van de Unie waarop de verklaring betrekking heeft.

(Niet van toepassing op de Nederlandse versie)

Amendement 472

Voorstel voor een verordening

Artikel 48 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de in bijlage V beschreven inhoud van de EU-conformiteitsverklaring, teneinde elementen in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.

5.   De Commissie is bevoegd om , na raadpleging van het AI-bureau, gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de in bijlage V beschreven inhoud van de EU-conformiteitsverklaring, teneinde elementen in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.

Amendement 473

Voorstel voor een verordening

Artikel 49 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De CE-markering wordt zichtbaar, leesbaar en onuitwisbaar op AI-systemen met een hoog risico aangebracht. Wanneer dit gezien de aard van het AI-systeem met een hoog risico niet mogelijk of niet gerechtvaardigd is, wordt de markering naargelang het geval op de verpakking of in de begeleidende documenten aangebracht.

1.   De fysieke CE-markering wordt zichtbaar, leesbaar en onuitwisbaar op AI-systemen met een hoog risico aangebracht voordat het AI-systeem met een hoog risico in de handel wordt gebracht . Wanneer dit gezien de aard van het AI-systeem met een hoog risico niet mogelijk of niet gerechtvaardigd is, wordt de markering naargelang het geval op de verpakking of in de begeleidende documenten aangebracht. Vervolgens kan een pictogram dat of een andere markering worden aangebracht die een bijzonder risico of gebruik aanduidt;

Amendement 474

Voorstel voor een verordening

Artikel 49 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Voor uitsluitend digitale AI-systemen met een hoog risico wordt alleen een digitale CE-markering gebruikt als deze gemakkelijk toegankelijk is via de interface waarmee toegang wordt verkregen tot het AI-systeem of via een gemakkelijk toegankelijke machineleesbare code of andere elektronische middelen.

Amendement 475

Voorstel voor een verordening

Artikel 49 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Indien van toepassing, wordt de CE-markering gevolgd door het identificatienummer van de aangemelde instantie die verantwoordelijk is voor de in artikel 43 beschreven conformiteitsbeoordelingsprocedures. Het identificatienummer wordt ook vermeld in reclamemateriaal waarin staat dat een AI-systeem met een hoog risico aan de vereisten voor de CE-markering voldoet.

3.   Indien van toepassing, wordt de CE-markering gevolgd door het identificatienummer van de aangemelde instantie die verantwoordelijk is voor de in artikel 43 beschreven conformiteitsbeoordelingsprocedures. Het identificatienummer van de aangemelde instantie wordt aangebracht door die instantie zelf dan wel overeenkomstig haar instructies door de gemachtigde van de aanbieder. Het identificatienummer wordt ook vermeld in reclamemateriaal waarin staat dat een AI-systeem met een hoog risico aan de vereisten voor de CE-markering voldoet;

Amendement 476

Voorstel voor een verordening

Artikel 49 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Indien AI-systemen met een hoog risico onder andere Uniewetgeving vallen die ook betrekking heeft op het aanbrengen van de CE-markering, vermeldt de CE-markering dat de AI-systemen met een hoog risico tevens aan de voorschriften van die andere wetgeving voldoen.

Amendement 477

Voorstel voor een verordening

Artikel 50 — alinea 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

De aanbieder houdt gedurende een periode van tien jaar nadat het AI-systeem in de handel is gebracht of in bedrijf is gesteld de volgende elementen ter beschikking van de nationale bevoegde autoriteiten:

De aanbieder houdt gedurende een periode van tien jaar nadat het AI-systeem in de handel is gebracht of in bedrijf is gesteld de volgende elementen ter beschikking van de nationale toezichthoudende autoriteit en de nationale bevoegde autoriteiten:

Amendement 478

Voorstel voor een verordening

Artikel 51 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

Alvorens een AI-systeem met een hoog risico in de handel te brengen of in bedrijf te stellen als bedoeld in artikel 6, lid 2, registreert de aanbieder of in voorkomend geval de gemachtigde dat systeem in de in artikel 60 bedoelde EU-databank.

Alvorens een AI-systeem met een hoog risico in de handel te brengen of in bedrijf te stellen als bedoeld in artikel 6, lid 2, registreert de aanbieder of in voorkomend geval de gemachtigde dat systeem overeenkomstig artikel 60, lid 2, in de in artikel 60 bedoelde EU-databank.

Amendement 479

Voorstel voor een verordening

Artikel 51 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Alvorens een AI-systeem met een hoog risico in bedrijf te stellen of te gebruiken overeenkomstig artikel 6, lid 2, laten de volgende categorieën exploitanten het gebruik van dat AI-systeem in de in artikel 60 bedoelde EU-databank registreren.

 

a)

exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, of exploitanten die namens hen optreden;

 

b)

exploitanten die ondernemingen zijn die krachtens Verordening (EU) 2022/1925 als poortwachter zijn aangewezen.

Amendement 480

Voorstel voor een verordening

Artikel 51 — alinea 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Exploitanten die niet onder lid 1 bis vallen, hebben het recht het gebruik van een AI-systeem met een hoog risico als bedoeld in artikel 6, lid 2, vrijwillig te registreren in de in artikel 60 bedoelde EU-databank.

Amendement 481

Voorstel voor een verordening

Artikel 51 — alinea 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Onmiddellijk na elke substantiële wijziging moet de registratie worden bijgewerkt.

Amendement 482

Voorstel voor een verordening

Titel IV

Door de Commissie voorgestelde tekst

Amendement

TRANSPARANTIEVERPLICHTINGEN VOOR BEPAALDE AI-SYSTEMEN

TRANSPARANTIEVERPLICHTINGEN

Amendement 483

Voorstel voor een verordening

Artikel 52 — titel

Door de Commissie voorgestelde tekst

Amendement

Transparantieverplichtingen voor bepaalde AI-systemen

Transparantieverplichtingen

Amendement 484

Voorstel voor een verordening

Artikel 52 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij interageren met een AI-systeem, tenzij de omstandigheden en de gebruikscontext dit duidelijk maken. Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten , tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden .

1.   Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat het AI-systeem, de aanbieder zelf of de gebruiker de aan een AI-systeem blootgestelde natuurlijke personen tijdig, duidelijk en op begrijpelijke wijze informeert dat zij interageren met een AI-systeem , tenzij de omstandigheden en de gebruikscontext dit duidelijk maken .

 

Indien passend en relevant staat in deze informatie ook welke functies op AI gebaseerd zijn, of er sprake is van menselijk toezicht en wie verantwoordelijk is voor het besluitvormingsproces, alsook wat de bestaande rechten en processen zijn die natuurlijke personen of hun vertegenwoordigers overeenkomstig het Unierecht en het nationale recht in staat stellen bij hen bezwaar aan te tekenen tegen de toepassing van dergelijke systemen en beroep in te stellen tegen beslissingen die door AI-systemen zijn genomen of tegen door AI-systemen veroorzaakte schade, met inbegrip van hun recht om uitleg te krijgen. Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten, tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden.

Amendement 485

Voorstel voor een verordening

Artikel 52 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Gebruikers van een emotieherkenningssysteem of een biometrisch indelingssysteem informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem. Deze verplichting is niet van toepassing op voor biometrische indeling gebruikte AI-systemen, die bij wet zijn toegestaan om strafbare feiten op te sporen, te voorkomen en te onderzoeken.

2.   Gebruikers van een emotieherkenningssysteem of een biometrisch indelingssysteem dat niet verboden is op grond van artikel 5 informeren de daaraan blootgestelde natuurlijke personen tijdig, duidelijk en op begrijpelijke wijze over de werking van het systeem en verkrijgen hun toestemming voorafgaand aan de verwerking van hun biometrische en andere persoonsgegevens overeenkomstig Verordening (EU) 2016/679, Verordening (EU) 2016/1725 en Richtlijn (EU) 2016/280, naargelang het geval . Deze verplichting is niet van toepassing op voor biometrische indeling gebruikte AI-systemen, die bij wet zijn toegestaan om strafbare feiten op te sporen, te voorkomen en te onderzoeken.

Amendement 486

Voorstel voor een verordening

Artikel 52 — lid 3 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

3.   Gebruikers van een AI-systeem dat beeld- , audio- of videomateriaal genereert of bewerkt dat aanzienlijk op bestaande personen , objecten, plaatsen of andere entiteiten of gebeurtenissen lijkt en voor een persoon onterecht als authentiek of waarheidsgetrouw (“deep fake”) zou overkomen , maken bekend dat het materiaal kunstmatig is gegenereerd of bewerkt.

3.   Gebruikers van een AI-systeem dat tekst- , audio- of beeldmateriaal genereert of bewerkt dat onterecht als authentiek of waarheidsgetrouw zou overkomen en waarop afbeeldingen van personen voorkomen die zonder hun toestemming dingen lijken te zeggen of te doen die ze niet hebben gezegd of gedaan (“deepfake”) , maken tijdig en op passende , duidelijke en zichtbare wijze bekend dat het materiaal kunstmatig is gegenereerd of bewerkt , alsook, voor zover mogelijk, wat de naam van de natuurlijke of rechtspersoon is die het heeft gegeneerd of gemanipuleerd. Bekendmaking betekent het materiaal zodanig aanmerken dat voor de ontvanger van dat materiaal duidelijk zichtbaar is dat het niet authentiek is. Bij het aanmerken van het materiaal houden de gebruikers rekening met de algemeen erkende stand van de techniek en relevante geharmoniseerde normen en specificaties.

Amendement 487

Voorstel voor een verordening

Artikel 52 — lid 3 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

De eerste alinea is echter niet van toepassing wanneer het gebruik bij wet is toegestaan om strafbare feiten op te sporen, te voorkomen, te onderzoeken en te vervolgen of nodig is voor het doen gelden van het recht op vrijheid van meningsuiting en het recht op vrijheid van kunsten en wetenschappen die in het EU-Handvest van de grondrechten worden gewaarborgd, en behoudens passende waarborgen voor de rechten en vrijheden van derden.

3 bis.     Het derde lid is niet van toepassing wanneer het gebruik van een AI-systeem dat tekst-, audio- of beeldmateriaal genereert of bewerkt bij wet is toegestaan of indien dit nodig is voor het doen gelden van het recht op vrijheid van meningsuiting en het recht op vrijheid van kunsten en wetenschappen die in het EU-Handvest van de grondrechten worden gewaarborgd, en behoudens passende waarborgen voor de rechten en vrijheden van derden. Wanneer de inhoud deel uitmaakt van duidelijk creatieve, satirische, artistieke of fictieve cinematografische beelden, beelden van videospellen of een soortgelijk werk of programma, zijn de in lid 3 bedoelde transparantieverplichtingen beperkt tot het openbaar maken van het bestaan van dergelijke gegenereerde of gemanipuleerde inhoud op een passende, duidelijke en zichtbare manier die de weergave van het werk niet belemmert, en in voorkomend geval het openbaar maken van de toepasselijke auteursrechten Het belet rechtshandhavingsinstanties evenmin om AI-systemen te gebruiken die bedoeld zijn om deepfakes op te sporen en strafbare feiten in verband met het gebruik ervan te voorkomen, te onderzoeken en te vervolgen.

Amendement 488

Voorstel voor een verordening

Artikel 52 — lid 3 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 ter.     De verstrekking van de in de leden 1 tot en met 3 bedoelde informatie aan natuurlijke personen heeft uiterlijk plaats op het moment van de eerste interactie of blootstelling. De informatie moet, voor zover relevant en passend, toegankelijk zijn voor kwetsbare personen, zoals personen met een handicap of kinderen, en aangevuld zijn met interventie- of waarschuwingsprocedures voor de blootgestelde natuurlijke persoon, rekening houdend met de algemeen erkende stand van de techniek en relevante geharmoniseerde normen en gemeenschappelijke specificaties.

Amendement 489

Voorstel voor een verordening

Artikel 53 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.    Door bevoegde autoriteiten van een of meer lidstaten of de Europese Toezichthouder voor gegevensbescherming ontwikkelde AI-testomgevingen voor regelgeving voorzien in een gecontroleerde omgeving ter vergemakkelijking van het volgens een specifiek plan ontwikkelen , testen en valideren van innovatieve AI-systemen voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld. Dit vindt plaats onder direct toezicht en met directe begeleiding van de bevoegde autoriteiten teneinde naleving van de eisen van deze verordening te waarborgen en in voorkomend geval andere wetgeving van de Unie en de lidstaten onder toezicht binnen de testomgeving.

1.    De lidstaten ontwikkelen op nationaal niveau ten minste één AI-testomgeving voor regelgeving, die uiterlijk op de dag van inwerkingtreding van deze verordening operationeel is. Deze testomgeving kan ook worden ontwikkeld samen met een of meer andere lidstaten;

Amendement 490

Voorstel voor een verordening

Artikel 53 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Er kunnen ook aanvullende AI-testomgevingen voor regelgeving worden ontwikkeld op regionaal of lokaal niveau of samen met andere lidstaten;

Amendement 491

Voorstel voor een verordening

Artikel 53 — lid 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 ter.     De Commissie en de Europese Toezichthouder voor gegevensbescherming kunnen op eigen initiatief, gezamenlijk of in samenwerking met een of meer lidstaten ook AI-testomgevingen voor regelgeving op het niveau van de Unie ontwikkelen;

Amendement 492

Voorstel voor een verordening

Artikel 53 — lid 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 quater.     De autoriteiten die een testomgeving ontwikkelen, wijzen voldoende middelen toe om effectief en tijdig aan dit artikel te voldoen;

Amendement 493

Voorstel voor een verordening

Artikel 53 — lid 1 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 quinquies.     AI-testomgevingen voor regelgeving voorzien overeenkomstig de criteria in artikel 53 bis in een gecontroleerde omgeving ter bevordering van innovatie en ter vergemakkelijking van het ontwikkelen, testen en valideren van innovatieve AI-systemen, volgens een specifiek, tussen de toekomstige aanbieders en de autoriteit die de testomgeving heeft ontwikkeld overeengekomen plan, voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld.

Amendement 494

Voorstel voor een verordening

Artikel 53 — lid 1 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 sexies.     Het ontwikkelen van AI-testomgevingen voor regelgeving heeft tot doel een bijdrage te leveren aan de volgende doelstellingen:

 

a)

het verstrekken van richtsnoeren door de bevoegde autoriteiten aan potentiële aanbieders van AI-systemen om te komen tot naleving van de met deze verordening vastgestelde regelgeving of, in voorkomend geval, andere toepasselijke regelgeving van de Unie en de lidstaten;

 

b)

mogelijk maken en faciliteren dat toekomstige aanbieders innovatieve oplossingen in verband met AI-systemen testen en ontwikkelen;

 

c)

in een gecontroleerde omgeving leren over de regelgeving.

Amendement 495

Voorstel voor een verordening

Artikel 53 — lid 1 septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 septies.     De autoriteiten die de testomgeving hebben ontwikkeld, verstrekken richtsnoeren en houden binnen de testomgeving toezicht met het oog op het identificeren van risico’s, met name voor de grondrechten, de democratie en de rechtsstaat, gezondheid en veiligheid en het milieu, zij testen en demonstreren risicobeperkende maatregelen voor geïdentificeerde risico’s en de doeltreffendheid hiervan, en zij waarborgen de naleving van de voorschriften van deze verordening en, in voorkomend geval, andere wetgeving van de Unie en de lidstaten;

Amendement 496

Voorstel voor een verordening

Artikel 53 — lid 1 octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 octies.     De autoriteiten die de testomgeving hebben ontwikkeld, verstrekken de bij de testomgeving betrokken toekomstige aanbieders die AI-systemen met een hoog risico ontwikkelen, richtsnoeren en houden toezicht op hen met betrekking tot de wijze waarop aan de vereisten van deze verordening kan worden voldaan, zodat de AI-systemen de testomgeving kunnen verlaten met de veronderstelling dat zij in overeenstemming zijn met de specifieke voorschriften van deze verordening die binnen de testomgeving zijn beoordeeld. Voor zover het AI-systeem bij het verlaten van de testomgeving voldoet aan de voorschriften, wordt het geacht in overeenstemming te zijn met deze verordening. In dit verband wordt met de exitverslagen die worden opgesteld door de autoriteit die de testomgeving heeft ontwikkeld, rekening gehouden door de markttoezichtautoriteiten of aangemelde instanties, naargelang het geval, in het kader van conformiteitsbeoordelingsprocedures of markttoezichtcontroles;

Amendement 497

Voorstel voor een verordening

Artikel 53 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De lidstaten zorgen ervoor dat voor zover de innovatieve AI-systemen betrekking hebben op de verwerking van persoonsgegevens of anderszins onder het toezicht van andere nationale autoriteiten of bevoegde autoriteiten vallen die toegang tot data verstrekken of ondersteunen, de nationale gegevensbeschermingsautoriteiten of die andere nationale autoriteiten bij de werking van de AI-testomgeving voor regelgeving zijn betrokken .

2.   De autoriteiten die de testomgeving hebben ontwikkeld, zorgen ervoor dat voor zover de innovatieve AI-systemen betrekking hebben op de verwerking van persoonsgegevens of anderszins onder het toezicht van andere nationale autoriteiten of bevoegde autoriteiten vallen die toegang tot persoonsgegevens verstrekken of ondersteunen, de nationale gegevensbeschermingsautoriteiten , dan wel, in de in lid 1 ter bedoelde gevallen, de Europese Toezichthouder voor gegevensbescherming, of die andere nationale autoriteiten zijn betrokken bij de werking van de AI-testomgeving voor regelgeving en bij het toezicht op de aspecten die onder hun respectieve taken en bevoegdheden vallen .

Amendement 498

Voorstel voor een verordening

Artikel 53 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De AI-testomgevingen voor regelgeving laten de toezichthoudende en corrigerende bevoegdheden van de bevoegde autoriteiten onverlet. Significante risico’s voor de gezondheid en veiligheid en de grondrechten die tijdens het ontwikkelen en testen van dergelijke systemen worden vastgesteld, worden onmiddellijk beperkt en leiden bij gebreke daarvan tot de opschorting van het ontwikkelings- en testproces totdat beperkende maatregelen worden getroffen.

3.   De AI-testomgevingen voor regelgeving laten de toezichthoudende en corrigerende bevoegdheden van de bevoegde autoriteiten onverlet , ook op regionaal of lokaal niveau . Significante risico’s voor de grondrechten, de democratie en de rechtsstaat, de gezondheid en veiligheid of het milieu die tijdens het ontwikkelen en testen van dergelijke AI-systemen worden vastgesteld, worden onmiddellijk op adequate wijze beperkt . De bevoegde autoriteiten hebben de bevoegdheid om het testproces of de deelname aan de testomgeving tijdelijk of permanent op te schorten indien geen doeltreffende beperkende maatregelen mogelijk zijn, en zij stellen het AI-bureau van een dergelijk besluit in kennis;

Amendement 499

Voorstel voor een verordening

Artikel 53 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.    Deelnemers aan de AI-testomgeving voor regelgeving blijven aansprakelijk overeenkomstig toepasselijke aansprakelijkheidswetgeving van de Unie en de lidstaten voor aan derden toegebrachte schade als gevolg van de experimenten in de testomgeving.

4.    Bij de AI-testomgeving voor regelgeving betrokken toekomstige aanbieders blijven aansprakelijk overeenkomstig toepasselijke aansprakelijkheidswetgeving van de Unie en de lidstaten voor aan derden toegebrachte schade als gevolg van de experimenten in de testomgeving. Voor zover de toekomstige aanbieders(s) echter het in lid 1 quater bedoelde specifieke plan alsmede de voorwaarden voor hun deelname eerbiedigen en zich te goeder trouw houden aan de richtsnoeren van de autoriteiten die de testomgeving hebben ontwikkeld, leggen de autoriteiten geen administratieve boetes op voor de schending van deze verordening;

Amendement 500

Voorstel voor een verordening

Artikel 53 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De bevoegde autoriteiten van de lidstaten die AI-testomgevingen voor regelgeving hebben ontwikkeld , coördineren hun activiteiten en werken samen binnen het kader van het Europees Comité voor artificiële intelligentie. Zij dienen jaarverslagen bij het Comité en de Commissie in over de resultaten van de uitvoering van die regelingen, met inbegrip van goede praktijken, geleerde lessen en aanbevelingen over de opzet ervan en, waar relevant, over de toepassing van deze verordening en andere Uniewetgeving onder toezicht binnen de testomgeving.

5.   De autoriteiten die de testomgeving hebben ontwikkeld , coördineren hun activiteiten en werken samen binnen het kader van het AI-bureau .

Amendement 501

Voorstel voor een verordening

Artikel 53 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     De autoriteiten die de testomgeving hebben ontwikkeld, stellen het AI-bureau in kennis van de oprichting van een testomgeving en kunnen verzoeken om ondersteuning en begeleiding. Een lijst van geplande en bestaande testomgevingen wordt door het AI-bureau openbaar gemaakt en up-to-date gehouden om meer interactie in de testomgevingen voor regelgeving en transnationale samenwerking aan te moedigen;

Amendement 502

Voorstel voor een verordening

Artikel 53 — lid 5 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 ter.     De autoriteiten die de testomgeving hebben ontwikkeld, dienen bij het AI-bureau en, tenzij de Commissie de testomgeving heeft ontwikkeld in haar eentje, bij de Commissie jaarverslagen in, te beginnen één jaar na de oprichting van de testomgeving en vervolgens elk jaar tot de beëindiging ervan, alsmede een eindverslag. In deze verslagen wordt informatie verstrekt over de vooruitgang en de resultaten met betrekking tot de uitvoering van die testomgevingen, met inbegrip van goede praktijken, incidenten, geleerde lessen en aanbevelingen over de opzet ervan en, waar relevant, over de toepassing en mogelijke herziening van deze verordening en andere wetgeving van de Unie onder toezicht binnen de testomgeving. Deze jaarverslagen of samenvattingen daarvan worden online ter beschikking gesteld van het publiek;

Amendement 503

Voorstel voor een verordening

Artikel 53 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   De modaliteiten en de voorwaarden van de werking van de AI-testomgevingen voor regelgeving, waaronder de toelatingscriteria en de procedures voor de toepassing en selectie van, deelname aan en terugtrekking uit de testomgeving, en de rechten en plichten van de deelnemers worden in uitvoeringshandelingen uiteengezet. Die uitvoeringshandelingen worden volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure vastgesteld.

6.   De Commissie ontwikkelt één specifieke interface met alle relevante informatie over testomgevingen, samen met één contactpunt op het niveau van de Unie om te communiceren met de testomgevingen voor regelgeving en belanghebbenden in staat te stellen vragen in te dienen bij de bevoegde autoriteiten, en om niet-bindende richtsnoeren te vragen over de conformiteit van innovatieve producten , diensten en bedrijfsmodellen waarin AI-technologieën zijn geïntegreerd;

 

de Commissie zorgt voor een proactieve coördinatie met de nationale, de regionale en in voorkomend geval ook de lokale autoriteiten;

Amendement 504

Voorstel voor een verordening

Artikel 53 — lid 6 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

6 bis.     Voor de toepassing van de leden 1 en 1 bis speelt de Commissie een complementaire rol, waarbij zij enerzijds de lidstaten die aantoonbare ervaring hebben met het gebruik van testomgevingen in staat stelt voort te bouwen op hun expertise, en anderzijds de lidstaten die begeleiding wensen bij het ontwikkelen en beheren van testomgevingen voor regelgeving bijstaat en voorziet van technisch advies en hulpmiddelen;

Amendement 505

Voorstel voor een verordening

Artikel 53 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 53 bis

 

Modaliteiten en werking van AI-testomgevingen voor regelgeving

 

1.     Om versnippering in de Unie te voorkomen, stelt de Commissie, in overleg met het AI-bureau, een gedelegeerde handeling vast waarin de modaliteiten worden gespecificeerd voor de instelling, de ontwikkeling, de uitvoering en de werking van AI-testomgevingen voor regelgeving en voor het toezicht erop, met inbegrip van de toelatingscriteria en de procedure voor de aanvraag, de selectie, de deelname en het vertrek uit de testomgeving, alsmede de rechten en plichten van de deelnemers op basis van de bepalingen van dit artikel;

 

2.     De Commissie is bevoegd om gedelegeerde handelingen vast te stellen volgens de procedure in artikel 73, uiterlijk twaalf maanden na de inwerkingtreding van deze verordening, en zij zorgt ervoor dat:

 

a)

testomgevingen voor regelgeving openstaan voor elke toekomstige aanbieder van een AI-systeem die een aanvraag indient en die voldoet aan de toelatingscriteria en de selectiecriteria. De criteria voor toegang tot de testomgeving voor regelgeving zijn transparant en eerlijk en de autoriteiten die de testomgeving hebben ontwikkeld, stellen indieners van een aanvraag binnen drie maanden na de indiening van hun aanvraag in kennis van hun besluit;

 

b)

testomgevingen voor regelgeving brede en gelijke toegang bieden en gelijke tred houden met de vraag om toestemming voor deelname;

 

c)

de toegang tot de AI-testomgevingen voor regelgeving voor kmo’s en start-ups kosteloos is, onverminderd uitzonderlijke kosten die de autoriteiten die de testomgeving hebben ontwikkeld, op billijke en evenredige wijze mogen verhalen;

 

d)

testomgevingen voor regelgeving de betrokkenheid vergemakkelijken van andere relevante actoren binnen het AI-ecosysteem, zoals aangemelde instanties en normalisatieorganisaties (kmo’s, start-ups, ondernemingen, innovatoren, test- en experimenteervoorzieningen, onderzoeks- en testlaboratoria en digitale-innovatiehubs, kenniscentra, individuele onderzoekers), teneinde samenwerking met de publieke en particuliere sector mogelijk te maken en te vergemakkelijken;

 

e)

zij toekomstige aanbieders de mogelijkheid bieden om in een gecontroleerde omgeving te voldoen aan de verplichtingen inzake conformiteitsbeoordeling van deze verordening of de vrijwillige toepassing van de in artikel 69 vermelde gedragscodes;

 

f)

de procedures, processen en administratieve vereisten voor de aanvraag, de selectie, de deelname en het vertrek uit de testomgeving voor regelgeving eenvoudig en gemakkelijk te begrijpen zijn en duidelijk worden gecommuniceerd, om de deelname van kmo’s en start-ups met beperkte juridische en administratieve capaciteiten te vergemakkelijken, en in de hele Unie worden gestroomlijnd, om versnippering te voorkomen, en dat de deelname aan een door een lidstaat, de Commissie of de EDPS opgerichte testomgeving voor regelgeving wederzijds en uniform wordt erkend en in de hele Unie dezelfde rechtsgevolgen heeft;

 

g)

de deelname aan de AI-testomgeving voor regelgeving beperkt wordt tot een termijn die passend is gezien de complexiteit en de omvang van het project;

 

h)

de testomgevingen de ontwikkeling bevorderen van instrumenten en infrastructuur voor het testen, benchmarken, beoordelen en verklaren van de voor testomgevingen relevante aspecten van AI-systemen, zoals nauwkeurigheid, robuustheid en cyberbeveiliging, alsook minimalisering van de risico’s voor de grondrechten, het milieu en de maatschappij in het algemeen.

 

3.     Potentiële aanbieders in de testomgevingen, met name kmo’s en start-ups, krijgen gemakkelijker toegang tot diensten die aan de uitrol voorafgaan, zoals richtsnoeren voor de uitvoering van deze verordening, tot andere diensten die waarde toevoegen, zoals hulp bij normalisatiedocumenten en certificering en raadpleging, en tot andere initiatieven op het gebied van de digitale eengemaakte markt, zoals test- en experimenteervoorzieningen, digitale hubs, kenniscentra en EU-benchmarkcapaciteiten;

Amendement 506

Voorstel voor een verordening

Artikel 54 — titel

Door de Commissie voorgestelde tekst

Amendement

Verdere verwerking van persoonsgegevens voor het ontwikkelen van bepaalde AI-systemen in het algemene belang in de AI-testomgeving voor regelgeving

Verdere verwerking van gegevens voor het ontwikkelen van bepaalde AI-systemen in het algemene belang in de AI-testomgeving voor regelgeving

Amendement 507

Voorstel voor een verordening

Artikel 54 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   In de AI-testomgeving voor regelgeving worden rechtmatig voor andere doeleinden verzamelde persoonsgegevens onder de volgende voorwaarden verwerkt ten behoeve van het ontwikkelen en testen van bepaalde innovatieve AI-systemen in de testomgeving:

1.   In de AI-testomgeving voor regelgeving kunnen rechtmatig voor andere doeleinden verzamelde persoonsgegevens uitsluitend worden verwerkt ten behoeve van het ontwikkelen en testen van bepaalde AI-systemen in de testomgeving indien aan alle volgende voorwaarden is voldaan :

Amendement 508

Voorstel voor een verordening

Artikel 54 — lid 1 — punt a — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

a)

de innovatieve AI-systemen worden ontwikkeld voor het beschermen van zwaarwegend algemeen belang op een of meer van de volgende gebieden:

a)

de AI-systemen worden ontwikkeld voor het beschermen van zwaarwegend algemeen belang op een of meer van de volgende gebieden:

 

 

ii)

de openbare veiligheid en volksgezondheid, waaronder de opsporing, diagnose, preventie, beheersing en behandeling van ziekten;

 

 

iii)

een hoog niveau van bescherming en verbetering van de kwaliteit van het milieu, bescherming van de biodiversiteit, beperking van vervuiling en van de klimaatverandering en aanpassing hieraan;

 

 

iii bis)

de veiligheid en de veerkracht van vervoersystemen, kritieke vervoersinfrastructuur en vervoersnetwerken;

Amendement 509

Voorstel voor een verordening

Artikel 54 — lid 1 — punt a — i

Door de Commissie voorgestelde tekst

Amendement

i)

de voorkoming, het onderzoek, de opsporing of de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid, onder de controle en verantwoordelijkheid van de bevoegde autoriteiten. De verwerking is gebaseerd op het recht van de lidstaten of de Unie;

Schrappen

Amendement 510

Voorstel voor een verordening

Artikel 54 — lid 1 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

er zijn doeltreffende monitoringmechanismen om vast te stellen of zich tijdens de experimenten in de testomgeving hoge risico’s voor de grondrechten van de betrokkenen kunnen voordoen evenals responsmechanismen om die risico’s onmiddellijk te beperken en indien nodig de verwerking stop te zetten;

c)

er zijn doeltreffende monitoringmechanismen om vast te stellen of zich tijdens de experimenten in de testomgeving hoge risico’s voor de rechten en vrijheden van de betrokkenen , als bedoeld in artikel 35 van Verordening (EU) 2016/679 en in artikel 35 van Verordening (EU) 2018/1725, kunnen voordoen evenals responsmechanismen om die risico’s onmiddellijk te beperken en indien nodig de verwerking stop te zetten;

Amendement 511

Voorstel voor een verordening

Artikel 54 — lid 1 — punt d

Door de Commissie voorgestelde tekst

Amendement

d)

in het kader van de testomgeving te verwerken persoonsgegevens bevinden zich in een functioneel gescheiden, geïsoleerde en beschermde omgeving voor dataverwerking onder de controle van de deelnemers , waarbij alleen bevoegde personen toegang hebben tot die data;

d)

in het kader van de testomgeving te verwerken persoonsgegevens bevinden zich in een functioneel gescheiden, geïsoleerde en beschermde omgeving voor dataverwerking onder de controle van de toekomstige aanbieder , waarbij alleen bevoegde personen toegang hebben tot die data;

Amendement 512

Voorstel voor een verordening

Artikel 54 — lid 1 — punt f

Door de Commissie voorgestelde tekst

Amendement

f)

de verwerking van persoonsgegevens in het kader van de testomgeving mag niet leiden tot maatregelen of besluiten die gevolgen hebben voor de betrokkenen;

f)

de verwerking van persoonsgegevens in het kader van de testomgeving mag niet leiden tot maatregelen of besluiten die gevolgen hebben voor de betrokkenen , noch gevolgen hebben voor de toepassing van hun rechten die zijn vastgelegd in het Unierecht inzake de bescherming van persoonsgegevens ;

Amendement 513

Voorstel voor een verordening

Artikel 54 — lid 1 — punt g

Door de Commissie voorgestelde tekst

Amendement

g)

in het kader van de testomgeving verwerkte persoonsgegevens worden gewist nadat de deelname aan de testomgeving is beëindigd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;

g)

in het kader van de testomgeving verwerkte persoonsgegevens worden beschermd met behulp van passende technische en organisatorische maatregelen en gewist nadat de deelname aan de testomgeving is beëindigd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;

Amendement 514

Voorstel voor een verordening

Artikel 54 — lid 1 — punt h

Door de Commissie voorgestelde tekst

Amendement

h)

de logbestanden van de verwerking van persoonsgegevens in het kader van de testomgeving worden tijdens de duur van de deelname aan de testomgeving en één jaar na beëindiging ervan bewaard , uitsluitend ten behoeve van en alleen zo lang als nodig is voor het nakomen van aansprakelijkheids- en documenteringsverplichtingen overeenkomstig dit artikel of andere toepasselijke wetgeving van de Unie of de lidstaten ;

h)

de logbestanden van de verwerking van persoonsgegevens in het kader van de testomgeving worden tijdens de duur van de deelname aan de testomgeving bewaard;

Amendement 515

Voorstel voor een verordening

Artikel 54 — lid 1 — punt j

Door de Commissie voorgestelde tekst

Amendement

j)

een korte samenvatting van het in de testomgeving ontwikkelde AI-project en de doelstellingen en verwachte resultaten ervan worden op de website van de bevoegde autoriteiten gepubliceerd.

j)

een korte samenvatting van het in de testomgeving ontwikkelde AI-systeem en de doelstellingen , hypothesen en verwachte resultaten ervan worden op de website van de bevoegde autoriteiten gepubliceerd;

Amendement 516

Voorstel voor een verordening

Artikel 54 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 54 bis

 

Bevordering van AI-onderzoek en -ontwikkeling ter ondersteuning van voor de maatschappij en het milieu gunstige resultaten

 

1.     De lidstaten bevorderen het onderzoek naar en de ontwikkeling van AI-oplossingen die voor de maatschappij en het milieu gunstige resultaten ondersteunen, waaronder, maar niet beperkt tot, de ontwikkeling van op AI gebaseerde oplossingen voor het vergroten van de toegankelijkheid voor personen met een handicap, het aanpakken van sociaal-economische ongelijkheden en het voldoen aan de duurzaamheids- en milieudoelstellingen, door:

 

a)

relevante projecten prioritaire toegang te verlenen tot de AI-testomgevingen voor regelgeving, voor zover zij aan de toelatingscriteria voldoen;

 

b)

overheidsmiddelen, onder meer uit relevante EU-fondsen, te reserveren voor AI-onderzoek en -ontwikkeling ter ondersteuning van voor de maatschappij en het milieu gunstige resultaten;

 

c)

specifieke bewustmakingsactiviteiten te organiseren over de toepassing van deze verordening en over de beschikbaarheid van en de aanvraagprocedures voor specifieke financiering, afgestemd op de behoeften van deze projecten;

 

d)

indien passend, toegankelijke specifieke kanalen op te zetten, onder andere in de testomgeving, voor communicatie met projecten, om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden.

 

De lidstaten ondersteunen het maatschappelijk middenveld en sociale belanghebbenden bij het leiden van of deelnemen aan dergelijke projecten;

Amendement 517

Voorstel voor een verordening

Artikel 55 — titel

Door de Commissie voorgestelde tekst

Amendement

Maatregelen voor kleine aanbieders en gebruikers

Maatregelen voor kmo’s, start-ups en gebruikers

Amendement 518

Voorstel voor een verordening

Artikel 55 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

kleine aanbieders en start-ups prioritaire toegang verlenen tot de AI-testomgevingen voor regelgeving voor zover zij aan de toelatingscriteria voldoen;

a)

kmo’s en start-ups die in de EU zijn gevestigd prioritaire toegang verlenen tot de AI-testomgevingen voor regelgeving voor zover zij aan de toelatingscriteria voldoen;

Amendement 519

Voorstel voor een verordening

Artikel 55 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

specifieke bewustmakingsactiviteiten organiseren rond de toepassing van deze verordening, afgestemd op de behoeften van kleine aanbieders en gebruikers;

b)

specifieke bewustmakingsactiviteiten en activiteiten ter ontwikkeling van betere digitale vaardigheden organiseren met betrekking tot de toepassing van deze verordening, afgestemd op de behoeften van kmo’s, start-ups en gebruikers;

Amendement 520

Voorstel voor een verordening

Artikel 55 — lid 1 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

indien passend een specifiek kanaal voor communicatie met kleine aanbieders en gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden.

c)

gebruikmaken van bestaande specifieke kanalen en indien passend nieuwe specifieke kanalen voor communicatie met kmo’s, start-ups en gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden;

Amendement 521

Voorstel voor een verordening

Artikel 55 — lid 1 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

de deelname van kmo’s en andere relevante belanghebbenden aan het proces voor de ontwikkeling van normen bevorderen.

Amendement 522

Voorstel voor een verordening

Artikel 55 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De specifieke belangen en behoeften van kleine aanbieders worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig artikel 43, waarbij die vergoedingen naar evenredigheid van hun omvang en marktgrootte worden verlaagd.

2.   De specifieke belangen en behoeften van kmo’s, start-ups en gebruikers worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig artikel 43, waarbij die vergoedingen naar evenredigheid van hun ontwikkelingsfase, omvang , marktgrootte en marktvraag worden verlaagd. De Commissie beoordeelt de certificerings- en nalevingskosten voor kmo’s en start-ups regelmatig, onder meer via transparant overleg met kmo’s, start-ups en gebruikers, en werkt met de lidstaten samen om die kosten waar mogelijk te verlagen. De Commissie doet verslag van haar bevindingen aan het Europees Parlement en de Raad als onderdeel van haar verslag over de evaluatie en toetsing van deze verordening voorzien in artikel 84, lid 2.

Amendement 523

Voorstel voor een verordening

Artikel 56 — afdeling 1 — titel

Door de Commissie voorgestelde tekst

Amendement

 

Titel

 

Afdeling 1: Algemene bepalingen betreffende het Europees Bureau voor artificiële intelligentie

Amendement 524

Voorstel voor een verordening

Artikel 56 — titel

Door de Commissie voorgestelde tekst

Amendement

Oprichting van het Europees Comité voor artificiële intelligentie

Oprichting van het Europees Bureau voor artificiële intelligentie

Amendement 525

Voorstel voor een verordening

Artikel 56 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.    Er wordt een Europees Comité voor artificiële intelligentie (het “Comité” ) opgericht.

1.    Hierbij wordt het Europees Bureau voor artificiële intelligentie (het “AI-bureau” ) opgericht. Het AI-bureau is een onafhankelijk orgaan van de Unie. Het heeft rechtspersoonlijkheid.

Amendement 526

Voorstel voor een verordening

Artikel 56 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Het Comité verstrekt advies en bijstand aan de Commissie teneinde:

2.   Het AI-bureau heeft een secretariaat en wordt voldoende gefinancierd en bemand voor de uitvoering van zijn taken uit hoofde van deze verordening.

Amendement 527

Voorstel voor een verordening

Artikel 56 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De zetel van het AI-bureau is in Brussel.

Amendement 528

Voorstel voor een verordening

Artikel 56 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 56 bis

Structuur

De administratieve en beheersstructuur van het AI-bureau omvat:

a)

een raad van bestuur, met onder andere een voorzitter;

b)

een secretariaat, dat wordt beheerd door een uitvoerend directeur;

c)

een adviesforum.

Amendement 529

Voorstel voor een verordening

Artikel 56 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 56 ter

 

Taken van het Bureau

 

Het AI-bureau vervult de volgende functies:

 

a)

ondersteunen van, adviseren van en samenwerken met de lidstaten, de nationale toezichthoudende autoriteiten, de Commissie en andere instellingen, organen en instanties van de Unie met betrekking tot de uitvoering van deze verordening;

 

b)

monitoren en waarborgen van de effectieve, consistente toepassing van deze verordening, waarbij de taken van de nationale toezichthoudende autoriteiten onverlet worden gelaten;

 

c)

bijdragen tot de coördinatie tussen de nationale toezichthoudende autoriteiten die verantwoordelijk zijn voor de toepassing van deze verordening;

 

d)

als bemiddelaar fungeren bij discussies over ernstige meningsverschillen tussen bevoegde autoriteiten over de toepassing van de verordening;

 

e)

coördineren van gezamenlijke onderzoeken overeenkomstig artikel 66 bis;

 

f)

bijdragen aan de doeltreffende samenwerking met de bevoegde autoriteiten van derde landen en met internationale organisaties;

 

g)

expertise en beste praktijken van de lidstaten verzamelen en delen en de nationale toezichthoudende autoriteiten van de lidstaten en de Commissie bijstaan bij de ontwikkeling van de organisatorische en technische deskundigheid die nodig is voor de uitvoering van deze verordening, onder meer door het faciliteren van het opzetten en onderhouden van een pool van deskundigen van de Unie;

 

h)

op eigen initiatief of op verzoek van zijn raad van bestuur of de Commissie vraagstukken in verband met de uitvoering van deze verordening onderzoeken en adviezen, aanbevelingen of schriftelijke bijdragen uitbrengen, onder meer met betrekking tot:

 

 

i)

technische specificaties of bestaande normen;

 

 

ii)

de richtsnoeren van de Commissie;

 

 

iii)

gedragscodes en de toepassing ervan, in nauwe samenwerking met de bedrijfswereld en andere belanghebbenden;

 

 

iv)

de mogelijke herziening van de verordening, de opstelling van de gedelegeerde handelingen en de mogelijke afstemming van deze verordening op de in bijlage II vermelde rechtshandelingen;

 

 

v)

trends, bijvoorbeeld met betrekking tot het Europese mondiale concurrentievermogen op het gebied van artificiële intelligentie, de invoering van artificiële intelligentie in de Unie, de ontwikkeling van digitale vaardigheden en opkomende systemische bedreigingen in verband met artificiële intelligentie;

 

 

vi)

richtsnoeren over de wijze waarop deze verordening van toepassing is op de steeds veranderende typologie van AI-waardeketens, met name wat de daaruit voortvloeiende gevolgen betreft voor de verantwoordingsplicht van alle betrokken entiteiten;

 

i)

het volgende publiceren:

 

 

i)

een jaarverslag met een evaluatie van de uitvoering van deze verordening, een evaluatie van de in artikel 62 bedoelde meldingen van ernstige incidenten en de werking van de in artikel 60 bedoelde databank, en

 

 

ii)

aanbevelingen aan de Commissie over de categorisering van verboden praktijken, AI-systemen met een hoog risico als bedoeld in bijlage III, de in artikel 69 bedoelde gedragscodes en de toepassing van de algemene beginselen in artikel 4 bis;

 

j)

de autoriteiten bijstaan bij het opzetten en ontwikkelen van testomgevingen voor regelgeving en de samenwerking tussen testomgevingen voor regelgeving vergemakkelijken;

 

k)

vergaderingen organiseren met agentschappen en bestuursorganen van de Unie waarvan de taken verband houden met artificiële intelligentie en de uitvoering van deze verordening;

 

l)

driemaandelijks overleg organiseren met het adviesforum en, in voorkomend geval, openbare raadplegingen organiseren met andere belanghebbenden, en de resultaten van die raadplegingen openbaar maken op zijn website;

 

m)

het brede publiek beter bekendmaken met en meer inzicht verschaffen in de voordelen, de risico’s, de waarborgen en de rechten en plichten in verband met het gebruik van AI-systemen;

 

n)

de ontwikkeling bevorderen van gemeenschappelijke criteria en een gedeeld begrip tussen marktdeelnemers en bevoegde autoriteiten met betrekking tot de relevante concepten waarin deze verordening voorziet;

 

o)

basismodellen monitoren en een regelmatige dialoog organiseren met ontwikkelaars van basismodellen met betrekking tot hun conformiteit, en de conformiteit van AI-systemen die van dergelijke AI-modellen gebruikmaken;

 

p)

interpretatieve richtsnoeren verstrekken over de wijze waarop de AI-verordening van toepassing is op de steeds veranderende typologie van AI-waardeketens, en wat de daaruit voortvloeiende gevolgen voor de verantwoordingsplicht van alle betrokken entiteiten zullen zijn in de verschillende scenario’s op basis van de algemeen erkende stand van de techniek, onder meer zoals weergegeven in relevante geharmoniseerde normen;

 

q)

voorzien in specifiek toezicht en specifieke monitoring, en een institutioneel karakter geven aan een regelmatige dialoog met de aanbieders van basismodellen over de conformiteit van basismodellen, en AI-systemen die van dergelijke AI-modellen gebruikmaken, met artikel 28 ter van deze verordening, en over beste praktijken van de sector op het gebied van zelfbestuur. Elk van deze bijeenkomsten staat open voor bijwoning door en bijdragen van nationale toezichthoudende autoriteiten, aangemelde instanties en markttoezichtautoriteiten;

 

r)

richtsnoeren opstellen en regelmatig bijwerken over de drempels voor het kwalificeren van de training van een basismodel als een uitgebreide training, bekende gevallen van uitgebreide training registreren en monitoren, en jaarlijks een verslag uitbrengen over de stand van zaken met betrekking tot de ontwikkeling, de proliferatie en het gebruik van basismodellen, naast beleidsopties om de risico’s en kansen die eigen zijn aan basismodellen aan te pakken;

 

s)

AI-geletterdheid bevorderen overeenkomstig artikel 4 ter.

Amendement 530

Voorstel voor een verordening

Artikel 56 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 56 quater

 

Verantwoordingsplicht, onafhankelijkheid en transparantie

 

1.     Het AI-bureau:

 

a)

legt verantwoording af aan het Europees Parlement en de Raad, overeenkomstig deze verordening;

 

b)

handelt onafhankelijk bij de uitvoering van zijn taken en de uitoefening van zijn bevoegdheden; alsmede

 

c)

zorgt voor een hoge mate van transparantie met betrekking tot zijn activiteiten en ontwikkelt in dit verband goede administratieve praktijken.

 

Verordening (EG) nr. 1049/2001 is van toepassing op de documenten die bij het AI-bureau berusten.

Amendement 531

Voorstel voor een verordening

Artikel - 57 bis (nieuw) — hoofdstuk 2 — titel

Door de Commissie voorgestelde tekst

Amendement

 

Titel

 

Afdeling 2: Raad van bestuur

Amendement 532

Voorstel voor een verordening

Artikel - 57 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel - 57 bis

 

Samenstelling van de raad van bestuur

 

1.     De raad van bestuur is samengesteld uit de volgende leden:

 

a)

één vertegenwoordiger van de nationale toezichthoudende autoriteit van elke lidstaat;

 

b)

één vertegenwoordiger van de Commissie;

 

c)

één vertegenwoordiger van de Europese Toezichthouder voor gegevensbescherming (EDPS);

 

d)

één vertegenwoordiger van het Agentschap van de Europese Unie voor cyberbeveiliging (Enisa);

 

e)

één vertegenwoordiger van het Bureau voor de grondrechten (FRA).

 

Elke vertegenwoordiger van een nationale toezichthoudende autoriteit heeft één stem. De vertegenwoordigers van de Commissie, de EDPS, Enisa en het FRA hebben geen stemrecht. Elk lid heeft een plaatsvervanger. Bij de benoeming van leden en plaatsvervangende leden van de raad van bestuur wordt rekening gehouden met de noodzaak van genderevenwicht. De namen van de leden van de raad van bestuur en hun plaatsvervangers worden openbaar gemaakt.

 

2.     De leden en plaatsvervangende leden van de raad van bestuur bekleden geen posten en hebben geen commerciële belangen die een conflict opleveren met betrekking tot enig onderwerp dat verband houdt met de toepassing van deze verordening.

 

3.     De regels voor de vergaderingen en stemmingen van de raad van bestuur en de benoeming en het ontslag van de uitvoerend directeur worden vastgelegd in het in artikel - 57 ter, punt a), bedoelde reglement.

Amendement 533

Voorstel voor een verordening

Artikel - 57 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel - 57 ter

 

Functies van de raad van bestuur

 

1.     De raad van bestuur heeft de volgende taken:

 

a)

strategische besluiten nemen over de activiteiten van het AI-bureau en zijn reglement vaststellen met een tweederdemeerderheid van zijn leden;

 

b)

zijn reglement ten uitvoer leggen;

 

c)

het ene programmeringsdocument van het AI-bureau en zijn jaarlijkse openbare verslag vaststellen en zowel aan het Europees Parlement als aan de Raad, de Commissie en de Rekenkamer toezenden;

 

d)

de begroting van het AI-bureau vaststellen;

 

e)

de uitvoerend directeur benoemen en, indien van toepassing, zijn of haar ambtstermijn verlengen of inkorten of hem of haar uit de functie ontheffen;

 

f)

besluiten nemen over de oprichting van de interne structuren van het AI-bureau en, indien nodig, over de wijziging van de interne structuren die nodig zijn voor de uitvoering van de taken van het AI-bureau;

Amendement 534

Voorstel voor een verordening

Artikel - 57 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel - 57 quater

Voorzitterschap van de raad van bestuur

1.     De raad van bestuur kiest met gewone meerderheid een voorzitter en twee vicevoorzitters uit zijn stemgerechtigde leden.

2.     De ambtstermijn van de voorzitter en de vicevoorzitters bedraagt vier jaar. De ambtstermijn van de voorzitter en de vicevoorzitters kan eenmaal worden verlengd.

Amendement 535

Voorstel voor een verordening

Artikel 57 — titel

Door de Commissie voorgestelde tekst

Amendement

Structuur van het Comité

Secretariaat

Amendement 536

Voorstel voor een verordening

Artikel 57 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Het Comité is samengesteld uit de nationale toezichthoudende autoriteiten, die worden vertegenwoordigd door het hoofd of een gelijkwaardige hoge ambtenaar van die autoriteit, en de Europese Toezichthouder voor gegevensbescherming. Andere nationale autoriteiten kunnen voor de vergaderingen worden uitgenodigd, wanneer de besproken kwesties relevant zijn voor hen .

1.    De activiteiten van het secretariaat worden beheerd door een uitvoerend directeur. De uitvoerend directeur legt verantwoording af aan de raad van bestuur. Onverminderd de respectieve bevoegdheden van de raad van bestuur en de instellingen van de Unie vraagt noch aanvaardt de uitvoerend directeur instructies van een regering of een andere instantie .

Amendement 537

Voorstel voor een verordening

Artikel 57 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.    Het Comité stelt zijn reglement bij eenvoudige meerderheid van zijn leden vast, na goedkeuring door de Commissie. Het reglement bevat ook de operationele aspecten ten aanzien van de uitvoering van de taken van het Comité als vermeld in artikel 58. Het Comité kan in voorkomend geval subgroepen oprichten om specifieke kwesties te onderzoeken.

2.    De uitvoerend directeur woont hoorzittingen bij over alle aangelegenheden die verband houden met de activiteiten van het AI-bureau en brengt op verzoek van het Europees Parlement of de Raad verslag uit over de uitvoering van de taken van de uitvoerend directeur .

Amendement 538

Voorstel voor een verordening

Artikel 57 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.    Het Comité wordt voorgezeten door de Commissie. De Commissie roept de vergaderingen bijeen en stelt de agenda op overeenkomstig de taken van het Comité krachtens deze verordening en overeenkomstig zijn reglement. De Commissie biedt administratieve en analytische steun voor de activiteiten van het Comité krachtens deze verordening.

3.   De uitvoerend directeur vertegenwoordigt het AI-bureau, onder meer in internationale fora voor samenwerking met betrekking tot artificiële intelligentie .

Amendement 539

Voorstel voor een verordening

Artikel 57 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Het Comité kan externe deskundigen en waarnemers uitnodigen om zijn vergaderingen bij te wonen en kan besprekingen houden met belanghebbende derden om in passende mate informatie te verstrekken over zijn activiteiten. Hiertoe kan de Commissie uitwisseling van informatie tussen het Comité en andere instanties, bureaus , agentschappen en adviesgroepen van de Unie bevorderen.

4.   Het secretariaat verstrekt de raad van bestuur en het adviesforum de analytische, administratieve en logistieke ondersteuning die nodig is om de taken van het AI-bureau uit te voeren , onder meer door:

 

a)

de besluiten, programma’s en activiteiten uit te voeren die door de raad van bestuur zijn vastgesteld;

 

b)

elk jaar het ontwerp van het ene programmeringsdocument, de ontwerpbegroting, het jaarlijkse activiteitenverslag over het AI-bureau, de ontwerpadviezen en de ontwerpstandpunten van het AI-bureau op te stellen en aan de raad van bestuur voor te leggen;

 

c)

samen te werken met internationale fora voor samenwerking op het gebied van artificiële intelligentie.

Amendement 540

Voorstel voor een verordening

Artikel 58 — titel

Door de Commissie voorgestelde tekst

Amendement

Taken van het Comité

Adviesforum

Amendement 541

Voorstel voor een verordening

Artikel 58 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

Bij het verstrekken van advies en bijstand aan de Commissie in het kader van artikel 56, lid 2, heeft het Comité met name de volgende taken:

Het adviesforum biedt het AI-bureau input van belanghebbenden in aangelegenheden die verband houden met deze verordening, met name met betrekking tot de in artikel 56 ter, punt l), vermelde taken.

Amendement 542

Voorstel voor een verordening

Artikel 58 — alinea 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De samenstelling van het adviesforum vertegenwoordigt een evenwichtige selectie van belanghebbenden, waaronder het bedrijfsleven, start-ups, kmo’s, het maatschappelijk middenveld, de sociale partners en de academische wereld. Bij de samenstelling van het adviesforum wordt een evenwicht in acht genomen tussen commerciële en niet-commerciële belangen en, binnen de categorie commerciële belangen, tussen kmo’s en andere ondernemingen.

Amendement 543

Voorstel voor een verordening

Artikel 58 — alinea 1 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De raad van bestuur benoemt de leden van het adviesforum volgens de in het reglement van het AI-bureau vastgestelde selectieprocedure, rekening houdend met de behoefte aan transparantie, en op basis van de criteria in lid 2.

Amendement 544

Voorstel voor een verordening

Artikel 58 — alinea 1 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

De ambtstermijn van de leden van het adviesforum bedraagt twee jaar en kan maximaal met vier jaar worden verlengd.

Amendement 545

Voorstel voor een verordening

Artikel 58 — alinea 1 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Het Europees Comité voor Normalisatie (CEN), het Europees Comité voor elektrotechnische normalisatie (CENELEC) en het Europees Instituut voor telecommunicatienormen (ETSI) zijn permanente leden van het adviesforum. Het Gemeenschappelijk Centrum voor Onderzoek is permanent lid, zonder stemrecht.

Amendement 546

Voorstel voor een verordening

Artikel 58 — alinea 1 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Het adviesforum stelt zijn reglement vast. Het kiest uit zijn leden twee covoorzitters, op basis van de criteria in lid 2. De ambtstermijn van de covoorzitters bedraagt twee jaar en kan één keer worden verlengd.

Amendement 547

Voorstel voor een verordening

Artikel 58 — alinea 1 septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Het adviesforum belegt minstens vier keer per jaar een vergadering. Het adviesforum kan deskundigen en andere belanghebbenden uitnodigen om zijn vergaderingen bij te wonen. De uitvoerend directeur kan ambtshalve de vergaderingen van het adviesforum bijwonen.

Amendement 548

Voorstel voor een verordening

Artikel 58 — alinea 1 octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Bij de uitvoering van zijn in lid 1 omschreven rol kan het adviesforum adviezen, aanbevelingen en schriftelijke bijdragen opstellen.

Amendement 549

Voorstel voor een verordening

Artikel 58 — alinea 1 nonies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Het adviesforum kan in voorkomend geval permanente of tijdelijke subgroepen oprichten om specifieke vraagstukken met betrekking tot de doelstellingen van deze verordening te onderzoeken.

Amendement 550

Voorstel voor een verordening

Artikel 58 — alinea1 decies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Het adviesforum stelt een jaarverslag van zijn activiteiten op. Dat verslag wordt openbaar gemaakt.

Amendement 551

Voorstel voor een verordening

Artikel 58 bis (nieuw) — titel

Door de Commissie voorgestelde tekst

Amendement

 

Europese autoriteiten op het gebied van benchmarking

Amendement 552

Voorstel voor een verordening

Artikel 58 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 58 bis

Benchmarking

De in artikel 15, lid 1 bis, bedoelde Europese autoriteiten op het gebied van benchmarking en het AI-bureau ontwikkelen gezamenlijk, in nauwe samenwerking met internationale partners, kosteneffectieve richtsnoeren en capaciteiten voor het meten en benchmarken van aspecten van AI-systemen en AI-componenten, met name van basismodellen die relevant zijn voor de naleving en handhaving van deze verordening op basis van de algemeen erkende stand van de techniek, onder meer zoals weerspiegeld in relevante geharmoniseerde normen.

Amendement 553

Voorstel voor een verordening

Artikel 59 — titel

Door de Commissie voorgestelde tekst

Amendement

Aanwijzing van nationale bevoegde autoriteiten

Aanwijzing van nationale toezichthoudende autoriteiten

Amendement 554

Voorstel voor een verordening

Artikel 59 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.    Nationale bevoegde autoriteiten worden door elke lidstaat opgericht of aangewezen met het oog op het waarborgen van de toepassing en uitvoering van deze verordening. Nationale bevoegde autoriteiten worden zodanig georganiseerd dat de objectiviteit en onpartijdigheid van hun activiteiten en taken gewaarborgd zijn.

1.   Elke lidstaat wijst één nationale toezichthoudende autoriteit aan, en deze wordt zodanig georganiseerd dat de objectiviteit en onpartijdigheid van haar activiteiten en taken uiterlijk [drie maanden na de datum van inwerkingtreding van deze verordening] gewaarborgd zijn.

Amendement 555

Voorstel voor een verordening

Artikel 59 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.    Elke lidstaat wijst een nationale toezichthoudende autoriteit onder de nationale bevoegde autoriteiten aan . De nationale toezichthoudende autoriteit treedt op als aanmeldende instantie en markttoezichtautoriteit tenzij een lidstaat organisatorische en administratieve redenen heeft om meer dan één autoriteit aan te wijzen .

2.    De nationale toezichthoudende autoriteit zorgt voor de toepassing en uitvoering van deze verordening. Voor AI-systemen met een hoog risico, met betrekking tot producten waarop in bijlage II, deel A, vermelde rechtshandelingen van toepassing zijn, blijven de krachtens die rechtshandelingen aangewezen bevoegde autoriteiten de administratieve procedures leiden . Voor zover een geval betrekking heeft op aspecten die uitsluitend onder deze verordening vallen, zijn die bevoegde autoriteiten echter gebonden aan de aan die aspecten gerelateerde maatregelen die zijn uitgevaardigd door de krachtens deze verordening aangewezen nationale toezichthoudende autoriteit . De nationale toezichthoudende autoriteit treedt op als markttoezichtautoriteit .

Amendement 556

Voorstel voor een verordening

Artikel 59 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De lidstaten stellen de Commissie in kennis van hun aanwijzing(en) en , in voorkomend geval, van de redenen om meer dan één autoriteit aan te wijzen .

3.   De nationale toezichthoudende autoriteit en informatie over hoe hiermee contact kan worden opgenomen worden uiterlijk [drie maanden na de datum van inwerkingtreding van deze verordening] door de lidstaten openbaar gemaakt en meegedeeld aan het AI-bureau en de Commissie. De nationale toezichthoudende autoriteit fungeert als enig contactpunt voor deze verordening en moet bereikbaar zijn via elektronische communicatiemiddelen .

Amendement 557

Voorstel voor een verordening

Artikel 59 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De lidstaten zorgen ervoor dat nationale bevoegde autoriteiten over voldoende financiële en personele middelen beschikken om hun taken krachtens deze verordening uit te voeren. Nationale bevoegde autoriteiten beschikken met name over voldoende permanent beschikbaar personeel waarvan de bekwaamheid en expertise bestaat uit een grondig inzicht in artificiële-intelligentietechnologieën, gegevens en gegevensverwerking, grondrechten, gezondheids- en veiligheidsrisico’s en kennis van bestaande normen en wettelijke eisen.

4.   De lidstaten zorgen ervoor dat de nationale toezichthoudende autoriteit over voldoende technische, financiële en personele middelen en over passende infrastructuur beschikt om haar taken krachtens deze verordening effectief uit te voeren. De nationale toezichthoudende autoriteit beschikt met name over voldoende permanent beschikbaar personeel waarvan de bekwaamheid en expertise bestaat uit een grondig inzicht in artificiële-intelligentietechnologieën, gegevens en gegevensverwerking, bescherming van persoonsgegevens, cyberbeveiliging, mededingingsrecht, grondrechten, gezondheids- en veiligheidsrisico’s en kennis van bestaande normen en wettelijke eisen. De lidstaten beoordelen en, indien dit nodig wordt geacht, actualiseren de in dit lid bedoelde benodigde competenties en middelen jaarlijks.

Amendement 558

Voorstel voor een verordening

Artikel 59 — lid 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.     Elke nationale toezichthoudende autoriteit handelt bij het uitoefenen van haar bevoegdheden en het vervullen van haar verplichtingen op onafhankelijke, onpartijdige en onbevooroordeelde wijze. Bij de uitvoering van hun taken en de uitoefening van hun bevoegdheden krachtens deze verordening vragen noch aanvaarden de leden van elke nationale toezichthoudende autoriteit instructies van enig orgaan en verrichten zij geen handelingen die onverenigbaar zijn met hun taken.

Amendement 559

Voorstel voor een verordening

Artikel 59 — lid 4 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 ter.     De nationale toezichthoudende autoriteiten voldoen aan de minimale cyberbeveiligingseisen die zijn vastgesteld voor overheidsdiensten die zijn aangemerkt als aanbieders van essentiële diensten overeenkomstig Richtlijn (EU) 2022/2555.

Amendement 560

Voorstel voor een verordening

Artikel 59 — lid 4 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 quater.     Bij de uitvoering van haar taken eerbiedigt de nationale toezichthoudende autoriteit de in artikel 70 vastgelegde geheimhoudingsverplichtingen.

Amendement 561

Voorstel voor een verordening

Artikel 59 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De lidstaten brengen jaarlijks verslag uit aan de Commissie over de status van de financiële en personele middelen van de nationale bevoegde autoriteiten met een beoordeling van de toereikendheid ervan. De Commissie bezorgt die informatie ter bespreking en voor mogelijke aanbevelingen aan het Comité .

5.   De lidstaten brengen jaarlijks verslag uit aan de Commissie over de status van de financiële en personele middelen van de nationale toezichthoudende autoriteit met een beoordeling van de toereikendheid ervan. De Commissie bezorgt die informatie ter bespreking en voor mogelijke aanbevelingen aan het AI-bureau .

Amendement 562

Voorstel voor een verordening

Artikel 59 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.     De Commissie bevordert de uitwisseling van ervaringen tussen de nationale bevoegde autoriteiten.

Schrappen

Amendement 563

Voorstel voor een verordening

Artikel 59 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   Nationale bevoegde autoriteiten kunnen begeleiding bij en advies over de uitvoering van deze verordening verstrekken, ook aan kleine aanbieders . Wanneer nationale bevoegde autoriteiten van plan zijn te voorzien in begeleiding en advies ten aanzien van een AI-systeem op gebieden die onder andere Uniewetgeving vallen, worden in voorkomend geval de nationale bevoegde autoriteiten onder die Uniewetgeving geraadpleegd. De lidstaten kunnen ook één centraal contactpunt voor communicatie met exploitanten opzetten.

7.   Nationale toezichthoudende autoriteiten kunnen begeleiding bij en advies over de uitvoering van deze verordening verstrekken, ook aan kmo’s en start-ups, rekening houdend met de richtsnoeren en het advies van het AI-bureau of de Commissie . Wanneer de nationale toezichthoudende autoriteit van plan is te voorzien in begeleiding en advies ten aanzien van een AI-systeem op gebieden die onder andere Uniewetgeving vallen, wordt de begeleiding in voorkomend geval opgesteld in overleg met de nationale bevoegde autoriteiten onder die Uniewetgeving.

Amendement 564

Voorstel voor een verordening

Artikel 59 — lid 8

Door de Commissie voorgestelde tekst

Amendement

8.   Wanneer instellingen, agentschappen en instanties van de Unie binnen het toepassingsgebied van deze verordening vallen, treedt de Europese Toezichthouder voor gegevensbescherming op als de bevoegde autoriteit voor het toezicht daarop.

8.   Wanneer instellingen, agentschappen en instanties van de Unie binnen het toepassingsgebied van deze verordening vallen, treedt de Europese Toezichthouder voor gegevensbescherming op als de bevoegde autoriteit voor het toezicht daarop en de coördinatie daarvan .

Amendement 565

Voorstel voor een verordening

Artikel 59 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 59 bis

 

Samenwerkingsmechanisme tussen de nationale toezichthoudende autoriteiten in gevallen waarbij twee of meer lidstaten betrokken zijn

 

1.     Elke nationale toezichthoudende autoriteit voert de haar overeenkomstig deze verordening toegewezen taken uit en oefent de haar overeenkomstig deze verordening toegekende bevoegdheden uit op het grondgebied van haar lidstaat.

 

2.     Indien er twee of meer nationale toezichthoudende autoriteiten bij een geval betrokken zijn, wordt de nationale toezichthoudende autoriteit van de lidstaat waar de inbreuk heeft plaatsgehad, beschouwd als de leidende toezichthoudende autoriteit.

 

3.     In de in lid 2 bedoelde gevallen werken de betrokken toezichthoudende autoriteiten samen en wisselen zij tijdig alle relevante informatie uit. De nationale toezichthoudende autoriteiten werken samen om tot een consensus te komen.

Amendement 566

Voorstel voor een verordening

Titel VII

Door de Commissie voorgestelde tekst

Amendement

VII EU-DATABANK VOOR AUTONOME AI-SYSTEMEN MET EEN HOOG RISICO

EU-DATABANK VOOR AI-SYSTEMEN MET EEN HOOG RISICO

Amendement 567

Voorstel voor een verordening

Artikel 60 — titel

Door de Commissie voorgestelde tekst

Amendement

EU-databank voor autonome AI-systemen met een hoog risico

EU-databank voor AI-systemen met een hoog risico

Amendement 568

Voorstel voor een verordening

Artikel 60 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De Commissie zorgt in samenwerking met de lidstaten voor het opzetten en onderhouden van een EU-databank met informatie als bedoeld in lid  2 betreffende AI-systemen met een hoog risico als bedoeld in artikel 6, lid 2, die overeenkomstig artikel 51 zijn geregistreerd.

1.   De Commissie zorgt in samenwerking met de lidstaten voor het opzetten en onderhouden van een publieke EU-databank met informatie als bedoeld in de leden 2 en 2 bis betreffende AI-systemen met een hoog risico als bedoeld in artikel 6, lid 2, die overeenkomstig artikel 51 zijn geregistreerd.

Amendement 569

Voorstel voor een verordening

Artikel 60 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De in bijlage VIII vermelde data worden door de aanbieders in de EU-databank ingevoerd . De Commissie geeft hun technische en administratieve ondersteuning.

2.   De in bijlage VIII , deel A, vermelde data worden in de EU-databank ingevoerd door de aanbieders .

Amendement 570

Voorstel voor een verordening

Artikel 60 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De in bijlage VIII, deel B, vermelde data worden in de EU-databank ingevoerd door exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn of namens hen optreden en door exploitanten die ondernemingen zijn als bedoeld in artikel 51, leden 1 bis en 1 ter.

Amendement 571

Voorstel voor een verordening

Artikel 60 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De informatie in de EU-databank is toegankelijk voor het publiek.

3.   De informatie in de EU-databank is vrij beschikbaar voor het publiek , gebruiksvriendelijk en toegankelijk, gemakkelijk navigeerbaar en machineleesbaar, en bevat gestructureerde digitale gegevens op basis van een gestandaardiseerd protocol .

Amendement 572

Voorstel voor een verordening

Artikel 60 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De EU-databank bevat alleen persoonsgegevens voor zover die nodig zijn voor het verzamelen en verwerken van informatie overeenkomstig deze verordening. Deze informatie bevat de namen en contactgegevens van natuurlijke personen die verantwoordelijk zijn voor de registratie van het systeem en wettelijk gemachtigd zijn de aanbieder te vertegenwoordigen.

4.   De EU-databank bevat alleen persoonsgegevens voor zover die nodig zijn voor het verzamelen en verwerken van informatie overeenkomstig deze verordening. Deze informatie bevat de namen en contactgegevens van natuurlijke personen die verantwoordelijk zijn voor de registratie van het systeem en wettelijk gemachtigd zijn de aanbieder of de exploitant die een overheidsinstantie of een instelling, orgaan of instantie van de Unie is of namens deze optreedt, of een exploitant die een onderneming is als bedoeld in artikel 51, leden 1 bis, punt b), en 1 ter, te vertegenwoordigen.

Amendement 573

Voorstel voor een verordening

Artikel 60 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De Commissie is voor de EU-databank de verantwoordelijke voor de verwerking. Zij biedt aanbieders ook adequate technische en administratieve ondersteuning.

5.   De Commissie is voor de EU-databank de verantwoordelijke voor de verwerking. Zij biedt aanbieders en exploitanten ook adequate technische en administratieve ondersteuning.

 

De databank voldoet aan de toegankelijkheidsvoorschriften van bijlage I bij Richtlijn (EU) 2019/882.

Amendement 574

Voorstel voor een verordening

Artikel 61 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Het systeem voor monitoring na het in de handel brengen verzamelt, documenteert en analyseert actief en systematisch door gebruikers verstrekte of via andere bronnen verzamelde relevante data over de prestaties van AI-systemen met een hoog risico gedurende hun hele levensduur, en stelt de aanbieder in staat na te gaan of AI-systemen blijvend voldoen aan de in titel III, hoofdstuk 2, beschreven voorschriften.

2.   Het systeem voor monitoring na het in de handel brengen verzamelt, documenteert en analyseert actief en systematisch door exploitanten verstrekte of via andere bronnen verzamelde relevante data over de prestaties van AI-systemen met een hoog risico gedurende hun hele levensduur, en stelt de aanbieder in staat na te gaan of AI-systemen blijvend voldoen aan de in titel III, hoofdstuk 2, beschreven voorschriften. In voorkomend geval wordt in het kader van de monitoring na het in de handel brengen een analyse uitgevoerd van de interactie met andere omgevingen waarin AI-systemen worden gebruikt, waaronder andere apparaten en software, rekening houdend met de regels die van toepassing zijn op gebieden zoals gegevensbescherming, intellectuele-eigendomsrechten en mededingingsrecht.

Amendement 575

Voorstel voor een verordening

Artikel 61 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Het systeem voor monitoring na het in de handel brengen is gebaseerd op een plan voor monitoring na het in de handel brengen. Het plan voor monitoring na het in de handel brengen maakt deel uit van de in bijlage IV bedoelde technische documentatie. De Commissie stelt een uitvoeringshandeling vast met daarin gedetailleerde bepalingen voor de opstelling van een model voor het plan voor monitoring na het in de handel brengen en de lijst van elementen die in het plan moeten worden opgenomen.

3.   Het systeem voor monitoring na het in de handel brengen is gebaseerd op een plan voor monitoring na het in de handel brengen. Het plan voor monitoring na het in de handel brengen maakt deel uit van de in bijlage IV bedoelde technische documentatie. De Commissie stelt uiterlijk [twaalf maanden na de datum van inwerkingtreding van deze verordening] een uitvoeringshandeling vast met daarin gedetailleerde bepalingen voor de opstelling van een model voor het plan voor monitoring na het in de handel brengen en de lijst van elementen die in het plan moeten worden opgenomen.

Amendement 576

Voorstel voor een verordening

Artikel 62 — titel

Door de Commissie voorgestelde tekst

Amendement

Melding van ernstige incidenten en van storingen

Melding van ernstige incidenten

Amendement 577

Voorstel voor een verordening

Artikel 62 — lid 1 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

1.   Aanbieders van in de Unie in de handel gebrachte AI-systemen met een hoog risico melden ernstige incidenten met of storingen van die systemen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden, aan de markttoezichtautoriteiten van de lidstaten waar dat incident of die niet-nakoming plaatsvond.

1.   Aanbieders en, indien exploitanten een ernstig incident hebben vastgesteld, exploitanten van in de Unie in de handel gebrachte AI-systemen met een hoog risico melden ernstige incidenten met of storingen van die systemen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden, aan de nationale toezichthoudende autoriteiten van de lidstaten waar dat incident of die niet-nakoming plaatsvond.

Amendement 578

Voorstel voor een verordening

Artikel 62 — lid 1 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

Een dergelijke melding vindt plaats onmiddellijk nadat de aanbieder een oorzakelijk verband tussen het AI-systeem en het incident of de storing of de redelijke waarschijnlijkheid van een dergelijk verband heeft vastgesteld en in ieder geval uiterlijk 15 dagen nadat de aanbieder zich bewust wordt van het ernstige incident of de storing .

Een dergelijke melding vindt plaats zo snel mogelijk nadat de aanbieder of, in voorkomend geval, de exploitant een oorzakelijk verband tussen het AI-systeem en het incident of de redelijke waarschijnlijkheid van een dergelijk verband heeft vastgesteld en in ieder geval uiterlijk 72 uur nadat de aanbieder of, in voorkomend geval, de exploitant zich bewust wordt van het ernstige incident.

Amendement 579

Voorstel voor een verordening

Artikel 62 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     Wanneer aanbieders een oorzakelijk verband tussen het AI-systeem en het ernstige incident of de redelijke waarschijnlijkheid van een dergelijk verband vaststellen, nemen zij passende corrigerende maatregelen overeenkomstig artikel 21.

Amendement 580

Voorstel voor een verordening

Artikel 62 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Na ontvangst van een melding met betrekking tot een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten stelt de markttoezichtautoriteit de in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen in kennis. De Commissie ontwikkelt specifieke richtsnoeren om nakoming van de in lid 1 vermelde verplichtingen te vergemakkelijken. Die richtsnoeren worden uiterlijk twaalf maanden na de inwerkingtreding van deze verordening uitgevaardigd.

2.   Na ontvangst van een melding met betrekking tot een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten stelt de nationale toezichthoudende autoriteit de in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen in kennis. De Commissie ontwikkelt specifieke richtsnoeren om nakoming van de in lid 1 vermelde verplichtingen te vergemakkelijken. Die richtsnoeren worden uiterlijk op … [ datum inwerkingtreding van deze verordening] uitgevaardigd en worden regelmatig geëvalueerd .

Amendement 581

Voorstel voor een verordening

Artikel 62 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De nationale toezichthoudende autoriteit neemt binnen 7 dagen na ontvangst van de in lid 1 bedoelde melding passende maatregelen. Wanneer de inbreuk plaatsvindt of waarschijnlijk plaatsvindt in andere lidstaten, meldt de nationale toezichthoudende autoriteit dit aan het AI-bureau en de relevante nationale bevoegde autoriteiten van deze lidstaten.

Amendement 582

Voorstel voor een verordening

Artikel 62 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Voor in punt 5, b), van bijlage III vermelde AI-systemen met een hoog risico die in de handel zijn gebracht of in bedrijf zijn gesteld door onder Richtlijn 2013/36/EU vallende kredietinstellingen en voor AI-systemen met een hoog risico die veiligheidscomponenten van apparaten zijn, of die zelf apparaten zijn, als bedoeld in Verordening (EU) 2017/745 en Verordening (EU) 2017/746 , is de melding van ernstige incidenten of van storingen beperkt tot incidenten en storingen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden .

3.   Voor in bijlage III vermelde AI-systemen met een hoog risico die in de handel zijn gebracht of in bedrijf zijn gesteld door aanbieders die onderworpen zijn aan wetgevingsinstrumenten van de Unie met daarin meldingsverplichtingen die gelijkwaardig zijn aan de in deze verordening vervatte meldingsverplichtingen , wordt de melding van ernstige incidenten die een schending van de grondrechten inhouden als bedoeld in het Unierecht doorgegeven aan de nationale toezichthoudende autoriteit .

Amendement 583

Voorstel voor een verordening

Artikel 62 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     De nationale toezichthoudende autoriteiten stellen het AI-bureau jaarlijks in kennis van de ernstige incidenten die overeenkomstig dit artikel aan hen zijn gemeld.

Amendement 584

Voorstel voor een verordening

Artikel 63 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Verordening (EU) 2019/1020 is van toepassing op AI-systemen die onder deze verordening vallen. Voor de doeltreffende handhaving van deze verordening geldt echter het volgende:

1.   Verordening (EU) 2019/1020 is van toepassing op AI-systemen en basismodellen die onder deze verordening vallen. Voor de doeltreffende handhaving van deze verordening geldt echter het volgende:

Amendement 585

Voorstel voor een verordening

Artikel 63 — lid 1 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

de nationale toezichthoudende autoriteiten treden op als markttoezichtautoriteiten als bedoeld in deze verordening en hebben dezelfde bevoegdheden en verplichtingen als markttoezichtautoriteiten als bedoeld in Verordening (EU) 2019/1020.

Amendement 586

Voorstel voor een verordening

Artikel 63 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De nationale toezichthoudende autoriteit brengt aan de Commissie regelmatig verslag uit over de resultaten van relevante markttoezichtactiviteiten. De nationale toezichthoudende autoriteit stelt de Commissie en relevante nationale mededingingsautoriteiten onverwijld in kennis van eventuele tijdens markttoezichtactiviteiten verkregen informatie die van potentieel belang kan zijn voor de toepassing van het Unierecht op mededingingsregels.

2.   De nationale toezichthoudende autoriteit brengt jaarlijks aan de Commissie en het AI-bureau verslag uit over de resultaten van relevante markttoezichtactiviteiten. De nationale toezichthoudende autoriteit stelt de Commissie en relevante nationale mededingingsautoriteiten onverwijld in kennis van eventuele tijdens markttoezichtactiviteiten verkregen informatie die van potentieel belang kan zijn voor de toepassing van het Unierecht op mededingingsregels.

Amendement 587

Voorstel voor een verordening

Artikel 63 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Om een doeltreffende handhaving van deze verordening te waarborgen kunnen de nationale toezichthoudende autoriteiten:

 

a)

onaangekondigde inspecties ter plaatse en op afstand uitvoeren met betrekking tot AI-systemen met een hoog risico;

 

b)

monsters vergaren met betrekking tot AI-systemen met een hoog risico, onder meer door inspecties op afstand uit te voeren, om de AI-systemen te onderwerpen aan reverse-engineering en om bewijs van non-conformiteit te verkrijgen.

Amendement 588

Voorstel voor een verordening

Artikel 63 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Voor in lid 1, punt a), genoemde AI-systemen , voor zover de systemen voor rechtshandhavingsdoeleinden worden gebruikt volgens de punten 6 en 7 van bijlage III, wijzen de lidstaten als markttoezichtautoriteiten voor de toepassing van deze verordening hetzij de bevoegde toezichthoudende autoriteiten inzake gegevensbescherming krachtens Richtlijn (EU) 2016/680 of Verordening 2016/679 aan , hetzij de nationale bevoegde autoriteiten die toezicht houden op de activiteiten van de rechtshandhavings-, immigratie- of asielautoriteiten die deze systemen in bedrijf stellen of gebruiken .

5.   Voor AI-systemen die voor rechtshandhavingsdoeleinden worden gebruikt wijzen de lidstaten als markttoezichtautoriteiten voor de toepassing van deze verordening de bevoegde toezichthoudende autoriteiten inzake gegevensbescherming krachtens Richtlijn (EU) 2016/680 aan.

Amendement 589

Voorstel voor een verordening

Artikel 63 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   De lidstaten vergemakkelijken de coördinatie tussen krachtens deze verordening aangewezen markttoezichtautoriteiten en andere relevante nationale autoriteiten of instanties die toezicht houden op de toepassing van in bijlage II vermelde harmonisatiewetgeving van de Unie of andere Uniewetgeving die relevant kan zijn voor de AI-systemen met een hoog risico als bedoeld in bijlage III.

7.   De krachtens deze verordening aangewezen nationale toezichthoudende autoriteiten werken samen andere relevante nationale autoriteiten of instanties die toezicht houden op de toepassing van in bijlage II vermelde harmonisatiewetgeving van de Unie of ander Unierecht dat relevant kan zijn voor de AI-systemen met een hoog risico als bedoeld in bijlage III.

Amendement 590

Voorstel voor een verordening

Artikel 64 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   In de context van hun activiteiten wordt de markttoezichtautoriteiten volledige toegang verleend tot de door de aanbieder gebruikte datareeksen voor trainings-, validatie- en testdoeleinden, onder meer via applicatieprogramma-interfaces (API’s) of andere passende technische middelen en instrumenten die toegang op afstand mogelijk maken .

1.   In de context van hun activiteiten en op hun met redenen omkleed verzoek wordt de nationale toezichthoudende autoriteiten volledige toegang verleend tot de door de aanbieder of, in voorkomend geval, de exploitant gebruikte datareeksen voor trainings-, validatie- en testdoeleinden, die relevant en strikt noodzakelijk zijn met het oog op hun verzoek, via passende technische middelen en instrumenten.

Amendement 591

Voorstel voor een verordening

Artikel 64 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Indien dit nodig is om de overeenstemming van het AI-systeem met een hoog risico met de in titel III, hoofdstuk 2, beschreven voorschriften te beoordelen, wordt de markttoezichtautoriteiten na een met redenen omkleed verzoek toegang verleend tot de broncode van het AI-systeem.

2.   Indien dit nodig is om de overeenstemming van het AI-systeem met een hoog risico met de in titel III, hoofdstuk 2, beschreven voorschriften te beoordelen, nadat alle andere redelijke manieren om de conformiteit te verifiëren, waaronder toepassing van lid 1, zijn uitgeput of ontoereikend zijn gebleken, wordt de nationale toezichthoudende autoriteiten na een met redenen omkleed verzoek toegang verleend tot de trainings- en getrainde modellen van het AI-systeem , met inbegrip van de relevante modelparameters ervan . Alle overeenkomstig artikel 70 verkregen informatie wordt behandeld als vertrouwelijke informatie, is onderworpen aan het bestaande Unierecht inzake de bescherming van intellectuele eigendom en bedrijfsgeheimen en wordt gewist na voltooiing van het onderzoek in verband waarmee om de informatie is verzocht.

Amendement 592

Voorstel voor een verordening

Artikel 64 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     De leden 1 en 2 doen geen afbreuk aan de procedurele rechten van de betrokken operator overeenkomstig artikel 18 van Verordening (EU) 2019/1020.

Amendement 593

Voorstel voor een verordening

Artikel 64 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Nationale overheidsinstanties of -organen die de nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten met betrekking tot het gebruik van AI-systemen met een hoog risico als bedoeld in bijlage III controleren of handhaven, zijn bevoegd om krachtens deze verordening opgestelde of bijgehouden documentatie aan te vragen en in te zien wanneer toegang tot die documentatie nodig is voor de uitoefening van de bevoegdheden onder hun mandaat binnen de grenzen van hun rechtsgebied. De relevante overheidsinstantie of het relevante overheidsorgaan stelt de markttoezichtautoriteit van de betrokken lidstaat van een dergelijke aanvraag in kennis.

3.   Nationale overheidsinstanties of -organen die de nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten met betrekking tot het gebruik van AI-systemen met een hoog risico als bedoeld in bijlage III controleren of handhaven, zijn bevoegd om krachtens deze verordening opgestelde of bijgehouden documentatie aan te vragen en in te zien wanneer toegang tot die documentatie nodig is voor de uitoefening van de bevoegdheden onder hun mandaat binnen de grenzen van hun rechtsgebied. De relevante overheidsinstantie of het relevante overheidsorgaan stelt de nationale toezichthoudende autoriteit van de betrokken lidstaat van een dergelijke aanvraag in kennis.

Amendement 594

Voorstel voor een verordening

Artikel 64 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Uiterlijk drie maanden na de inwerkingtreding van deze verordening moet elke lidstaat de in lid 3 bedoelde overheidsinstanties of -organen identificeren en een lijst openbaar maken op de website van de nationale toezichthoudende autoriteit. De lidstaten stellen de Commissie en alle andere lidstaten in kennis van de lijst en houden deze up-to-date.

4.   Uiterlijk drie maanden na de inwerkingtreding van deze verordening moet elke lidstaat de in lid 3 bedoelde overheidsinstanties of -organen identificeren en een lijst openbaar maken op de website van de nationale toezichthoudende autoriteit. De nationale toezichthoudende autoriteiten stellen de Commissie , het AI-bureau en alle andere nationale toezichthoudende autoriteiten in kennis van de lijst en houden deze up-to-date. De Commissie maakt op een speciale website de lijst bekend met alle overeenkomstig dit artikel door de lidstaten aangewezen bevoegde autoriteiten.

Amendement 595

Voorstel voor een verordening

Artikel 64 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Indien de in lid 3 bedoelde documentatie ontoereikend is om vast te stellen of sprake is geweest van een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten, kunnen de in lid 3 bedoelde overheidsinstanties of -organen een met redenen omkleed verzoek bij de markttoezichtautoriteit indienen om over te gaan tot het testen van het AI-systeem met een hoog risico met technische middelen. De markttoezichtautoriteit organiseert de testprocedure binnen een redelijke termijn na het verzoek en met nauwe betrokkenheid van de verzoekende overheidsinstantie of het verzoekende overheidsorgaan.

5.   Indien de in lid 3 bedoelde documentatie ontoereikend is om vast te stellen of sprake is geweest van een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten, kunnen de in lid 3 bedoelde overheidsinstanties of -organen een met redenen omkleed verzoek bij de nationale toezichthoudende autoriteit indienen om over te gaan tot het testen van het AI-systeem met een hoog risico met technische middelen. De nationale toezichthoudende autoriteit organiseert de testprocedure binnen een redelijke termijn na het verzoek en met nauwe betrokkenheid van de verzoekende overheidsinstantie of het verzoekende overheidsorgaan.

Amendement 596

Voorstel voor een verordening

Artikel 65 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Onder AI-systemen die een risico inhouden wordt verstaan een product dat een in artikel 3, punt 19, van Verordening (EU) 2019/1020 gedefinieerd risico inhoudt voor zover dit betrekking heeft op risico’s voor de gezondheid of veiligheid of voor de bescherming van grondrechten van personen.

1.   Onder AI-systemen die een risico vormen wordt verstaan een AI-systeem dat een ongunstige invloed kan hebben op de gezondheid en veiligheid en de grondrechten van personen in het algemeen, waaronder op het werk, consumentenbescherming, het milieu, de openbare veiligheid, de democratie of de rechtsstaat en andere openbare belangen die worden beschermd door de toepasselijke harmonisatiewetgeving van de Unie, in een mate die verder gaat dan wat redelijk en aanvaardbaar wordt geacht in verhouding tot het beoogde gebruik ervan of bij normale of redelijkerwijs voorzienbare omstandigheden van gebruik van het betrokken systeem, ook wat gebruiksduur en, indien van toepassing, de inbedrijfstelling, de installatie en de onderhoudseisen betreft.

Amendement 597

Voorstel voor een verordening

Artikel 65 — lid 2 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

2.   Indien de markttoezichtautoriteit van een lidstaat voldoende redenen heeft om ervan uit te gaan dat een AI-systeem een risico inhoudt zoals bedoeld in lid 1, verricht zij een evaluatie van het betrokken AI-systeem ten aanzien van de overeenstemming ervan met alle eisen en verplichtingen van deze verordening. Wanneer sprake is van risico’s voor de bescherming van grondrechten, stelt de markttoezichtautoriteit ook de in artikel 64, lid 3, bedoelde relevante nationale overheidsinstanties of -organen in kennis. De relevante exploitanten werken indien nodig samen met de markttoezichtautoriteiten en de andere in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen.

2.   Indien de nationale toezichthoudende autoriteit van een lidstaat voldoende redenen heeft om ervan uit te gaan dat een AI-systeem een risico inhoudt zoals bedoeld in lid 1, verricht zij een evaluatie van het betrokken AI-systeem ten aanzien van de overeenstemming ervan met alle eisen en verplichtingen van deze verordening. Wanneer sprake is van risico’s voor de grondrechten, stelt de nationale toezichthoudende autoriteit ook de in artikel 64, lid 3, bedoelde relevante nationale overheidsinstanties of -organen hiervan onverwijld in kennis en verleent zij deze instanties of organen haar volledige medewerking. Wanneer er voldoende reden is om aan te nemen dat een AI-systeem gebruikmaakt van de kwetsbaarheden van kwetsbare groepen of dat het systeem de rechten van kwetsbare groepen al dan niet opzettelijk schendt, heeft de nationale toezichthoudende autoriteit de plicht om de doelen van het ontwerp, de data-input, modelselectie, toepassing en resultaten van het AI-systeem te onderzoeken. De relevante operators werken indien nodig samen met de nationale toezichthoudende autoriteiten en de andere in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen.

Amendement 598

Voorstel voor een verordening

Artikel 65 — lid 2 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

Indien de markttoezichtautoriteit bij deze beoordeling vaststelt dat het AI-systeem niet aan de eisen en verplichtingen van deze verordening voldoet, gelast zij de betrokken exploitant onverwijld passende corrigerende maatregelen te nemen om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico, conform te maken, uit de handel te nemen of terug te roepen.

Indien de nationale toezichthoudende autoriteit of, in voorkomend geval, de nationale overheidsinstantie als bedoeld in artikel 64, lid 3, bij deze beoordeling vaststelt dat het AI-systeem niet aan de eisen en verplichtingen van deze verordening voldoet, gelast zij de betrokken operator onverwijld passende corrigerende maatregelen te nemen om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico , doch in elk geval binnen 15 werkdagen of binnen de termijn die is vastgelegd in de van toepassing zijnde relevante harmonisatiewetgeving van de Unie , conform te maken, uit de handel te nemen of terug te roepen.

Amendement 599

Voorstel voor een verordening

Artikel 65 — lid 2 — alinea 3

Door de Commissie voorgestelde tekst

Amendement

De markttoezichtautoriteit stelt de relevante aangemelde instantie daarvan in kennis. Artikel 18 van Verordening (EU) 2019/1020 is van toepassing op de in de tweede alinea genoemde maatregelen.

De nationale toezichthoudende autoriteit stelt de relevante aangemelde instantie daarvan in kennis. Artikel 18 van Verordening (EU) 2019/1020 is van toepassing op de in de tweede alinea genoemde maatregelen.

Amendement 600

Voorstel voor een verordening

Artikel 65 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Indien de markttoezichtautoriteit van mening is dat de non-conformiteit niet beperkt blijft tot haar nationale grondgebied, brengt zij de Commissie en de andere lidstaten op de hoogte van de resultaten van de evaluatie en van de maatregelen die zij de exploitant heeft opgelegd.

3.   Indien de nationale toezichthoudende autoriteit van mening is dat de non-conformiteit niet beperkt blijft tot haar nationale grondgebied, brengt zij de Commissie , het AI-bureau en de nationale toezichthoudende autoriteiten van de andere lidstaten zo snel mogelijk op de hoogte van de resultaten van de evaluatie en van de maatregelen die zij de operator heeft opgelegd.

Amendement 601

Voorstel voor een verordening

Artikel 65 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Indien de exploitant van een AI-systeem niet binnen de in lid 2 bedoelde termijn doeltreffende corrigerende actie onderneemt, neemt de markttoezichtautoriteit alle passende voorlopige maatregelen om het op haar nationale markt aanbieden van het AI-systeem te verbieden of te beperken, het product in de betrokken lidstaat uit de handel te nemen of terug te roepen. Die autoriteit brengt de Commissie en de andere lidstaten onverwijld van deze maatregelen op de hoogte.

5.   Indien de operator van een AI-systeem niet binnen de in lid 2 bedoelde termijn doeltreffende corrigerende actie onderneemt, neemt de nationale toezichthoudende autoriteit alle passende voorlopige maatregelen om het op haar nationale markt aanbieden of in gebruik stellen van het AI-systeem te verbieden of te beperken, het AI-systeem in de betrokken lidstaat uit de handel te nemen of terug te roepen. Die autoriteit brengt de Commissie , het AI-bureau en de nationale toezichthoudende autoriteiten van de andere lidstaten onmiddellijk van deze maatregelen op de hoogte.

Amendement 602

Voorstel voor een verordening

Artikel 65 — lid 6 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

6.   De in lid 5 bedoelde informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het non-conforme AI-systeem te identificeren en om de oorsprong van het AI-systeem, de aard van de beweerde non-conformiteit en van het risico, en de aard en de duur van de nationale maatregelen vast te stellen, evenals de argumenten die worden aangevoerd door de desbetreffende exploitant . De markttoezichtautoriteiten vermelden met name of de non-conformiteit een of meer van de volgende redenen heeft:

6.   De in lid 5 bedoelde informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het non-conforme AI-systeem te identificeren en om de oorsprong van het AI-systeem en de toeleveringsketen , de aard van de beweerde non-conformiteit en van het risico, en de aard en de duur van de nationale maatregelen vast te stellen, evenals de argumenten die worden aangevoerd door de desbetreffende operator . De nationale toezichthoudende autoriteiten vermelden met name of de non-conformiteit een of meer van de volgende redenen heeft:

Amendement 603

Voorstel voor een verordening

Artikel 65 — lid 6 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

het AI-systeem voldoet niet aan in titel III, hoofdstuk 2, beschreven voorschriften;

a)

het AI-systeem met een hoog risico voldoet niet aan in deze verordening beschreven voorschriften;

Amendement 604

Voorstel voor een verordening

Artikel 65 — lid 6 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

niet-naleving van het verbod van de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie;

Amendement 605

Voorstel voor een verordening

Artikel 65 — lid 6 — punt b ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b ter)

niet-naleving van de bepalingen van artikel 52.

Amendement 606

Voorstel voor een verordening

Artikel 65 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   De markttoezichtautoriteiten van de andere lidstaten dan die welke de procedure in gang heeft gezet, brengen de Commissie en de andere lidstaten onverwijld op de hoogte van door hen genomen maatregelen en van aanvullende informatie over de non-conformiteit van het AI-systeem waarover zij beschikken, en van hun bezwaren indien zij het niet eens zijn met de aangemelde nationale maatregel.

7.   De nationale toezichthoudende autoriteiten van de andere lidstaten die welke de procedure in gang heeft gezet, brengen de Commissie , het AI-bureau en de andere lidstaten onverwijld op de hoogte van door hen genomen maatregelen en van aanvullende informatie over de non-conformiteit van het AI-systeem waarover zij beschikken, en van hun bezwaren indien zij het niet eens zijn met de aangemelde nationale maatregel.

Amendement 607

Voorstel voor een verordening

Artikel 65 — lid 8

Door de Commissie voorgestelde tekst

Amendement

8.   Indien binnen drie maanden na ontvangst van de in lid 5 bedoelde informatie door een lidstaat of de Commissie geen bezwaar tegen een voorlopige maatregel van een lidstaat is ingediend, wordt die maatregel geacht gerechtvaardigd te zijn. Dit is onverminderd de procedurele rechten van de betrokken exploitant overeenkomstig artikel 18 van Verordening (EU) 2019/1020.

8.   Indien binnen drie maanden na ontvangst van de in lid 5 bedoelde informatie door een nationale toezichthoudende autoriteit van een lidstaat of de Commissie geen bezwaar tegen een voorlopige maatregel van een nationale toezichthoudende autoriteit van een andere lidstaat is ingediend, wordt die maatregel geacht gerechtvaardigd te zijn. Dit is onverminderd de procedurele rechten van de betrokken operator overeenkomstig artikel 18 van Verordening (EU) 2019/1020. De in de eerste zin van dit lid bedoelde termijn wordt verkort tot dertig dagen in geval van niet-naleving van het verbod op de in artikel 5 bedoelde praktijken op het gebied van artificiële intelligentie.

Amendement 608

Voorstel voor een verordening

Artikel 65 — lid 9

Door de Commissie voorgestelde tekst

Amendement

9.   De markttoezichtautoriteiten van alle lidstaten zorgen ervoor dat ten aanzien van het betrokken product onmiddellijk de passende beperkende maatregelen worden genomen, zoals het uit de handel nemen van het product op hun markt.

9.   De nationale toezichthoudende autoriteiten van alle lidstaten zorgen ervoor dat ten aanzien van het betrokken AI-systeem onmiddellijk de passende beperkende maatregelen worden genomen, zoals het uit de handel nemen van het AI-systeem op hun markt.

Amendement 609

Voorstel voor een verordening

Artikel 65 — lid 9 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

9 bis.     De nationale toezichthoudende autoriteiten brengen jaarlijks aan het AI-bureau verslag uit over de toepassing van verboden praktijken in de loop van dat jaar en over de maatregelen die overeenkomstig dit artikel zijn genomen om risico’s uit te sluiten of te beperken.

Amendement 610

Voorstel voor een verordening

Artikel 66 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Indien een lidstaat binnen drie maanden na ontvangst van de in artikel 65, lid 5, bedoelde kennisgeving bezwaar maakt tegen een door een andere lidstaat genomen maatregel of wanneer de Commissie de maatregel in strijd acht met het Unierecht, treedt de Commissie onverwijld in overleg met de relevante lidstaten en exploitant of exploitanten en evalueert zij de nationale maatregel. Op grond van de resultaten van die evaluatie besluit de Commissie binnen negen  maanden na ontvangst van de in artikel 65, lid 5, bedoelde kennisgeving of de nationale maatregel al dan niet gerechtvaardigd is en stelt zij de betrokken lidstaat in kennis van dat besluit.

1.   Indien de nationale toezichthoudende autoriteit van een lidstaat binnen drie maanden na ontvangst van de in artikel 65, lid 5, bedoelde kennisgeving of, in geval van niet-naleving van het verbod op de in artikel 5 bedoelde praktijken op het gebied van artificiële intelligentie, binnen een termijn van 30 dagen bezwaar maakt tegen een door een andere nationale toezichthoudende autoriteit genomen maatregel of wanneer de Commissie de maatregel in strijd acht met het Unierecht, treedt de Commissie onverwijld in overleg met de nationale toezichthoudende autoriteit van de relevante lidstaat en operator of operators en evalueert zij de nationale maatregel. Op grond van de resultaten van die evaluatie besluit de Commissie binnen drie maanden of, in geval van niet-naleving van het verbod op de in artikel 5 bedoelde praktijken op het gebied van artificiële intelligentie, binnen een termijn van 60 dagen na ontvangst van de in artikel 65, lid 5, bedoelde kennisgeving of de nationale maatregel al dan niet gerechtvaardigd is en stelt zij de nationale toezichthoudende autoriteit van de betrokken lidstaat in kennis van dat besluit. De Commissie stelt ook alle andere nationale toezichthoudende autoriteiten in kennis van een dergelijk besluit.

Amendement 611

Voorstel voor een verordening

Artikel 66 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Indien de nationale maatregel gerechtvaardigd wordt geacht, nemen alle lidstaten de nodige maatregelen om het non-conforme AI-systeem uit de handel te nemen en stellen zij de Commissie daarvan in kennis. Indien de nationale maatregel niet gerechtvaardigd wordt geacht, trekt de betrokken lidstaat de maatregel in.

2.   Indien de nationale maatregel gerechtvaardigd wordt geacht, nemen alle op grond van deze verordening aangewezen nationale toezichthoudende autoriteiten de nodige maatregelen om het non-conforme AI-systeem onverwijld uit de handel te nemen en stellen zij de Commissie en het AI-bureau daarvan in kennis. Indien de nationale maatregel niet gerechtvaardigd wordt geacht, trekt de nationale toezichthoudende autoriteit van de betrokken lidstaat de maatregel in.

Amendement 612

Voorstel voor een verordening

Artikel 66 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 66 bis

Gezamenlijke onderzoeken

Wanneer een nationale toezichthoudende autoriteit redenen heeft om te vermoeden dat de inbreuk door een aanbieder of exploitant van een AI-systeem met een hoog risico of basismodel op de bepalingen van deze verordening aangemerkt dient te worden als een wijdverbreide inbreuk met een Uniedimensie of gevolgen heeft of waarschijnlijk gevolgen heeft voor ten minste 45 miljoen personen in meer dan één lidstaat, stelt die nationale toezichthoudende autoriteit het AI-bureau daarvan in kennis en kan zij de nationale toezichthoudende autoriteiten van de lidstaten waar een dergelijke inbreuk heeft plaatsgevonden verzoeken een gezamenlijk onderzoek in te stellen. Het AI-bureau draagt zorg voor de centrale coördinatie van het gezamenlijke onderzoek. De onderzoeksbevoegdheden blijven toebehoren aan de nationale toezichthoudende autoriteiten.

Amendement 613

Voorstel voor een verordening

Artikel 67 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Indien de markttoezichtautoriteit van een lidstaat na uitvoering van een evaluatie overeenkomstig artikel 65 vaststelt dat een AI-systeem dat voldoet aan deze verordening, toch een risico inhoudt voor de gezondheid of veiligheid van personen, voor de nakoming van verplichtingen krachtens het Unie- of interne recht ter bescherming van grondrechten of voor andere aspecten van de bescherming van algemene belangen, verlangt zij van de relevante exploitant dat hij alle passende maatregelen neemt om ervoor te zorgen dat het betrokken AI-systeem dat risico niet meer inhoudt wanneer het in de handel wordt gebracht of in bedrijf wordt gesteld, of om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico, uit de handel te nemen of terug te roepen.

1.   Indien de nationale toezichthoudende autoriteit van een lidstaat na uitvoering van een evaluatie overeenkomstig artikel 65 in volledige samenwerking met de relevante nationale overheidsinstantie als bedoeld in artikel 64, lid 3, vaststelt dat een AI-systeem dat voldoet aan deze verordening, toch een ernstig risico inhoudt voor de gezondheid of veiligheid van personen, voor de nakoming van verplichtingen krachtens het Unie- of interne recht ter bescherming van grondrechten of het milieu of de democratie en de rechtsstaat, of voor andere aspecten van de bescherming van algemene belangen, verlangt zij van de relevante operator dat hij alle passende maatregelen neemt om ervoor te zorgen dat het betrokken AI-systeem dat risico niet meer inhoudt wanneer het in de handel wordt gebracht of in bedrijf wordt gesteld, of om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico, uit de handel te nemen of terug te roepen.

Amendement 614

Voorstel voor een verordening

Artikel 67 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De aanbieder of andere relevante exploitanten zorgen ervoor dat binnen de door de markttoezichtautoriteit van de lidstaat vastgestelde termijn als bedoeld in lid 1 corrigerende maatregelen worden genomen ten aanzien van alle betrokken AI-systemen die zij in de Unie op de markt hebben aangeboden.

2.   De aanbieder of andere relevante operators zorgen ervoor dat binnen de door de nationale toezichthoudende autoriteit van de lidstaat vastgestelde termijn als bedoeld in lid 1 corrigerende maatregelen worden genomen ten aanzien van alle betrokken AI-systemen die zij in de Unie op de markt hebben aangeboden.

Amendement 615

Voorstel voor een verordening

Artikel 67 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     Indien de aanbieder of andere relevante operators geen corrigerende maatregelen nemen als bedoeld in lid 2 en indien het AI-systeem een risico blijft vormen als bedoeld in lid 1, kan de nationale toezichthoudende autoriteit van de betreffende operator eisen dat deze het AI-systeem binnen een redelijke termijn, die evenredig is met de aard van het risico, uit de handel neemt of terugroept.

Amendement 616

Voorstel voor een verordening

Artikel 67 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De lidstaat brengt daar de Commissie en de andere lidstaten onmiddellijk van op de hoogte. Die informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het betrokken AI-systeem te identificeren en om de oorsprong en de toeleveringsketen van het AI-systeem, de aard van het betrokken risico en de aard en de duur van de nationale maatregelen vast te stellen.

3.   De nationale toezichthoudende autoriteit brengt de Commissie , het AI-bureau en de andere nationale toezichthoudende autoriteiten daarvan onmiddellijk op de hoogte. Die informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het betrokken AI-systeem te identificeren en om de oorsprong en de toeleveringsketen van het AI-systeem, de aard van het betrokken risico en de aard en de duur van de nationale maatregelen vast te stellen.

Amendement 617

Voorstel voor een verordening

Artikel 67 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De Commissie treedt onverwijld in overleg met de lidstaten en de relevante exploitant en evalueert de genomen nationale maatregelen. Aan de hand van die beoordeling besluit de Commissie of de maatregel al dan niet gerechtvaardigd is, en stelt zij zo nodig passende maatregelen voor.

4.   De Commissie treedt , na raadpleging van het AI-bureau, onverwijld in overleg met de betrokken nationale toezichthoudende autoriteiten en de relevante operator en evalueert de genomen nationale maatregelen. Aan de hand van die beoordeling besluit het AI-bureau of de maatregel al dan niet gerechtvaardigd is, en stelt zij zo nodig passende maatregelen voor.

Amendement 618

Voorstel voor een verordening

Artikel 67 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   De Commissie deel haar besluit aan de lidstaten mee.

5.   De Commissie deelt, na overleg met het AI-bureau, haar besluit onmiddellijk mee aan de nationale toezichthoudende autoriteiten van de betrokken lidstaten en aan de relevante operators. Zij deelt haar besluit ook mee aan alle andere nationale toezichthoudende autoriteiten.

Amendement 619

Voorstel voor een verordening

Artikel 67 — lid 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.     De Commissie stelt richtsnoeren vast om nationale bevoegde autoriteiten te helpen waar nodig soortgelijke problemen die zich in andere AI-systemen voordoen op te sporen en recht te zetten.

Amendement 620

Voorstel voor een verordening

Artikel 68 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Indien de markttoezichtautoriteit van een lidstaat een van de volgende feiten vaststelt, verlangt zij van de betrokken aanbieder dat deze een einde maakt aan de non-conformiteit:

1.   Indien de nationale toezichthoudende autoriteit van een lidstaat een van de volgende feiten vaststelt, verlangt zij van de betrokken aanbieder dat deze een einde maakt aan de non-conformiteit:

Amendement 621

Voorstel voor een verordening

Artikel 68 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de conformiteitsmarkering is in strijd met artikel 49 aangebracht;

a)

de CE-markering is in strijd met artikel 49 aangebracht;

Amendement 622

Voorstel voor een verordening

Artikel 68 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

de conformiteitsmarkering is niet aangebracht;

b)

de CE-markering is niet aangebracht;

Amendement 623

Voorstel voor een verordening

Artikel 68 — lid 1 — punt e bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e bis)

de technische documentatie is niet beschikbaar;

Amendement 624

Voorstel voor een verordening

Artikel 68 — lid 1 — punt e ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e ter)

er heeft geen registratie in de EU-databank plaatsgevonden;

Amendement 625

Voorstel voor een verordening

Artikel 68 — lid 1 — punt e quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

e quater)

in voorkomend geval: er is geen gemachtigde aangewezen.

Amendement 626

Voorstel voor een verordening

Artikel 68 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Indien de in lid 1 bedoelde non-conformiteit voortduurt, neemt de betrokken lidstaat alle passende maatregelen om het op de markt aanbieden van het AI-systeem met een hoog risico te beperken of te verbieden, of het AI-systeem terug te roepen of uit de handel te nemen.

2.   Indien de in lid 1 bedoelde non-conformiteit voortduurt, neemt de nationale toezichthoudende autoriteit van de betrokken lidstaat passende en evenredige maatregelen om het op de markt aanbieden van het AI-systeem met een hoog risico te beperken of te verbieden, of het AI-systeem onverwijld terug te roepen of uit de handel te nemen. De nationale toezichthoudende autoriteit van de betrokken lidstaat informeert het AI-bureau onverwijld over de non-conformiteit en de getroffen maatregelen.

Amendement 627

Voorstel voor een verordening

Artikel 68 — hoofdstuk 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.

Rechtsmiddelen

Amendement 628

Voorstel voor een verordening

Artikel 68 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 68 bis

 

Recht om een klacht in te dienen bij een nationale toezichthoudende autoriteit

 

1.     Onverminderd andere mogelijkheden van administratief beroep of een voorziening in rechte, heeft elke natuurlijke persoon of groep van natuurlijke personen het recht een klacht in te dienen bij een nationale toezichthoudende autoriteit, met name in de lidstaat waar deze persoon of groep personen gewoonlijk verblijft, zijn of haar werkplek heeft of waar de beweerde inbreuk is begaan, indien hij of zij van mening is dat het AI-systeem waarmee hij of zij te maken heeft inbreuk maakt op deze verordening.

 

2.     De nationale toezichthoudende autoriteit waarbij de klacht is ingediend, stelt de klager in kennis van de voortgang en het resultaat van de klacht, alsmede van de mogelijke voorziening in rechte overeenkomstig artikel 78.

Amendement 629

Voorstel voor een verordening

Artikel 68 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 68 ter

 

Recht op een doeltreffende voorziening in rechte tegen een nationale toezichthoudende autoriteit

 

1.     Onverminderd andere mogelijkheden van administratief of buitengerechtelijk beroep, heeft iedere natuurlijke persoon of rechtspersoon het recht op een doeltreffende voorziening in rechte tegen een hem betreffend juridisch bindend besluit van een nationale toezichthoudende autoriteit.

 

2.     Onverminderd andere mogelijkheden van administratief of buitengerechtelijk beroep heeft iedere natuurlijke of rechtspersoon het recht op een doeltreffende voorziening in rechte indien de overeenkomstig artikel 59 bevoegde nationale toezichthoudende autoriteit een klacht niet behandelt of de betrokkene niet binnen drie maanden van de voortgang of het resultaat van de uit hoofde van artikel 68 bis ingediende klacht in kennis stelt.

 

3.     Een procedure tegen een nationale toezichthoudende autoriteit wordt ingesteld bij de rechterlijke instanties van de lidstaat waar de nationale toezichthoudende autoriteit gevestigd is.

 

4.     Wanneer een procedure wordt ingesteld tegen een besluit van een nationale toezichthoudende autoriteit waaraan een advies of een besluit van de Commissie in het kader van de vrijwaringsprocedure van de Unie is voorafgegaan, doet de toezichthoudende autoriteit dat advies of besluit aan de rechterlijke instantie toekomen.

Amendement 630

Voorstel voor een verordening

Artikel 68 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 68 quater

 

Recht op toelichting met betrekking tot individuele besluitvorming

 

1.     Elke getroffen persoon ten aanzien van wie door een exploitant een besluit is genomen op basis van de output van een AI-systeem met een hoog risico en dat rechtsgevolgen heeft voor hem of haar of hem of haar treft op een wijze die volgens deze persoon negatieve gevolgen heeft voor zijn of haar gezondheid, veiligheid, grondrechten, sociaaleconomisch welzijn of andere rechten die voortvloeien uit de in deze verordening vastgestelde verplichtingen, heeft het recht om van de exploitant een duidelijke en zinvolle toelichting te ontvangen, in overeenstemming met artikel 13, lid 1, met betrekking tot de rol van het AI-systeem in het kader van de besluitvormingsprocedure, de belangrijkste parameters van het genomen besluit en de bijbehorende inputdata.

 

2.     Lid 1 is niet van toepassing op het gebruik van AI-systemen waarvoor uitzonderingen op of beperkingen van de in lid 1 bedoelde verplichting voortvloeien uit het Unierecht of het nationale recht, voor zover dergelijke uitzonderingen of beperkingen de wezenlijke inhoud van de grondrechten en fundamentele vrijheden eerbiedigen en in een democratische samenleving een noodzakelijke en evenredige maatregel vormen.

 

3.     Dit artikel is van toepassing onverminderd de artikelen 13, 14, 15, en 22 van Verordening (EU) 2016/679.

Amendement 631

Voorstel voor een verordening

Artikel 68 quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 68 quinquies

 

Wijziging van Richtlijn (EU) 2020/1828

 

In bijlage I bij Richtlijn (EU) 2020/1828 van het Europees Parlement en de Raad  (1 bis) wordt het volgende punt toegevoegd:

 

“(67 bis)

Verordening xxxx/xxxx van het Europees Parlement en de Raad [tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie (PB L …)]”.

Amendement 632

Voorstel voor een verordening

Artikel 68 sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 68 sexies

Melding van inbreuken en bescherming van melders

Richtlijn (EU) 2019/1937 van het Europees Parlement en de Raad is van toepassing op de melding van inbreuken op deze verordening en de bescherming van personen die dergelijke inbreuken melden.

Amendement 633

Voorstel voor een verordening

Artikel 69 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De Commissie en de lidstaten stimuleren en vergemakkelijken de opstelling van gedragscodes die bedoeld zijn om de vrijwillige toepassing van de in titel III, hoofdstuk 2, beschreven voorschriften op andere AI-systemen dan AI-systemen met een hoog risico te bevorderen op basis van technische specificaties en oplossingen die passende middelen zijn om naleving van zulke voorschriften in het licht van het beoogde doel van de systemen te waarborgen.

1.   De Commissie , het AI-bureau en de lidstaten stimuleren en vergemakkelijken de opstelling van gedragscodes die bedoeld zijn om de vrijwillige toepassing van de in titel III, hoofdstuk 2, beschreven voorschriften op andere AI-systemen dan AI-systemen met een hoog risico te bevorderen op basis van technische specificaties en oplossingen die passende middelen zijn om naleving van zulke voorschriften in het licht van het beoogde doel van de systemen te waarborgen , onder meer indien deze opgesteld worden om aan te tonen dat AI-systemen in overeenstemming zijn met de in artikel 4 bis vastgelegde beginselen en derhalve als betrouwbaar kunnen worden beschouwd .

Amendement 634

Voorstel voor een verordening

Artikel 69 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.    De Commissie en het Comité stimuleren en vergemakkelijken de opstelling van gedragscodes die bedoeld zijn om de vrijwillige toepassing op AI-systemen te bevorderen van eisen die bijvoorbeeld betrekking hebben op milieuduurzaamheid, toegankelijkheid voor personen met een handicap, deelname van belanghebbenden aan het ontwerp en de ontwikkeling van AI-systemen en diversiteit van ontwikkelingsteams op basis van duidelijke doelstellingen en kernprestatie-indicatoren om de verwezenlijking van die doelstellingen te meten.

2.    Met name is het zo dat gedragscodes die bedoeld zijn om de vrijwillige naleving van de beginselen die ten grondslag liggen aan betrouwbare AI-systemen te bevorderen:

 

a)

gericht zijn op een voldoende niveau van AI-geletterdheid onder hun personeel en andere personen die met de werking en het gebruik van AI-systemen te maken hebben, om deze beginselen in acht te nemen;

 

b)

beoordelen in hoeverre de AI-systemen gevolgen kunnen hebben voor kwetsbare personen of groepen personen, met inbegrip van kinderen, ouderen, migranten en personen met een handicap, dan wel of er maatregelen kunnen worden genomen om ze toegankelijker te maken of dergelijke personen of groepen personen anderszins te ondersteunen;

 

c)

aandacht besteden aan de wijze waarop het gebruik van hun AI-systemen van invloed kan zijn op diversiteit, genderevenwicht en gelijkheid of deze kan vergroten;

 

d)

aandacht besteden aan de vraag of de AI-systemen kunnen worden gebruikt op een wijze die direct of indirect bestaande vooroordelen of ongelijkheden deels of aanzienlijk versterkt;

 

e)

nadenken over de noodzaak en relevantie van diverse ontwikkelingsteams met het oog op een inclusief ontwerp van hun systemen;

 

f)

zorgvuldig nagaan of de systemen negatieve maatschappelijke gevolgen kunnen hebben, met name wat betreft politieke instellingen en democratische processen;

 

g)

nagaan hoe AI-systemen kunnen bijdragen tot milieuduurzaamheid en met name tot de toezeggingen van de Unie in het kader van de Europese Green Deal en de Europese verklaring over digitale rechten en beginselen.

Amendement 635

Voorstel voor een verordening

Artikel 69 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Gedragscodes kunnen door individuele aanbieders van AI-systemen of door organisaties die hen vertegenwoordigen, of allebei, worden opgesteld, ook met betrokkenheid van gebruikers en geïnteresseerde belanghebbenden en hun representatieve organisaties. Gedragscodes kunnen betrekking hebben op een of meer AI-systemen, rekening houdend met de overeenkomst van het beoogde doel van de relevante systemen.

3.   Gedragscodes kunnen door individuele aanbieders van AI-systemen of door organisaties die hen vertegenwoordigen, of allebei, worden opgesteld, ook met betrokkenheid van gebruikers en geïnteresseerde belanghebbenden , waaronder wetenschappelijk onderzoekers, en hun representatieve organisaties , met name vakbonden en consumentenorganisaties . Gedragscodes kunnen betrekking hebben op een of meer AI-systemen, rekening houdend met de overeenkomst van het beoogde doel van de relevante systemen. Aanbieders die gedragscodes vaststellen, wijzen ten minste één natuurlijke persoon aan die verantwoordelijk is voor de interne monitoring.

Amendement 636

Voorstel voor een verordening

Artikel 69 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De Commissie en het Comité houden rekening met de specifieke belangen en behoeften van de kleine aanbieders en start-ups bij het stimuleren en vergemakkelijken van de opstelling van gedragscodes.

4.   De Commissie en het AI-bureau houden rekening met de specifieke belangen en behoeften van kmo’s en start-ups bij het stimuleren en vergemakkelijken van de opstelling van gedragscodes.

Amendement 637

Voorstel voor een verordening

Artikel 70 — lid 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.   Nationale bevoegde autoriteiten en aangemelde instanties die betrokken zijn bij de toepassing van deze verordening, eerbiedigen de vertrouwelijke aard van informatie en gegevens die zij hebben verkregen tijdens het uitvoeren van hun taken en activiteiten met het oog op de bescherming van:

1.    De Commissie, de nationale bevoegde autoriteiten en aangemelde instanties die betrokken zijn bij de toepassing van deze verordening, het AI-bureau en alle andere natuurlijke of rechtspersonen eerbiedigen de vertrouwelijke aard van informatie en gegevens die zij hebben verkregen tijdens het uitvoeren van hun taken en activiteiten met het oog op de bescherming van:

Amendement 638

Voorstel voor een verordening

Artikel 70 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

intellectuele-eigendomsrechten, en vertrouwelijke bedrijfsinformatie of bedrijfsgeheimen van een natuurlijke of rechtspersoon, waaronder de broncode, uitgezonderd de in artikel 5 van Richtlijn (EU) 2016/943 betreffende de bescherming van niet-openbaar gemaakte knowhow en bedrijfsinformatie (bedrijfsgeheimen) tegen het onrechtmatig verkrijgen, gebruiken en openbaar maken daarvan vermelde gevallen;

a)

intellectuele-eigendomsrechten, en vertrouwelijke bedrijfsinformatie of bedrijfsgeheimen van een natuurlijke of rechtspersoon, overeenkomstig de bepalingen van Richtlijn 2004/48/EG en Richtlijn 2016/943/EG, waaronder de broncode, uitgezonderd de in artikel 5 van Richtlijn (EU) 2016/943 betreffende de bescherming van niet-openbaar gemaakte knowhow en bedrijfsinformatie (bedrijfsgeheimen) tegen het onrechtmatig verkrijgen, gebruiken en openbaar maken daarvan vermelde gevallen;

Amendement 639

Voorstel voor een verordening

Artikel 70 — lid 1 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

openbare en nationale veiligheidsbelangen

Amendement 640

Voorstel voor een verordening

Artikel 70 — lid 1 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

1 bis.     De autoriteiten die betrokken zijn bij de toepassing van deze verordening overeenkomstig lid 1 beperken de hoeveelheid voor openbaarmaking verlangde gegevens tot de gegevens die strikt noodzakelijk zijn voor het vermeende risico en de beoordeling van dat risico. Zij wissen de gegevens zodra deze niet langer nodig zijn voor het doel waarvoor zij werden verlangd. Zij nemen passende en doeltreffende cyberbeveiligings-, technische en organisatorische maatregelen ter bescherming van de veiligheid en de vertrouwelijkheid van de informatie en de gegevens die zij tijdens het uitvoeren van hun taken en werkzaamheden hebben verkregen.

Amendement 641

Voorstel voor een verordening

Artikel 70 — lid 2 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

2.   Onverminderd lid 1 mag op vertrouwelijke basis tussen de nationale bevoegde autoriteiten en tussen nationale bevoegde autoriteiten en de Commissie uitgewisselde informatie niet openbaar worden gemaakt zonder de voorafgaande raadpleging van de nationale bevoegde autoriteit waarvan de informatie afkomstig is en de gebruiker wanneer in de punten 1, 6 en 7 van bijlage III bedoelde AI-systemen met een hoog risico worden gebruikt door rechtshandhavings-, immigratie- of asielautoriteiten, wanneer dergelijke openbaarmaking openbare en nationale veiligheidsbelangen in gevaar zou brengen.

2.   Onverminderd de leden 1 en 1 bis mag op vertrouwelijke basis tussen de nationale bevoegde autoriteiten en tussen nationale bevoegde autoriteiten en de Commissie uitgewisselde informatie niet openbaar worden gemaakt zonder de voorafgaande raadpleging van de nationale bevoegde autoriteit waarvan de informatie afkomstig is en de exploitant wanneer in de punten 1, 6 en 7 van bijlage III bedoelde AI-systemen met een hoog risico worden gebruikt door rechtshandhavings-, immigratie- of asielautoriteiten, wanneer dergelijke openbaarmaking de openbare of nationale veiligheid in gevaar zou brengen.

Amendement 642

Voorstel voor een verordening

Artikel 70 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   De leden 1 en 2 laten de rechten en verplichtingen van de Commissie, de lidstaten en de aangemelde instanties met betrekking tot de uitwisseling van informatie en de verspreiding van waarschuwingen, alsook de verplichtingen van de betrokken partijen om in het kader van het strafrecht van de lidstaten informatie te verstrekken, onverlet.

3.   De leden 1 , 1 bis en 2 laten de rechten en verplichtingen van de Commissie, de lidstaten en de aangemelde instanties met betrekking tot de uitwisseling van informatie en de verspreiding van waarschuwingen, alsook de verplichtingen van de betrokken partijen om in het kader van het strafrecht van de lidstaten informatie te verstrekken, onverlet;

Amendement 643

Voorstel voor een verordening

Artikel 70 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   De Commissie en de lidstaten kunnen indien nodig vertrouwelijke informatie uitwisselen met regelgevingsinstanties van derde landen waarmee zij bilaterale of multilaterale geheimhoudingsovereenkomsten hebben gesloten die een passend niveau van geheimhouding waarborgen.

4.   De Commissie en de lidstaten kunnen indien strikt noodzakelijk en met inachtneming van de relevante bepalingen van internationale overeenkomsten en handelsakkoorden vertrouwelijke informatie uitwisselen met regelgevingsinstanties van derde landen waarmee zij bilaterale of multilaterale geheimhoudingsovereenkomsten hebben gesloten die een passend niveau van geheimhouding waarborgen.

Amendement 644

Voorstel voor een verordening

Artikel 71 — titel

Door de Commissie voorgestelde tekst

Amendement

Sancties en geldboeten

Sancties

Amendement 645

Voorstel voor een verordening

Artikel 71 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   Overeenkomstig de voorwaarden van deze verordening stellen de lidstaten de voorschriften voor sancties vast , waaronder administratieve geldboeten, die van toepassing zijn op inbreuken op deze verordening en nemen zij alle nodige maatregelen om ervoor te zorgen dat deze naar behoren en doeltreffend worden uitgevoerd. De vastgestelde sancties moeten doeltreffend, evenredig en afschrikkend zijn. Hierbij wordt met name rekening gehouden met de belangen van kleine aanbieders en start-ups en hun economische levensvatbaarheid.

1.   Overeenkomstig de voorwaarden van deze verordening stellen de lidstaten de voorschriften voor sancties vast die van toepassing zijn op inbreuken van operators op deze verordening en nemen zij alle nodige maatregelen om ervoor te zorgen dat deze naar behoren en doeltreffend worden uitgevoerd en afgestemd zijn op de overeenkomstig artikel 82 ter vastgestelde richtsnoeren van de Commissie en het AI-bureau . De vastgestelde sancties moeten doeltreffend, evenredig en afschrikkend zijn. Hierbij wordt rekening gehouden met de belangen van kmo’s en start-ups en hun economische levensvatbaarheid.

Amendement 646

Voorstel voor een verordening

Artikel 71 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De lidstaten stellen de Commissie van die voorschriften en maatregelen in kennis en delen haar onverwijld alle latere wijzigingen daarvan mee.

2.   De lidstaten stellen de Commissie en het AI-bureau uiterlijk … [twaalf maanden na de datum van inwerkingtreding van deze verordening] van die voorschriften en maatregelen in kennis en delen hun onverwijld alle latere wijzigingen daarvan mee.

Amendement 647

Voorstel voor een verordening

Artikel 71 — lid 3 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

3.   Voor de volgende inbreuken gelden administratieve geldboeten tot 30 000 000  EUR of, als de overtreder een onderneming is, tot 6  % van haar totale wereldwijde jaarlijkse omzet voor het voorafgaande boekjaar, als dat hoger is:

3.   Voor de niet-naleving van het verbod op de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie gelden administratieve geldboeten tot 40 000 000  EUR of, als de overtreder een onderneming is, tot 7 % van haar totale wereldwijde jaaromzet voor het voorafgaande boekjaar, als dat hoger is:

Amendement 648

Voorstel voor een verordening

Artikel 71 — lid 3 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

niet-naleving van het verbod van de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie;

Schrappen

Amendement 649

Voorstel voor een verordening

Artikel 71 — lid 3 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

non-conformiteit van het AI-systeem met de in artikel 10 neergelegde voorschriften.

Schrappen

Amendement 650

Voorstel voor een verordening

Artikel 71 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Voor non-conformiteit van het AI-systeem met de vereisten van de artikelen 10 en 13 gelden administratieve geldboeten tot 20 000 000  EUR of, als de overtreder een onderneming is, tot 4 % van haar totale wereldwijde jaaromzet voor het voorafgaande boekjaar, als dat hoger is.

Amendement 651

Voorstel voor een verordening

Artikel 71 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Voor de non-conformiteit van het AI-systeem met voorschriften of verplichtingen krachtens deze verordening, uitgezonderd die bepaald in de artikelen 5 en 10, gelden administratieve geldboeten tot 20 000 000  EUR of, als de overtreder een onderneming is, tot 4  % van haar totale wereldwijde jaarlijkse omzet voor het voorafgaande boekjaar, als dat hoger is.

4.   Voor non-conformiteit van het AI-systeem of basismodel met voorschriften of verplichtingen krachtens deze verordening, uitgezonderd die bepaald in de artikelen 5, 10 en 13, gelden administratieve geldboeten tot 10 000 000  EUR of, als de overtreder een onderneming is, tot 2  % van haar totale wereldwijde jaaromzet voor het voorafgaande boekjaar, als dat hoger is.

Amendement 652

Voorstel voor een verordening

Artikel 71 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Voor de verstrekking van onjuiste, onvolledige of misleidende informatie aan aangemelde instanties en nationale bevoegde autoriteiten naar aanleiding van een verzoek, gelden administratieve geldboeten tot 10 000 000  EUR of, als de overtreder een onderneming is, tot 2 % van haar totale wereldwijde jaarlijkse omzet voor het voorafgaande boekjaar, als dat hoger is.

5.   Voor de verstrekking van onjuiste, onvolledige of misleidende informatie aan aangemelde instanties en nationale bevoegde autoriteiten naar aanleiding van een verzoek, gelden administratieve geldboeten tot 5 000 000  EUR of, als de overtreder een onderneming is, tot 1 % van haar totale wereldwijde jaaromzet voor het voorafgaande boekjaar, als dat hoger is.

Amendement 653

Voorstel voor een verordening

Artikel 71 — lid 6 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

6.   Bij het bepalen van het bedrag van de administratieve geldboete in elk individueel geval worden alle relevante omstandigheden van de specifieke situatie in aanmerking genomen en wordt terdege rekening gehouden met het volgende:

6.    Geldboeten kunnen worden opgelegd naast of in plaats van niet-financiële maatregelen zoals bevelen of waarschuwingen. Bij het bepalen van het bedrag van de administratieve geldboete in elk individueel geval worden alle relevante omstandigheden van de specifieke situatie in aanmerking genomen en wordt terdege rekening gehouden met het volgende:

Amendement 654

Voorstel voor een verordening

Artikel 71 — lid 6 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de aard, ernst en duur van de inbreuk en de gevolgen ervan;

a)

de aard, ernst en duur van de inbreuk en de gevolgen ervan , rekening houdend met het doel van het AI-systeem en, waar passend, het aantal getroffen personen en de omvang van de door hen geleden schade ;

Amendement 655

Voorstel voor een verordening

Artikel 71 — lid 6 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

of administratieve geldboeten reeds door andere markttoezichtautoriteiten voor dezelfde inbreuk op dezelfde exploitant zijn toegepast;

b)

of administratieve geldboeten reeds door andere nationale toezichthoudende autoriteiten van een of meer lidstaten voor dezelfde inbreuk op dezelfde operator zijn toegepast;

Amendement 656

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c

Door de Commissie voorgestelde tekst

Amendement

c)

de omvang en het marktaandeel van de exploitant die de inbreuk pleegt.

c)

de omvang en de jaaromzet van de operator die de inbreuk pleegt;

Amendement 657

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

door de operator genomen maatregelen om de door de getroffen personen geleden schade te beperken;

Amendement 658

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c ter)

of de inbreuk opzettelijk is gepleegd of door nalatigheid heeft plaatsgevonden;

Amendement 659

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c quater)

de mate waarin er met de nationale bevoegde autoriteiten is samengewerkt om de inbreuk te verhelpen en de mogelijke negatieve gevolgen daarvan te beperken;

Amendement 660

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c quinquies)

de mate waarin de operator verantwoordelijk is, rekening houdend met de technische en organisatorische maatregelen die hij heeft genomen;

Amendement 661

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c sexies)

de wijze waarop de nationale bevoegde autoriteiten kennis hebben gekregen van de inbreuk, met name of, en zo ja in hoeverre, de operator de inbreuk heeft gemeld;

Amendement 662

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c septies)

de mate waarin goedgekeurde gedragscodes of goedgekeurde certificeringsmechanismen zijn nageleefd;

Amendement 663

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c octies)

eventuele relevante eerdere inbreuken die gepleegd zijn door de operator;

Amendement 664

Voorstel voor een verordening

Artikel 71 — lid 6 — punt c nonies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c nonies)

eventuele andere verzwarende of verzachtende factoren die van toepassing zijn op de omstandigheden van de zaak.

Amendement 665

Voorstel voor een verordening

Artikel 71 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   Elke lidstaat stelt regels vast betreffende de vraag of en in hoeverre administratieve geldboeten kunnen worden opgelegd aan in die lidstaat gevestigde overheidsinstanties of -organen.

7.   Elke lidstaat stelt regels vast betreffende de administratieve geldboeten die moeten worden opgelegd aan in die lidstaat gevestigde overheidsinstanties of -organen.

Amendement 666

Voorstel voor een verordening

Artikel 71 — lid 8 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

8 bis.     De in dit artikel bedoelde sancties, alsmede de daaraan verbonden proceskosten en schadeclaims, mogen niet worden onderworpen aan contractuele bepalingen of andere vormen van lastenverdelingsovereenkomsten tussen aanbieders en distributeurs, importeurs, exploitanten of andere derden.

Amendement 667

Voorstel voor een verordening

Artikel 71 — lid 8 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

8 ter.     De nationale toezichthoudende autoriteiten brengen jaarlijks verslag uit aan het AI-bureau over de geldboeten die zij in dat jaar overeenkomstig dit artikel hebben opgelegd.

Amendement 668

Voorstel voor een verordening

Artikel 71 — lid 8 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

8 quater.     Bij de uitoefening van hun bevoegdheden uit hoofde van dit artikel zijn de bevoegde autoriteiten onderworpen aan passende procedurele waarborgen overeenkomstig het Unierecht en het nationale recht, waaronder een voorziening in rechte en een eerlijke rechtsbedeling.

Amendement 669

Voorstel voor een verordening

Artikel 72 — lid 1 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de aard, ernst en duur van de inbreuk en de gevolgen ervan;

a)

de aard, ernst en duur van de inbreuk en de gevolgen ervan , rekening houdend met het doel van het AI-systeem in kwestie en het aantal getroffen personen, de omvang van de door hen geleden schade en eventuele relevante eerdere inbreuken;

Amendement 670

Voorstel voor een verordening

Artikel 72 — lid 1 — punt a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

maatregelen die de instelling, de instantie of het agentschap van de Unie heeft genomen om de door de getroffen personen geleden schade te beperken;

Amendement 671

Voorstel voor een verordening

Artikel 72 — lid 1 — punt a ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a ter)

de mate van verantwoordelijkheid van de instelling, de instantie of het agentschap van de Unie, rekening houdend met de technische en organisatorische maatregelen die zij hebben genomen;

Amendement 672

Voorstel voor een verordening

Artikel 72 — lid 1 — punt b

Door de Commissie voorgestelde tekst

Amendement

b)

de samenwerking met de Europese Toezichthouder voor gegevensbescherming om de inbreuk te verhelpen en de mogelijke nadelige gevolgen van de inbreuk te beperken, waaronder naleving van eventuele maatregelen die eerder door de Europese Toezichthouder voor gegevensbescherming ten aanzien van dezelfde kwestie aan de betrokken instelling of instantie of het betrokken agentschap van de Unie zijn opgelegd;

b)

de mate van samenwerking met de Europese Toezichthouder voor gegevensbescherming om de inbreuk te verhelpen en de mogelijke nadelige gevolgen van de inbreuk te beperken, waaronder naleving van eventuele maatregelen die eerder door de Europese Toezichthouder voor gegevensbescherming ten aanzien van dezelfde kwestie aan de betrokken instelling of instantie of het betrokken agentschap van de Unie zijn opgelegd;

Amendement 673

Voorstel voor een verordening

Artikel 72 — lid 1 — punt c bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c bis)

de wijze waarop de Europese Toezichthouder voor gegevensbescherming kennis heeft gekregen van de inbreuk, met name of, en zo ja in hoeverre, de instelling of het orgaan van de Unie de inbreuk heeft gemeld;

Amendement 674

Voorstel voor een verordening

Artikel 72 — lid 1 — punt c ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

c ter)

de jaarlijkse begroting van het orgaan;

Amendement 675

Voorstel voor een verordening

Artikel 72 — lid 2 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

2.   Voor de volgende inbreuken gelden administratieve geldboeten tot 500 000  EUR:

2.   Voor niet-naleving van het verbod op de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie gelden administratieve geldboeten tot 1 500 000 EUR.

Amendement 676

Voorstel voor een verordening

Artikel 72 — lid 2 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

niet-naleving van het verbod van de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie;

Schrappen

Amendement 677

Voorstel voor een verordening

Artikel 72 — lid 2 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

2 bis.     Voor niet-naleving door het AI-systeem van de in artikel 10 vermelde voorschriften gelden administratieve geldboeten tot 1 000 000  EUR.

Amendement 678

Voorstel voor een verordening

Artikel 72 — lid 3

Door de Commissie voorgestelde tekst

Amendement

3.   Voor de non-conformiteit van het AI-systeem met voorschriften of verplichtingen krachtens deze verordening, uitgezonderd die bepaald in de artikelen 5 en 10, gelden administratieve geldboeten tot 250 000  EUR.

3.   Voor de non-conformiteit van het AI-systeem met voorschriften of verplichtingen krachtens deze verordening, uitgezonderd die bepaald in de artikelen 5 en 10, gelden administratieve geldboeten tot 750 000  EUR.

Amendement 679

Voorstel voor een verordening

Artikel 72 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   De bedragen die worden geïnd door het opleggen van de geldboeten van dit artikel, worden beschouwd als ontvangsten voor de algemene begroting van de Unie.

6.   De bedragen die worden geïnd door het opleggen van de geldboeten van dit artikel, dragen bij aan de algemene begroting van de Unie. De geldboeten doen geen afbreuk aan de doeltreffende werking van de instelling, de instantie of het agentschap van de Unie waaraan een geldboete is opgelegd.

Amendement 680

Voorstel voor een verordening

Artikel 72 — lid 6 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

6 bis.     De Europese Toezichthouder voor gegevensbescherming stelt het AI-bureau jaarlijks in kennis van de geldboeten die hij uit hoofde van dit artikel heeft opgelegd.

Amendement 681

Voorstel voor een verordening

Artikel 73 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   De in artikel 4, artikel 7, lid 1, artikel 11, lid 3, artikel 43, leden 5 en 6, en artikel 48, lid 5, bedoelde bevoegdheidsdelegatie wordt met ingang van [datum waarop de verordening in werking treedt ] voor onbepaalde tijd aan de Commissie verleend.

2.   De in artikel 4, artikel 7, lid 1, artikel 11, lid 3, artikel 43, leden 5 en 6, en artikel 48, lid 5, bedoelde bevoegdheid om gedelegeerde handelingen vast te stellen, wordt met ingang van … [ de datum van inwerkingtreding van de verordening] voor een termijn van vijf jaar aan de Commissie toegekend. De Commissie stelt uiterlijk negen maanden voor het einde van de termijn van vijf jaar een verslag op over de bevoegdheidsdelegatie. De bevoegdheidsdelegatie wordt stilzwijgend met termijnen van dezelfde duur verlengd, tenzij het Europees Parlement of de Raad zich uiterlijk drie maanden voor het einde van elke termijn tegen deze verlenging verzet.

Amendement 682

Voorstel voor een verordening

Artikel 73 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Vóór de vaststelling van een gedelegeerde handeling raadpleegt de Commissie de relevante instellingen, het AI-bureau, het adviesforum en andere belanghebbenden in overeenstemming met de beginselen die zijn neergelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven.

 

Zodra de Commissie besluit een gedelegeerde handeling op te stellen, brengt zij het Europees Parlement hiervan op de hoogte. Deze kennisgeving verplicht de Commissie er niet toe de genoemde handeling vast te stellen.

Amendement 683

Voorstel voor een verordening

Artikel 81 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 81 bis

 

Wijziging in Verordening (EU) 2019/1020

 

Verordening (EU) 2019/1020 wordt als volgt gewijzigd:

 

in artikel 14, lid 4, wordt de volgende alinea ingevoegd:

 

“l)

de bevoegdheid om de in dit artikel vastgestelde bevoegdheden op afstand uit te voeren, waar van toepassing;”

Amendement 684

Voorstel voor een verordening

Artikel 82 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 82 bis

Betere regelgeving

Bij de inachtneming van de voorschriften van deze verordening uit hoofde van de amendementen op de artikelen 75, 76, 77, 78, 79, 80, 81 en 82, voert de Commissie een analyse uit en raadpleegt zij belanghebbenden om eventuele kloven alsmede overlappingen tussen bestaande sectorwetgeving en de bepalingen van deze verordening vast te stellen.

Amendement 685

Voorstel voor een verordening

Artikel 82 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Artikel 82 ter

 

Richtsnoeren van de Commissie over de uitvoering van deze verordening

 

1.     De Commissie ontwikkelt in overleg met het AI-bureau richtsnoeren over de praktische uitvoering van deze verordening, en met name over:

 

a)

de toepassing van de in de artikelen 8 tot en met 15 en artikel 28 tot en met 28 ter bedoelde vereisten;

 

b)

de verboden praktijken als bedoeld in artikel 5;

 

c)

de praktische uitvoering van de bepalingen in verband met substantiële wijzigingen;

 

d)

de praktische omstandigheden waarin de output van een AI-systeem als bedoeld in bijlage III een aanzienlijk risico zou inhouden op schade aan de gezondheid, de veiligheid of de grondrechten van natuurlijke personen als bedoeld in artikel 6, lid 2, met inbegrip van voorbeelden in verband met AI-systemen met een hoog risico als bedoeld in bijlage III;

 

e)

de praktische uitvoering van de in artikel 52 vastgelegde transparantieverplichtingen;

 

f)

de ontwikkeling van gedragscodes als bedoeld in artikel 69;

 

g)

de verhouding tussen deze verordening en andere relevante wetgeving van de Unie, onder meer wat betreft de samenhang bij de handhaving ervan;

 

h)

de praktische uitvoering van artikel 12 en artikel 28 ter over de milieueffecten van basismodellen en van bijlage IV, punt 3, b), met name de meet- en registratiemethoden om berekeningen en rapportage van de milieueffecten van systemen mogelijk te maken teneinde te voldoen aan de verplichtingen van deze verordening, met inbegrip van de koolstofvoetafdruk en energie-efficiëntie, daarbij rekening houdend met geavanceerde methoden en schaalvoordelen.

 

Bij het uitvaardigen van dergelijke richtsnoeren besteedt de Commissie bijzondere aandacht aan de behoeften van kmo’s, met inbegrip van start-ups, lokale overheden en sectoren die het meest waarschijnlijk door deze verordening zullen worden beïnvloed.

 

2.     Op verzoek van de lidstaten of het AI-bureau of op eigen initiatief actualiseert de Commissie reeds vastgestelde richtsnoeren wanneer dit nodig wordt geacht.

Amendement 686

Voorstel voor een verordening

Artikel 83 — lid 1 — alinea 1

Door de Commissie voorgestelde tekst

Amendement

1.    Deze verordening is niet van toepassing op AI-systemen die componenten zijn van de volgens de in bijlage IX vermelde rechtshandelingen opgezette grootschalige IT-systemen die in de handel zijn gebracht of in bedrijf zijn gesteld vóór [ twaalf maanden na de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening] , tenzij de vervanging of wijziging van die rechtshandelingen aanleiding geeft tot een significante wijziging in het ontwerp of het beoogde doel van het betrokken AI-systeem of de betrokken AI-systemen .

1.    Operators van AI-systemen die componenten zijn van de volgens de in bijlage IX vermelde rechtshandelingen opgezette grootschalige IT-systemen die in de handel zijn gebracht of in bedrijf zijn gesteld vóór… [de datum van inwerkingtreding van deze verordening] ondernemen uiterlijk… [vier jaar na de datum van inwerkingtreding van deze verordening] de nodige stappen om te voldoen aan de voorschriften van deze verordening .

Amendement 687

Voorstel voor een verordening

Artikel 83 — lid 1 — alinea 2

Door de Commissie voorgestelde tekst

Amendement

De in deze verordening vastgelegde voorschriften worden in voorkomend geval in aanmerking genomen bij de evaluatie van elk volgens de in bijlage IX vermelde rechtshandelingen opgezet grootschalig IT-systeem die moet worden uitgevoerd zoals bepaald in die respectieve handelingen.

De in deze verordening vastgelegde voorschriften worden in aanmerking genomen bij de evaluatie van elk volgens de in bijlage IX vermelde rechtshandelingen opgezet grootschalig IT-systeem die moet worden uitgevoerd zoals bepaald in die respectieve handelingen en telkens wanneer die rechtshandelingen worden vervangen of gewijzigd .

Amendement 688

Voorstel voor een verordening

Artikel 83 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Deze verordening is alleen van toepassing op AI-systemen met een hoog risico, uitgezonderd die bedoeld in lid 1, die in de handel zijn gebracht of in bedrijf zijn gesteld vóór [de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening], als die systemen vanaf die datum significante wijzigingen in hun ontwerp of het beoogde doel ondergaan.

2.   Deze verordening is alleen van toepassing op operators van AI-systemen met een hoog risico, uitgezonderd die bedoeld in lid 1, die in de handel zijn gebracht of in bedrijf zijn gesteld vóór [de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening], als die systemen vanaf die datum substantiële veranderingen ondergaan als bedoeld in artikel 3, lid 23 . In het geval van AI-systemen met een hoog risico die bedoeld zijn om door overheidsinstanties te worden gebruikt, ondernemen aanbieders en exploitanten van dergelijke systemen de nodige stappen om te voldoen aan de voorschriften van deze verordening [twee jaar na de datum van inwerkingtreding van deze verordening].

Amendement 689

Voorstel voor een verordening

Artikel 84 — lid 1

Door de Commissie voorgestelde tekst

Amendement

1.   De Commissie beoordeelt na de inwerkingtreding van deze verordening eenmaal per jaar of de lijst in bijlage III moet worden gewijzigd.

1.    Na raadpleging van het AI-bureau beoordeelt de Commissie na de inwerkingtreding van deze verordening en naar aanleiding van een aanbeveling van het AI-bureau eenmaal per jaar of de lijst in bijlage III , waaronder de uitbreiding van bestaande gebiedsrubrieken of de toevoeging van nieuwe rubrieken in die bijlage, de lijst van verboden AI-praktijken in artikel 5 en de lijst van AI-systemen die aanvullende transparantiemaatregelen vereisen in artikel 52 moeten worden gewijzigd.

 

De Commissie deelt de bevindingen van die beoordeling mee aan het Europees Parlement en de Raad.

Amendement 690

Voorstel voor een verordening

Artikel 84 — lid 2

Door de Commissie voorgestelde tekst

Amendement

2.   Uiterlijk [ drie jaar na de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening] en vervolgens om de vier jaar dient de Commissie een verslag in bij het Europees Parlement en de Raad over de evaluatie en de toetsing van deze verordening. De verslagen worden openbaar gemaakt.

2.   Uiterlijk [ twee jaar na de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening] en vervolgens om de twee jaar dient de Commissie samen met het AI-bureau een verslag in bij het Europees Parlement en de Raad over de evaluatie en de toetsing van deze verordening. De verslagen worden openbaar gemaakt.

Amendement 691

Voorstel voor een verordening

Artikel 84 — lid 3 — punt a

Door de Commissie voorgestelde tekst

Amendement

a)

de status van de financiële en personele middelen van de nationale bevoegde autoriteiten teneinde de hun krachtens deze verordening toegewezen taken doeltreffend uit te voeren;

a)

de status van de financiële , technische en personele middelen van de nationale bevoegde autoriteiten teneinde de hun krachtens deze verordening toegewezen taken doeltreffend uit te voeren;

Amendement 692

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

de stand van ontwikkeling van geharmoniseerde normen en gemeenschappelijke specificaties voor artificiële intelligentie;

Amendement 693

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b ter)

de hoogte van investeringen in onderzoek, ontwikkeling en toepassing van AI-systemen in de hele Unie;

Amendement 694

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b quater)

het concurrentievermogen van de hele Europese AI-sector in vergelijking met de AI-sector in derde landen;

Amendement 695

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b quinquies)

de impact van de verordening op het gebruik van hulpbronnen en energie, alsook op de afvalproductie en andere milieueffecten;

Amendement 696

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b sexies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b sexies)

de uitvoering van het gecoördineerde plan inzake AI, rekening houdend met de uiteenlopende mate van vooruitgang tussen de lidstaten en het in kaart brengen van bestaande belemmeringen voor innovatie op het gebied van AI;

Amendement 697

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b septies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b septies)

de actualisering van de specifieke vereisten met betrekking tot de duurzaamheid van AI-systemen en basismodellen, voortbouwend op de verslagleggings- en documentatieverplichting als genoemd in bijlage IV en artikel 28 ter;

Amendement 698

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b octies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b octies)

de wettelijke regeling die van toepassing is op basismodellen;

Amendement 699

Voorstel voor een verordening

Artikel 84 — lid 3 — punt b nonies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b nonies)

de lijst van oneerlijke contractvoorwaarden in artikel 28 bis, waar nodig rekening houdend met nieuwe bedrijfspraktijken;

Amendement 700

Voorstel voor een verordening

Artikel 84 — lid 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.     Uiterlijk… [twee jaar na de in artikel 85, lid 2, bedoelde datum van toepassing van deze verordening] evalueert de Commissie de werking van het AI-bureau, de vraag of het bureau voldoende bevoegdheden heeft gekregen om zijn taken uit te voeren en of het voor de correcte uitvoering en handhaving van deze verordening relevant en noodzakelijk zou zijn om het bureau en zijn handhavingsbevoegdheden op te schalen en zijn middelen uit te breiden. De Commissie dient dit evaluatieverslag in bij het Europees Parlement en bij de Raad.

Amendement 701

Voorstel voor een verordening

Artikel 84 — lid 4

Door de Commissie voorgestelde tekst

Amendement

4.   Binnen [ drie jaar na de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening] en vervolgens om de vier jaar evalueert de Commissie de impact en doeltreffendheid van gedragscodes om de toepassing van de in titel III, hoofdstuk 2, beschreven voorschriften en eventuele andere aanvullende voorschriften voor andere AI-systemen dan AI-systemen met een hoog risico te bevorderen.

4.   Binnen [ één jaar na de in artikel 85, lid 2, vermelde datum van inwerkingtreding van deze verordening] en vervolgens om de twee jaar evalueert de Commissie de impact en doeltreffendheid van gedragscodes om de toepassing van de in titel III, hoofdstuk 2, beschreven voorschriften en eventuele andere aanvullende voorschriften voor andere AI-systemen dan AI-systemen met een hoog risico te bevorderen.

Amendement 702

Voorstel voor een verordening

Artikel 84 — lid 5

Door de Commissie voorgestelde tekst

Amendement

5.   Voor de toepassing van de leden 1 tot en met 4 verstrekken het Comité , de lidstaten en nationale bevoegde autoriteiten informatie aan de Commissie op haar verzoek.

5.   Voor de toepassing van de leden 1 tot en met 4 verstrekken het AI-bureau , de lidstaten en nationale bevoegde autoriteiten onverwijld informatie aan de Commissie op haar verzoek.

Amendement 703

Voorstel voor een verordening

Artikel 84 — lid 6

Door de Commissie voorgestelde tekst

Amendement

6.   Bij de uitvoering van de in de leden 1 tot en met 4 vermelde evaluaties en toetsingen neemt de Commissie de standpunten en bevindingen van het Comité , het Europees Parlement, de Raad en van andere relevante instanties of bronnen in aanmerking.

6.   Bij de uitvoering van de in de leden 1 tot en met 4 vermelde evaluaties en toetsingen neemt de Commissie de standpunten en bevindingen van het AI-bureau , het Europees Parlement, de Raad en van andere relevante instanties of bronnen in aanmerking en raadpleegt zij belanghebbenden . Het resultaat van dit overleg wordt bij het verslag gevoegd.

Amendement 704

Voorstel voor een verordening

Artikel 84 — lid 7

Door de Commissie voorgestelde tekst

Amendement

7.   Indien nodig dient de Commissie passende voorstellen in teneinde deze verordening te wijzigen, met name in het licht van ontwikkelingen in de technologie en de stand van zaken in de informatiemaatschappij.

7.   Indien nodig dient de Commissie passende voorstellen in teneinde deze verordening te wijzigen, met name in het licht van ontwikkelingen in de technologie , de gevolgen van AI-systemen voor de gezondheid en veiligheid, de grondrechten, het milieu, gelijkheid, de toegankelijkheid voor personen met een handicap, de democratie en de rechtsstaat, en de stand van zaken in de informatiemaatschappij.

Amendement 705

Voorstel voor een verordening

Artikel 84 — lid 7 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

7 bis.     Om de evaluaties en toetsingen als bedoeld in de leden 1 tot en met 4 van dit artikel uit te voeren, ontwikkelt het AI-bureau een objectieve en participatieve methodologie voor de evaluatie van het risiconiveau, op basis van de in de desbetreffende artikelen beschreven criteria en opname van nieuwe systemen in: de lijst in bijlage III, waaronder de uitbreiding van bestaande gebiedsrubrieken of de toevoeging van nieuwe rubrieken in die bijlage; de lijst van verboden praktijken als vastgelegd in artikel 5; en de lijst van AI-systemen die aanvullende transparantieverplichtingen met zich meebrengen krachtens artikel 52.

Amendement 706

Voorstel voor een verordening

Artikel 84 — lid 7 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

7 ter.     In amendementen op deze verordening uit hoofde van lid 7 van dit artikel, of relevante toekomstige gedelegeerde handelingen of uitvoeringshandelingen, die betrekking hebben op sectorwetgeving zoals vermeld in bijlage II, deel B, wordt rekening gehouden met de regelgevingsspecificaties van elke sector, met de bestaande mechanismen voor governance, conformiteitsbeoordeling en handhaving en met de autoriteiten die daarin zijn vastgesteld.

Amendement 707

Voorstel voor een verordening

Artikel 84 — lid 7 quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

7 quater.     Uiterlijk … [vijf jaar na de datum van toepassing van deze verordening] voert de Commissie een beoordeling uit van de handhaving van deze verordening en brengt hierover verslag uit aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité, waarbij de eerste jaren van toepassing van de verordening worden meegenomen. Op basis van de bevindingen gaat dit verslag, indien van toepassing, vergezeld van een voorstel tot wijziging van deze verordening met betrekking tot de handhavingsstructuur en de behoefte aan een agentschap van de Unie om eventueel vastgestelde tekortkomingen op te lossen.

Amendement 708

Voorstel voor een verordening

Bijlage I

Door de Commissie voorgestelde tekst

Amendement

BIJLAGE I TECHNIEKEN EN BENADERINGEN OP HET GEBIED VAN ARTIFICIËLE INTELLIGENTIE als bedoeld in artikel 3, punt 1

Schrappen

a)

Benaderingen voor machinaal leren, waaronder gecontroleerd, ongecontroleerd en versterkend leren, met behulp van een brede waaier aan methoden, waaronder diep leren (“deep learning”).

 

b)

Op logica en op kennis gebaseerde benaderingen, waaronder kennisrepresentatie, inductief (logisch) programmeren, kennisbanken, inferentie- en deductiemachines, (symbolisch) redeneren en expertsystemen.

 

c)

Statistische benaderingen, Bayesiaanse schattings-, zoek- en optimalisatiemethoden.

 

Amendement 709

Voorstel voor een verordening

Bijlage III — alinea 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

AI-systemen met een hoog risico overeenkomstig artikel 6, lid 2, zijn de vermelde AI-systemen op de volgende gebieden :

De AI-systemen waarnaar in de punten 1 tot en met 8 bis specifiek wordt verwezen, staan voor kritieke gebruiksgevallen en worden elk beschouwd als AI-systemen met een hoog risico overeenkomstig artikel 6, lid 2, mits zij voldoen aan de criteria van dat artikel :

Amendement 710

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 1 — inleidende formule

Door de Commissie voorgestelde tekst

Amendement

1.

biometrische identificatie en categorisering van natuurlijke personen:

1.

biometrische en op biometrie gebaseerde systemen

Amendement 711

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 1 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie op afstand van natuurlijke personen in real time en achteraf ;

a)

AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie van natuurlijke personen , met uitzondering van de in artikel 5 vermelde systemen ;

Amendement 712

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 1 — a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

AI-systemen die bedoeld zijn om conclusies te trekken over de persoonlijke kenmerken van natuurlijke personen op basis van biometrische of op biometrie gebaseerde gegevens, met inbegrip van systemen voor emotieherkenning, met uitzondering van de in artikel 5 vermelde systemen.

 

Punt 1 omvat geen AI-systemen die bedoeld zijn om te worden gebruikt voor biometrische verificatie met als enig doel te bevestigen dat een specifieke natuurlijke persoon de persoon is die hij of zij beweert te zijn;

Amendement 713

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 2 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van wegverkeer en de levering van water, gas, verwarming en elektriciteit ;

a)

AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van weg-, spoor- en luchtverkeer, tenzij deze zijn geregulariseerd in harmonisatie- of sectorwetgeving ;

Amendement 714

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 2 — a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van de levering van water, gas, verwarming, elektriciteit en digitale infrastructuur;

Amendement 715

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 3 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om te worden gebruikt voor de bepaling van toegang tot of de toewijzing van natuurlijke personen aan onderwijs- en beroepsopleidingsinstellingen;

a)

AI-systemen die bedoeld zijn om te worden gebruikt voor de bepaling van toegang tot of die van wezenlijke invloed zijn op besluiten over de toelating van natuurlijke personen tot of hun toewijzing aan onderwijs- en beroepsopleidingsinstellingen;

Amendement 716

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 3 — b

Door de Commissie voorgestelde tekst

Amendement

b)

AI-systemen die bedoeld zijn om te worden gebruikt voor de beoordeling van studenten in onderwijs- en beroepsopleidingsinstellingen en voor de beoordeling van deelnemers aan tests die gewoonlijk vereist zijn voor toelating tot onderwijsinstellingen ;

b)

AI-systemen die bedoeld zijn om te worden gebruikt voor de beoordeling van studenten in onderwijs- en beroepsopleidingsinstellingen en voor de beoordeling van deelnemers aan tests die gewoonlijk vereist zijn voor toelating tot die instellingen ;

Amendement 717

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 3 — b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

AI-systemen die bedoeld zijn om te worden gebruikt voor de beoordeling van het passende onderwijsniveau voor een persoon en van wezenlijke invloed zijn op het niveau van onderwijs of beroepsopleiding waar die persoon de beschikking over zal hebben of toegang toe kan krijgen;

Amendement 718

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 3 — b ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b ter)

AI-systemen die bedoeld zijn om te worden gebruikt voor de monitoring en opsporing van ongeoorloofd gedrag van studenten tijdens examens in de context van/binnen onderwijs- en beroepsopleidingsinstellingen;

Amendement 719

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 4 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn voor de aanwerving of selectie van natuurlijke personen, met name voor het bekendmaken van vacatures , het screenen of filteren van sollicitaties, de evaluatie van kandidaten tijdens interviews of tests;

a)

AI-systemen die bedoeld zijn voor de aanwerving of selectie van natuurlijke personen, met name voor het plaatsen van gerichte personeelsadvertenties , het screenen of filteren van sollicitaties, de evaluatie van kandidaten tijdens interviews of tests;

Amendement 720

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 4 — b

Door de Commissie voorgestelde tekst

Amendement

b)

AI-systemen die bedoeld zijn voor het nemen van besluiten over de bevordering en beëindiging van arbeidsgerelateerde contractuele relaties, voor de toewijzing van taken en voor het toezicht op en de evaluatie van prestaties en gedrag van personen in dergelijke relaties;

b)

AI-systemen die bedoeld zijn voor het nemen of wezenlijk beïnvloeden van besluiten met betrekking tot de aanvang, bevordering en beëindiging van arbeidsgerelateerde contractuele relaties, de toewijzing van taken op basis van individueel gedrag, karaktertrekken of persoonlijkheidskenmerken , of voor het toezicht op en de evaluatie van prestaties en gedrag van personen in dergelijke relaties;

Amendement 721

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 5 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om door of namens overheidsinstanties te worden gebruikt om te beoordelen of natuurlijke personen in aanmerking komen voor overheidsuitkeringen en -diensten, evenals voor het verlenen, beperken, intrekken of terugvorderen van dergelijke uitkeringen en diensten;

a)

AI-systemen die bedoeld zijn om door of namens overheidsinstanties te worden gebruikt om te beoordelen of natuurlijke personen in aanmerking komen voor overheidsuitkeringen en -diensten, waaronder gezondheidszorg en essentiële diensten, met inbegrip van, maar niet beperkt tot huisvesting, elektriciteit, verwarming/koeling en internet, evenals voor het verlenen, beperken, intrekken , verhogen of terugvorderen van dergelijke uitkeringen en diensten;

Amendement 722

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 5 — b

Door de Commissie voorgestelde tekst

Amendement

b)

AI-systemen die bedoeld zijn om de kredietwaardigheid van natuurlijke personen te beoordelen of hun kredietscore vast te stellen, met uitzondering van AI-systemen die in bedrijf zijn gesteld door kleine aanbieders voor eigen gebruik ;

b)

AI-systemen die bedoeld zijn om de kredietwaardigheid van natuurlijke personen te beoordelen of hun kredietscore vast te stellen, met uitzondering van AI-systemen die gebruikt worden om financiële fraude op te sporen ;

Amendement 723

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 5 — b bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

b bis)

AI-systemen die bedoeld zijn om te worden gebruikt om besluiten te nemen of wezenlijke invloed uit te oefenen op besluiten over de vraag of natuurlijke personen in aanmerking komen voor een ziektekosten- of levensverzekering;

Amendement 724

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 5 — c

Door de Commissie voorgestelde tekst

Amendement

c)

AI-systemen die bedoeld zijn om te worden gebruikt voor de inzet of voor het vaststellen van prioriteiten bij de inzet van hulpdiensten, waaronder brandweer en ambulance;

c)

AI-systemen die bedoeld zijn om noodoproepen van natuurlijke personen te evalueren en te classificeren of om te worden gebruikt voor de inzet of voor het vaststellen van prioriteiten bij de inzet van hulpdiensten, waaronder politie en rechtshandhavers, brandweer en ambulance , alsook van systemen voor de triage van patiënten die dringend medische zorg behoeven ;

Amendement 725

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt voor het uitvoeren van individuele risicobeoordelingen van natuurlijke personen om te beoordelen hoe groot het risico is dat een natuurlijke persoon (opnieuw) een strafbaar feit pleegt of hoe groot het risico is voor mogelijke slachtoffers van strafbare feiten;

Schrappen

Amendement 726

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — b

Door de Commissie voorgestelde tekst

Amendement

b)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt, zoals leugendetectoren of soortgelijke hulpmiddelen of voor de vaststelling van de emotionele toestand van een natuurlijke persoon ;

b)

AI-systemen die bedoeld zijn om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt ter ondersteuning van rechtshandhavingsinstanties, zoals leugendetectoren of soortgelijke hulpmiddelen , voor zover het gebruik daarvan is toegestaan op grond van het toepasselijke Unierecht en nationale recht ;

Amendement 727

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — c

Door de Commissie voorgestelde tekst

Amendement

c)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt voor de opsporing van deep fakes, zoals bedoeld in artikel 52, lid 3;

Schrappen

Amendement 728

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — d

Door de Commissie voorgestelde tekst

Amendement

d)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt voor de beoordeling van de betrouwbaarheid van bewijsmateriaal tijdens het onderzoek naar of de vervolging van strafbare feiten;

d)

AI-systemen die bedoeld zijn om door of namens rechtshandhavingsautoriteiten of door instellingen, organen of instanties van de Unie te worden gebruikt ter ondersteuning van rechtshandhavingsinstanties om de betrouwbaarheid van bewijsmateriaal te beoordelen tijdens het onderzoek naar of de vervolging van strafbare feiten;

Amendement 729

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — e

Door de Commissie voorgestelde tekst

Amendement

e)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt voor het voorspellen van een daadwerkelijk of potentieel strafbaar feit dat (opnieuw) zal worden gepleegd, op basis van de profilering van natuurlijke personen, als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680 of de beoordeling van persoonlijkheidskenmerken en kenmerken of eerder crimineel gedrag van natuurlijke personen of groepen;

Schrappen

Amendement 730

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — f

Door de Commissie voorgestelde tekst

Amendement

f)

AI-systemen die bedoeld zijn om door rechtshandhavingsautoriteiten te worden gebruikt voor de profilering van natuurlijke personen als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680 tijdens de opsporing, het onderzoek of de vervolging van strafbare feiten;

f)

AI-systemen die bedoeld zijn om door of namens rechtshandhavingsautoriteiten of door instellingen, organen of instanties van de Unie te worden gebruikt ter ondersteuning van rechtshandhavingsinstanties voor de profilering van natuurlijke personen als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680 tijdens de opsporing, het onderzoek of de vervolging van strafbare feiten , of, in het geval van agentschappen, instanties of organen van de Unie als bedoeld in artikel 3, lid 5, van Verordening (EU) 2018/1725 ;

Amendement 731

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 6 — g

Door de Commissie voorgestelde tekst

Amendement

g)

AI-systemen die bedoeld zijn om te worden gebruikt voor misdaadanalyses met betrekking tot natuurlijke personen, waardoor rechtshandhavingsautoriteiten complexe gerelateerde en ongerelateerde grote datareeksen kunnen doorzoeken die beschikbaar zijn in verschillende databronnen of verschillende data-indelingen om onbekende patronen op te sporen of verborgen relaties te ontdekken in de gegevens;

g)

AI-systemen die bedoeld zijn om te worden gebruikt door of namens rechtshandhavingsautoriteiten of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties voor misdaadanalyses met betrekking tot natuurlijke personen, waardoor deze autoriteiten complexe gerelateerde en ongerelateerde grote datareeksen kunnen doorzoeken die beschikbaar zijn in verschillende databronnen of verschillende data-indelingen om onbekende patronen op te sporen of verborgen relaties te ontdekken in de gegevens;

Amendement 732

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om door bevoegde overheidsinstanties te worden gebruikt, zoals leugendetectoren of soortgelijke hulpmiddelen of voor de vaststelling van de emotionele toestand van een natuurlijke persoon ;

a)

AI-systemen die bedoeld zijn om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt, zoals leugendetectoren of soortgelijke hulpmiddelen , voor zover het gebruik daarvan krachtens het toepasselijke Unierecht of nationale recht is toegestaan;

Amendement 733

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — b

Door de Commissie voorgestelde tekst

Amendement

b)

AI-systemen die bedoeld zijn om door bevoegde overheidsinstanties te worden gebruikt voor de beoordeling van een risico, waaronder een beveiligingsrisico, een risico op illegale immigratie of een gezondheidsrisico, dat een natuurlijke persoon vormt die voornemens is het grondgebied van een lidstaat te betreden of dat heeft gedaan;

b)

AI-systemen die bedoeld zijn om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt voor de beoordeling van een risico, waaronder een beveiligingsrisico, een risico op illegale immigratie of een gezondheidsrisico, dat een natuurlijke persoon vormt die voornemens is het grondgebied van een lidstaat te betreden of dat heeft gedaan;

Amendement 734

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — c

Door de Commissie voorgestelde tekst

Amendement

c)

AI-systemen die bedoeld zijn om door bevoegde overheidsinstanties te worden gebruikt voor de verificatie van de authenticiteit van reisdocumenten en ondersteunende documentatie van natuurlijke personen en de opsporing van niet-authentieke documenten door de controle van hun beveiligingskenmerken;

c)

AI-systemen die bedoeld zijn om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt voor de verificatie van de authenticiteit van reisdocumenten en ondersteunende documentatie van natuurlijke personen en de opsporing van niet-authentieke documenten door de controle van hun beveiligingskenmerken;

Amendement 735

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — d

Door de Commissie voorgestelde tekst

Amendement

d)

AI-systemen die bedoeld zijn om bevoegde overheidsinstanties te ondersteunen bij het onderzoek van asielaanvragen, aanvragen voor een visum en aanvragen voor een verblijfsvergunning, evenals gerelateerde klachten met betrekking tot de geschiktheid van de natuurlijke personen die een aanvraag voor een status indienen;

d)

AI-systemen die bedoeld zijn om door of namens bevoegde overheidsinstanties of door agentschappen, bureaus of organen van de Unie te worden gebruikt om hen te ondersteunen bij het onderzoek en de beoordeling van de waarheidsgetrouwheid van bewijsmateriaal in verband met asielaanvragen, aanvragen voor een visum en aanvragen voor een verblijfsvergunning, evenals gerelateerde klachten met betrekking tot de geschiktheid van de natuurlijke personen die een aanvraag voor een status indienen;

Amendement 736

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — d bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d bis)

AI-systemen die bedoeld zijn om te worden gebruikt door of namens de bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie die verantwoordelijk zijn voor migratie, asiel en beheer van grenscontroles, ten behoeve van het monitoren, bewaken of verwerken van gegevens op het gebied van grensbeheeractiviteiten met het oog op het opsporen, het herkennen of identificeren van natuurlijke personen;

Amendement 737

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 7 — d ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

d ter)

AI-systemen die bedoeld zijn om te worden gebruikt door of namens de bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie die verantwoordelijk zijn voor migratie, asiel en beheer van grenscontroles, ten behoeve van prognoses en voorspellingen van trends op het gebied van migratie, verkeer van personen en grensoverschrijdingen;

Amendement 738

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 8 — a

Door de Commissie voorgestelde tekst

Amendement

a)

AI-systemen die bedoeld zijn om een rechterlijke instantie te ondersteunen bij het onderzoeken en uitleggen van feiten en de wet en bij de toepassing van het recht op een concrete reeks feiten.

a)

AI-systemen die bedoeld zijn om te worden gebruikt door of namens een rechterlijke instantie of administratief orgaan om een rechterlijke instantie of administratief orgaan te ondersteunen bij het onderzoeken en uitleggen van feiten of de wet en bij de toepassing van het recht op een concrete reeks feiten of om te worden gebruikt op soortgelijke wijze in het kader van alternatieve geschillenbeslechting .

Amendement 739

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 8 — a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

AI-systemen die bedoeld zijn om te worden gebruikt om de uitslag van een verkiezing of referendum of het stemgedrag van natuurlijke personen bij de uitoefening van hun stemrecht bij verkiezingen of referenda te beïnvloeden. Dit geldt niet voor AI-systemen aan de output waarvan natuurlijke personen niet rechtstreeks worden blootgesteld, zoals instrumenten die worden gebruikt om politieke campagnes te organiseren, te optimaliseren en te structureren vanuit administratief en logistiek oogpunt.

Amendement 740

Voorstel voor een verordening

Bijlage III — alinea 1 — punt 8 — a ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a ter)

AI-systemen die bedoeld zijn om te worden gebruikt door socialemediaplatforms die zijn aangemerkt als zeer grote onlineplatforms in de zin van artikel 33 van Verordening (EU) 2022/2065, in hun aanbevelingssystemen om de afnemer van de dienst door gebruikers gegenereerde inhoud aan te bevelen die op het platform beschikbaar is.

Amendement 741

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — a

Door de Commissie voorgestelde tekst

Amendement

a)

het beoogde doel, de persoon/personen die het systeem ontwikkelen en de datum en versie van het systeem;

a)

het beoogde doel, de naam van de aanbieder en de versie van het systeem , waaruit het verband blijkt met eerdere en, in voorkomend geval, recentere versies in de reeks herzieningen ;

Amendement 742

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — a bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

a bis)

de aard van de gegevens die waarschijnlijk of naar verwachting door het systeem zullen worden verwerkt en, in het geval van persoonsgegevens, de categorieën natuurlijke personen en groepen die daar waarschijnlijk of naar verwachting mee te maken krijgen;

Amendement 743

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — b

Door de Commissie voorgestelde tekst

Amendement

b)

hoe het AI-systeem interageert of kan worden gebruikt om te interageren met hardware of software die geen deel uitmaakt van het AI-systeem zelf, indien van toepassing;

b)

hoe het AI-systeem kan interageren of kan worden gebruikt om te interageren met hardware of software , met inbegrip van andere AI-systemen die geen deel uitmaken van het AI-systeem zelf, indien van toepassing;

Amendement 744

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — c

Door de Commissie voorgestelde tekst

Amendement

c)

de versies van de betreffende software of firmware en eventuele eisen met betrekking tot versie-updates;

c)

de versies van de betreffende software of firmware en , indien van toepassing informatie voor de exploitant over eventuele eisen met betrekking tot versie-updates;

Amendement 745

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — d

Door de Commissie voorgestelde tekst

Amendement

d)

de beschrijving van alle vormen waarin het AI-systeem in de handel wordt gebracht of in bedrijf wordt gesteld;

d)

de beschrijving van de verschillende configuraties en varianten van het AI-systeem die naar verwachting in de handel zullen worden gebracht of in bedrijf zullen worden gesteld;

Amendement 746

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — f bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

f bis)

de omschrijving van de interface van de exploitant;

Amendement 747

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — g

Door de Commissie voorgestelde tekst

Amendement

g)

gebruiksaanwijzing voor de gebruiker en, indien van toepassing, installatie-instructies.

g)

gebruiksaanwijzing voor de exploitant overeenkomstig artikel 13, leden 2 en 3, en artikel 14, lid 4, punt e), en, indien van toepassing, installatie-instructies.

Amendement 748

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — g bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g bis)

een gedetailleerde en gemakkelijk te begrijpen beschrijving van het (de) belangrijkste optimaliseringsdoelstelling(en) van het systeem;

Amendement 749

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — g ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g ter)

een gedetailleerde en gemakkelijk te begrijpen beschrijving van de verwachte output en de verwachte outputkwaliteit van het systeem;

Amendement 750

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — g quater (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g quater)

gedetailleerde en gemakkelijk te begrijpen instructies voor het interpreteren van de output van het systeem;

Amendement 751

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 1 — g quinquies (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g quinquies)

voorbeelden van scenario’s waarvoor het systeem niet mag worden gebruikt.

Amendement 752

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 2 — b

Door de Commissie voorgestelde tekst

Amendement

b)

de ontwerpspecificaties van het systeem, met name de algemene logica van het AI-systeem en van de algoritmen ; de belangrijkste ontwerpkeuzen, waaronder de motivering en de gedane aannamen, ook met betrekking tot personen of groepen personen waarvoor het systeem bedoeld is om te worden gebruikt; de belangrijkste classificatiekeuzen; voor welke optimalisatie het systeem is ontworpen en de relevantie van de verschillende parameters; de beslissingen ten aanzien van eventuele afwegingen met betrekking tot technische oplossingen die zijn vastgesteld om te voldoen aan de in titel III, hoofdstuk 2, vastgestelde eisen;

b)

een beschrijving van de architectuur, ontwerpspecificaties , algoritmen en de datastructuren, met inbegrip van een specificatie van de componenten en interfaces ervan, en van de manier waarop deze met elkaar in verband staan en voorzien in de algehele verwerking of logica van het AI-systeem; de belangrijkste ontwerpkeuzen, waaronder de motivering en de gedane aannamen, ook met betrekking tot personen of groepen personen waarvoor het systeem bedoeld is om te worden gebruikt; de belangrijkste classificatiekeuzen; voor welke optimalisatie het systeem is ontworpen en de relevantie van de verschillende parameters; de beslissingen ten aanzien van eventuele afwegingen met betrekking tot technische oplossingen die zijn vastgesteld om te voldoen aan de in titel III, hoofdstuk 2, vastgestelde eisen;

Amendement 753

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 2 — c

Door de Commissie voorgestelde tekst

Amendement

c)

de beschrijving van de systeemarchitectuur met een toelichting op hoe softwarecomponenten op elkaar voortbouwen of elkaar informatie aanleveren en hoe de integratie in de algemene verwerking plaatsvindt; de rekenhulpmiddelen die zijn gebruikt voor het ontwikkelen, trainen, testen en valideren van het AI-systeem;

c)

Schrappen

Amendement 754

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 2 — e

Door de Commissie voorgestelde tekst

Amendement

e)

beoordeling van de in overeenstemming met artikel 14 benodigde maatregelen op het gebied van menselijk toezicht, waaronder een beoordeling van de benodigde technische maatregelen voor de vereenvoudiging van de interpretatie van de output van AI-systemen door gebruikers , in overeenstemming met artikel 13, lid 3, punt d);

e)

beoordeling van de in overeenstemming met artikel 14 benodigde maatregelen op het gebied van menselijk toezicht, waaronder een beoordeling van de benodigde technische maatregelen voor de vereenvoudiging van de interpretatie van de output van AI-systemen door exploitanten , in overeenstemming met artikel 13, lid 3, punt d);

Amendement 755

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 2 — g

Door de Commissie voorgestelde tekst

Amendement

g)

de gebruikte validatie- en testprocedures, waaronder informatie over de gebruikte validatie- en testdata en de belangrijkste kenmerken ervan; de statistieken die worden gebruikt voor het meten van de nauwkeurigheid, robuustheid , cyberbeveiliging en naleving van andere relevante eisen zoals vastgesteld in titel III, hoofdstuk 2, evenals mogelijk discriminerende gevolgen; logbestanden over en alle verslagen van tests die zijn gedateerd en ondertekend door de verantwoordelijken, waaronder met betrekking tot vooraf vastgestelde wijzigingen als bedoeld onder f).

g)

de gebruikte validatie- en testprocedures, waaronder informatie over de gebruikte validatie- en testdata en de belangrijkste kenmerken ervan; de informatie die wordt gebruikt voor het meten van de nauwkeurigheid, robuustheid en naleving van andere relevante eisen zoals vastgesteld in titel III, hoofdstuk 2, evenals mogelijk discriminerende gevolgen; logbestanden over en alle verslagen van tests die zijn gedateerd en ondertekend door de verantwoordelijken, waaronder met betrekking tot vooraf vastgestelde wijzigingen als bedoeld onder f).

Amendement 756

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 2 — g bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

g bis)

gehanteerde cyberbeveiligingsmaatregelen.

Amendement 757

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 3

Door de Commissie voorgestelde tekst

Amendement

3.

Gedetailleerde informatie over de monitoring, werking en controle van het AI-systeem, met name in verband met: de mogelijkheden en beperkingen op het gebied van de prestaties van het systeem, waaronder de verschillende maten van nauwkeurigheid voor specifieke personen of groepen personen waarvoor het systeem bedoeld is om te worden gebruikt en het totale verwachte nauwkeurigheidsniveau in verhouding tot het beoogde doel; de voorzienbare onbedoelde resultaten en risicobronnen voor de gezondheid en veiligheid, de grondrechten en discriminatie gelet op het beoogde doel van het AI-systeem; de in overeenstemming met artikel 14 benodigde maatregelen voor menselijk toezicht, met inbegrip van de technische maatregelen die zijn getroffen om de interpretatie van de output van AI-systemen door gebruikers te vergemakkelijken; specificaties over inputdata, indien van toepassing.

3.

Gedetailleerde informatie over de monitoring, werking en controle van het AI-systeem, met name in verband met: de mogelijkheden en beperkingen op het gebied van de prestaties van het systeem, waaronder de verschillende maten van nauwkeurigheid voor specifieke personen of groepen personen waarvoor het systeem bedoeld is om te worden gebruikt en het totale verwachte nauwkeurigheidsniveau in verhouding tot het beoogde doel; de voorzienbare onbedoelde resultaten en risicobronnen voor de gezondheid en veiligheid, de grondrechten en discriminatie gelet op het beoogde doel van het AI-systeem; de in overeenstemming met artikel 14 benodigde maatregelen voor menselijk toezicht, met inbegrip van de technische maatregelen die zijn getroffen om de interpretatie van de output van AI-systemen door exploitanten te vergemakkelijken; specificaties over inputdata, indien van toepassing.

Amendement 758

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 3 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 bis.

Een beschrijving van de geschiktheid van de prestatiestatistieken voor het specifieke AI-systeem;

Amendement 759

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 3 ter (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

3 ter.

Informatie over het energieverbruik van het AI-systeem tijdens de ontwikkelingsfase en het verwachte energieverbruik tijdens het gebruik, in voorkomend geval rekening houdend met het toepasselijke Unierecht en nationale recht;

Amendement 760

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 5

Door de Commissie voorgestelde tekst

Amendement

5.

Een beschrijving van de wijzigingen die tijdens de levensduur van het systeem worden aangebracht.

5.

Een beschrijving van de relevante wijzigingen die tijdens de levensduur van het systeem worden aangebracht door de aanbieders .

Amendement 761

Voorstel voor een verordening

Bijlage IV — alinea 1 — punt 6

Door de Commissie voorgestelde tekst

Amendement

6.

Een lijst van de geharmoniseerde normen die volledig of gedeeltelijk worden toegepast en waarvan de referenties zijn gepubliceerd in het Publicatieblad van de Europese Unie. Indien dergelijke geharmoniseerde normen niet zijn toegepast, een gedetailleerde beschrijving van de vastgestelde oplossingen om te voldoen aan de in titel III, hoofdstuk 2, vermelde eisen, met inbegrip van een lijst van andere toegepaste relevante normen en technische specificaties.

6.

Een lijst van de geharmoniseerde normen die volledig of gedeeltelijk worden toegepast en waarvan de referenties zijn gepubliceerd in het Publicatieblad van de Europese Unie. Indien dergelijke geharmoniseerde normen niet zijn toegepast, een gedetailleerde beschrijving van de vastgestelde oplossingen om te voldoen aan de in titel III, hoofdstuk 2, vermelde eisen, met inbegrip van een lijst van andere toegepaste relevante normen of gemeenschappelijke specificaties.

Amendement 762

Voorstel voor een verordening

Bijlage V — alinea 1 — punt 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.

indien een AI-systeem de verwerking van persoonsgegevens met zich meebrengt, een verklaring dat dat AI-systeem voldoet aan de Verordeningen (EU) 2016/679 en (EU) 2018/1725 en Richtlijn (EU) 2016/680.

Amendement 763

Voorstel voor een verordening

Bijlage V — alinea 1 — punt 7

Door de Commissie voorgestelde tekst

Amendement

7.

plaats en de datum van afgifte van de verklaring, naam en functie van de persoon die de verklaring heeft ondertekend alsmede vermelding van de persoon voor en namens wie die persoon ondertekent, handtekening.

7.

plaats en de datum van afgifte van de verklaring, handtekening, naam en functie van de persoon die de verklaring heeft ondertekend alsmede vermelding van de persoon voor en namens wie die persoon ondertekent, handtekening.

Amendement 764

Voorstel voor een verordening

Bijlage VII — punt 4 — 4.5

Door de Commissie voorgestelde tekst

Amendement

4.5.

Indien dat noodzakelijk is om te beoordelen of AI-systemen met een hoog risico voldoen aan de in titel III, hoofdstuk 2, vermelde eisen en na een met redenen omkleed verzoek, krijgt de aangemelde instantie eveneens toegang tot de broncode van het AI-systeem.

4.5.

Indien dat noodzakelijk is om te beoordelen of AI-systemen met een hoog risico voldoen aan de in titel III, hoofdstuk 2, vermelde eisen , nadat alle andere redelijke manieren om de conformiteit te verifiëren, zijn uitgeput of ontoereikend zijn gebleken, en na een met redenen omkleed verzoek, krijgt de aangemelde instantie eveneens toegang tot de trainings- en getrainde modellen van het AI-systeem , met inbegrip van de relevante parameters ervan . Die toegang is onderworpen aan het bestaande Unierecht inzake de bescherming van intellectuele eigendom en bedrijfsgeheimen. Zij nemen technische en organisatorische maatregelen om de bescherming van intellectuele eigendom en handelsgeheimen te waarborgen.

Amendement 765

Voorstel voor een verordening

Bijlage VIII — alinea 1

Door de Commissie voorgestelde tekst

Amendement

Voor wat betreft AI-systemen met een hoog risico die moeten worden geregistreerd in overeenstemming met artikel 51 wordt de volgende informatie verstrekt en daarna actueel gehouden:

Deel A – Voor wat betreft AI-systemen met een hoog risico die moeten worden geregistreerd in overeenstemming met artikel 51 , lid 1, wordt de volgende informatie verstrekt en daarna actueel gehouden:

Amendement 766

Voorstel voor een verordening

Bijlage VIII — punt 4 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

4 bis.

de handelsnaam van het basismodel, evenals eventuele aanvullende ondubbelzinnige verwijzingen waarmee dat model kan worden geïdentificeerd en getraceerd;

Amendement 767

Voorstel voor een verordening

Bijlage VIII — punt 5

Door de Commissie voorgestelde tekst

Amendement

5.

een beschrijving van de beoogde doelen van het AI-systeem;

5.

een eenvoudige en begrijpelijke beschrijving van

 

a)

de beoogde doelen van het AI-systeem;

 

b)

de door het AI-systeem ondersteunde componenten en functies;

 

c)

een basisuitleg over de logica van het AI-systeem;

Amendement 768

Voorstel voor een verordening

Bijlage VIII — punt 5 bis (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

5 bis.

indien van toepassing, de categorieën en soort gegevens die waarschijnlijk of naar verwachting zullen worden verwerkt door het AI-systeem;

Amendement 769

Voorstel voor een verordening

Bijlage VIII — punt 11

Door de Commissie voorgestelde tekst

Amendement

11.

een elektronische gebruiksaanwijzing; deze informatie wordt niet verstrekt voor AI-systemen met een hoog risico op het gebied van rechtshandhaving en migratie, asiel en beheer van grenscontroles, als bedoeld in bijlage III, punten 1, 6 en 7.

Schrappen

Amendement 770

Voorstel voor een verordening

Bijlage VIII — Deel B (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Deel B — Voor wat betreft AI-systemen met een hoog risico die moeten worden geregistreerd in overeenstemming met artikel 51, lid bis, punt a), en lid 1 ter, wordt de volgende informatie verstrekt en daarna actueel gehouden:

 

1.

de naam, het adres en de contactgegevens van de exploitant;

 

2.

de naam, het adres en de contactgegevens van de persoon die namens de exploitant informatie indient;

 

3.

de handelsnaam van het AI-systeem met een hoog risico en eventuele aanvullende ondubbelzinnige verwijzingen waarmee het gebruikte AI-systeem kan worden geïdentificeerd en getraceerd;

 

4.

a) een eenvoudige en alomvattende beschrijving van het beoogde gebruik van het AI-systeem, met inbegrip van de specifieke resultaten die met het gebruik van het systeem worden nagestreefd en het geografische toepassingsgebied en het bijbehorende tijdsbestek van de toepassing;

 

b)

indien van toepassing, de categorieën en soort gegevens die zullen worden verwerkt door het AI-systeem;

 

c)

regelingen voor menselijk toezicht en governance;

 

d)

in voorkomend geval, de instanties of natuurlijke personen die verantwoordelijk zijn voor door het AI-systeem genomen of ondersteunde beslissingen;

 

5.

een samenvatting van de bevindingen van de overeenkomstig artikel 29 bis uitgevoerde effectbeoordeling op het gebied van de grondrechten;

 

6.

de URL van de invoer van het AI-systeem in de EU-databank door de aanbieder ervan;

 

7.

een samenvatting van de gegevensbeschermingeffectbeoordeling, die is uitgevoerd overeenkomstig artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, als bedoeld in lid 6 van artikel 29 van deze verordening, indien van toepassing.

Amendement 771

Voorstel voor een verordening

Bijlage VIII — Deel C (nieuw)

Door de Commissie voorgestelde tekst

Amendement

 

Deel C — Voor wat betreft basismodellen die moeten worden geregistreerd in overeenstemming met artikel 28 ter, punt e), wordt de volgende informatie verstrekt en daarna actueel gehouden:

 

1.

de naam, het adres en de contactgegevens van de aanbieder;

 

2.

wanneer de informatie wordt ingediend door een andere persoon namens de aanbieder, de naam, het adres en de contactgegevens van die persoon;

 

3.

de naam, het adres en de contactgegevens van de gemachtigde, indien van toepassing;

 

4.

de handelsnaam evenals eventuele aanvullende ondubbelzinnige verwijzingen waarmee het basismodel kan worden geïdentificeerd;

 

5.

de beschrijving van de gegevensbronnen die bij de ontwikkeling van het basismodel zijn gebruikt;

 

6.

de beschrijving van de capaciteiten en beperkingen van het basismodel, met inbegrip van de redelijkerwijs te voorziene risico’s en de maatregelen die zijn genomen om deze risico’s te beperken, alsook van de resterende niet-beperkte risico’s, met een toelichting waarom die risico’s niet kunnen worden beperkt;

 

7.

de beschrijving van de opleidingsmiddelen die door het basismodel worden gebruikt, met inbegrip van de vereiste rekenkracht, de opleidingstijd en andere relevante informatie met betrekking tot de omvang en de kracht van het model; de beschrijving van de prestaties van het model, zo ook op het vlak van openbare benchmarks of geavanceerde benchmarks voor de sector;

 

8.

de beschrijving van de resultaten van relevante interne en externe tests en optimalisering van het model;

 

9.

de lidstaten waar het basismodel in de handel is gebracht, in bedrijf is gesteld of in de Unie ter beschikking is gesteld;

 

10.

de URL voor aanvullende informatie (optioneel).

(1)  De zaak werd voor interinstitutionele onderhandelingen terugverwezen naar de bevoegde commissie op grond van artikel 59, lid 4, vierde alinea, van het Reglement (A9-0188/2023).

(33)  Europese Raad, Buitengewone bijeenkomst van de Europese Raad (1 en 2 oktober 2020) — Conclusies, EUCO 13/20, 2020, blz. 6.

(34)  Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën, 2020/2012(INL).

(33)  Europese Raad, Buitengewone bijeenkomst van de Europese Raad (1 en 2 oktober 2020) — Conclusies, EUCO 13/20, 2020, blz. 6.

(34)  Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën, 2020/2012(INL).

(35)  Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

(36)   Verordening (EU) 2018/1725 van het Europees Parlement en de Raad van 23 oktober 2018 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door de instellingen, organen en instanties van de Unie en betreffende het vrije verkeer van die gegevens, en tot intrekking van Verordening (EG) nr. 45/2001 en Besluit nr. 1247/2002/EG (PB L 295 van 21.11.2018, blz. 39).

(37)   Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad (richtlijn gegevensbescherming bij rechtshandhaving) (PB L 119 van 4.5.2016, blz. 89).

(35)  Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

(38)   Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).

(39)  Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad van 11 maart 2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart en tot intrekking van Verordening (EG) nr. 2320/2002 (PB L 97 van 9.4.2008, blz. 72).

(40)  Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad van 5 februari 2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosbouwvoertuigen (PB L 60 van 2.3.2013, blz. 1).

(41)  Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad van 15 januari 2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers (PB L 60 van 2.3.2013, blz. 52).

(42)  Richtlijn 2014/90/EU van het Europees Parlement en de Raad van 23 juli 2014 inzake uitrusting van zeeschepen en tot intrekking van Richtlijn 96/98/EG van de Raad (PB L 257 van 28.8.2014, blz. 146).

(43)  Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad van 11 mei 2016 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie (PB L 138 van 26.5.2016, blz. 44).

(44)  Verordening (EU) 2018/858 van het Europees Parlement en de Raad van 30 mei 2018 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd, tot wijziging van Verordeningen (EG) nr. 715/2007 en (EG) nr. 595/2009 en tot intrekking van Richtlijn 2007/46/EG (PB L 151 van 14.6.2018, blz. 1).

(45)  Verordening (EU) 2018/1139 van het Europees Parlement en de Raad van 4 juli 2018 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, en tot wijziging van de Verordeningen (EG) nr. 2111/2005, (EG) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 en de Richtlijnen 2014/30/EU en 2014/53/EU van het Europees Parlement en de Raad, en tot intrekking van de Verordeningen (EG) nr. 552/2004 en (EG) nr. 216/2008 van het Europees Parlement en de Raad en Verordening (EEG) nr. 3922/91 van de Raad (PB L 212 van 22.8.2018, blz. 1).

(46)  Verordening (EU) 2019/2144 van het Europees Parlement en de Raad van 27 november 2019 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft, tot wijziging van Verordening (EU) 2018/858 van het Europees Parlement en de Raad en tot intrekking van de Verordeningen (EG) nr. 78/2009, (EG) nr. 79/2009 en (EG) nr. 661/2009 van het Europees Parlement en de Raad en de Verordeningen (EG) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 en (EU) 2015/166 van de Commissie (PB L 325 van 16.12.2019, blz. 1).

(39)  Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad van 11 maart 2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart en tot intrekking van Verordening (EG) nr. 2320/2002 (PB L 97 van 9.4.2008, blz. 72).

(40)  Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad van 5 februari 2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosbouwvoertuigen (PB L 60 van 2.3.2013, blz. 1).

(41)  Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad van 15 januari 2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers (PB L 60 van 2.3.2013, blz. 52).

(42)  Richtlijn 2014/90/EU van het Europees Parlement en de Raad van 23 juli 2014 inzake uitrusting van zeeschepen en tot intrekking van Richtlijn 96/98/EG van de Raad (PB L 257 van 28.8.2014, blz. 146).

(43)  Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad van 11 mei 2016 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie (PB L 138 van 26.5.2016, blz. 44).

(44)  Verordening (EU) 2018/858 van het Europees Parlement en de Raad van 30 mei 2018 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd, tot wijziging van Verordeningen (EG) nr. 715/2007 en (EG) nr. 595/2009 en tot intrekking van Richtlijn 2007/46/EG (PB L 151 van 14.6.2018, blz. 1).

(45)  Verordening (EU) 2018/1139 van het Europees Parlement en de Raad van 4 juli 2018 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, en tot wijziging van de Verordeningen (EG) nr. 2111/2005, (EG) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 en de Richtlijnen 2014/30/EU en 2014/53/EU van het Europees Parlement en de Raad, en tot intrekking van de Verordeningen (EG) nr. 552/2004 en (EG) nr. 216/2008 van het Europees Parlement en de Raad en Verordening (EEG) nr. 3922/91 van de Raad (PB L 212 van 22.8.2018, blz. 1).

(46)  Verordening (EU) 2019/2144 van het Europees Parlement en de Raad van 27 november 2019 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft, tot wijziging van Verordening (EU) 2018/858 van het Europees Parlement en de Raad en tot intrekking van de Verordeningen (EG) nr. 78/2009, (EG) nr. 79/2009 en (EG) nr. 661/2009 van het Europees Parlement en de Raad en de Verordeningen (EG) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 en (EU) 2015/166 van de Commissie (PB L 325 van 16.12.2019, blz. 1).

(47)  Verordening (EU) 2017/745 van het Europees Parlement en de Raad van 5 april 2017 betreffende medische hulpmiddelen, tot wijziging van Richtlijn 2001/83/EG, Verordening (EG) nr. 178/2002 en Verordening (EG) nr. 1223/2009, en tot intrekking van Richtlijnen 90/385/EEG en 93/42/EEG van de Raad (PB L 117 van 5.5.2017, blz. 1).

(48)  Verordening (EU) 2017/746 van het Europees Parlement en de Raad van 5 april 2017 betreffende medische hulpmiddelen voor in-vitrodiagnostiek en tot intrekking van Richtlijn 98/79/EG en Besluit 2010/227/EU van de Commissie (PB L 117 van 5.5.2017, blz. 176).

(49)  Richtlijn 2013/32/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende gemeenschappelijke procedures voor de toekenning en intrekking van de internationale bescherming (PB L 180 van 29.6.2013, blz. 60).

(50)  Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad van 13 juli 2009 tot vaststelling van een gemeenschappelijke visumcode (Visumcode) (PB L 243 van 15.9.2009, blz. 1).

(49)  Richtlijn 2013/32/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende gemeenschappelijke procedures voor de toekenning en intrekking van de internationale bescherming (PB L 180 van 29.6.2013, blz. 60).

(50)  Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad van 13 juli 2009 tot vaststelling van een gemeenschappelijke visumcode (Visumcode) (PB L 243 van 15.9.2009, blz. 1).

(54)  Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad van 25 oktober 2012 betreffende Europese normalisatie, tot wijziging van de Richtlijnen 89/686/EEG en 93/15/EEG van de Raad alsmede de Richtlijnen 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG en 2009/105/EG van het Europees Parlement en de Raad en tot intrekking van Beschikking 87/95/EEG van de Raad en Besluit nr. 1673/2006/EG van het Europees Parlement en de Raad (PB L 316 van 14.11.2012, blz. 12).

(54)  Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad van 25 oktober 2012 betreffende Europese normalisatie, tot wijziging van de Richtlijnen 89/686/EEG en 93/15/EEG van de Raad alsmede de Richtlijnen 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG en 2009/105/EG van het Europees Parlement en de Raad en tot intrekking van Beschikking 87/95/EEG van de Raad en Besluit nr. 1673/2006/EG van het Europees Parlement en de Raad (PB L 316 van 14.11.2012, blz. 12).

(55)  Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

(55)  Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

(56)  Richtlijn 2013/36/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende toegang tot het bedrijf van kredietinstellingen en het prudentieel toezicht op kredietinstellingen en beleggingsondernemingen, tot wijziging van Richtlijn 2002/87/EG en tot intrekking van de Richtlijnen 2006/48/EG en 2006/49/EG (PB L 176 van 27.6.2013, blz. 338).

(56)  Richtlijn 2013/36/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende toegang tot het bedrijf van kredietinstellingen en het prudentieel toezicht op kredietinstellingen en beleggingsondernemingen, tot wijziging van Richtlijn 2002/87/EG en tot intrekking van de Richtlijnen 2006/48/EG en 2006/49/EG (PB L 176 van 27.6.2013, blz. 338).

(57)  Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid (PB L 11 van 15.1.2002, blz. 4).

(57)  Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid (PB L 11 van 15.1.2002, blz. 4).

(58)   PB L 123 van 12.5.2016, blz. 1.

(58)   PB L 123 van 12.5.2016, blz. 1.

(61)   Aanbeveling van de Commissie van 6 mei 2003 betreffende de definitie van kleine, middelgrote en micro-ondernemingen (PB L 124 van 20.5.2003, blz. 36).

(62)   Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).

(1 bis)   Richtlijn (EU) 2020/1828 van het Europees Parlement en de Raad van 25 november 2020 betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten en tot intrekking van Richtlijn 2009/22/EG (PB L 409 van 4.12.2020, blz. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-0995 (electronic edition)


Haut